Вы находитесь на странице: 1из 45

Facultad de Ciencias Fı́sicas y Matemtáticas, Universidad de Chile

Probabilidades y Estadı́sticas
MA3403
Apuntes de Clases

Profesor: Roberto Cortez


Tomás Wolf y Pedro Franz
6 de febrero de 2014
Santiago, Chile.
Índice general

I Probabilidades 1

1. Teorı́a axiomática de probabilidades 2


1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1. Espacio muestral y eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Axiomas de Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Proposiciones sobre probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1. Probabilidad del vacı́o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.2. Probabilidad del Complemento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.3. Monotonı́a de la Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.4. Probabilidad de eventos no disjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.5. Continuidad de la Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2. Combinatoria 6
2.1. Espacio Equiprobable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2. Principios de conteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1. Principio aditivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.2. Principio multiplicativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4. Subconjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.5. Coeficiente multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.5.1. Bolitas en Urnas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.5.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.6. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3. Probabilidades Condicionales 11
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.1.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3. Propiedad (regla de Bayes) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.4. Propiedad (regla de probabilidades totales) . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5. Independencia de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5.2. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5.3. Propiedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2
Sección ÍNDICE GENERAL 3

3.5.4. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.5.5. Propiedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

4. Variables aleatorias 16
4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2. Definición: Variable Aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.3. Definición: Distribución de X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.3.1. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.3.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.4. Variables discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.1. Definición: Rango de X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.2. Definición: función de distribución discreta . . . . . . . . . . . . . . . . . . . . . . 19
4.4.3. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.4. Propiedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.5. Ejemplos importantes de variables aleatorias discretas . . . . . . . . . . . . . . . . . . . . 20
4.5.1. Variable Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.5.2. Variable Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5.3. Variable Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5.4. Variable Binomial Negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5.5. Variable de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.6. Variables Continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.6.1. Función de distribución acumulada . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.6.2. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.6.3. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.7. Variables Continuas Importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.7.1. Variable Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.7.2. Variable Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.7.3. Variable Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.8. Independencia de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.8.1. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

5. Esperanza 29
5.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.1.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.1.2. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.3. Proposición: Linealidad de E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.4. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.1.5. Proposición: Esperanza de variables independientes . . . . . . . . . . . . . . . . . . 32
5.1.6. Proposición: Crecimiento de E(·) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.2. Varianza y Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2.1. Definición: Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2.2. Ejemplos de varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2.3. Propiedades de la Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.3. Función Generadora de Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.3.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.3.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.3.3. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

MA3403 Probabilidades y Estadı́sticas


Sección ÍNDICE GENERAL 4

5.3.4. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.3.5. Proposición: estabilidad bajo la suma . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.4. Distribución de una función de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . 37
5.4.1. Ejemplo: X ∼ N (0, 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

6. Vectores Aleatorios 40
6.1. Definición: Vector Aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.1.1. Definición: Función de Distribución Acumulada Conjunta . . . . . . . . . . . . . . 40
6.1.2. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.1.3. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.1.4. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

MA3403 Probabilidades y Estadı́sticas


Parte I

Probabilidades

1
Capı́tulo 1

Teorı́a axiomática de probabilidades

1.1. Introducción
Un suceso C(n) es la cantidad de veces que aparece el suceso C en n experimentos aleatorios.
La probabilidad de un suceso es intuitivamente

C(n)
lı́m
n→∞ n

1.1.1. Espacio muestral y eventos


Definición: Un espacio muestral es un conjunto Ω que contiene todos los posibles resultados de un
experimento aleatorio. Un evento es un subconjunto E ⊆ Ω, en que Ω no necesita ser numerable.
Los elementos de Ω se anotan como ω. Cuando el resultado del experimento es un cierto ω ∈ E,
decimos que E ocurre.

1.2. Axiomas de Probabilidad


Def: Sea Ω espacio muestral, una probabilidad sobre Ω es una función P:

P : P(Ω) −→ R

que satisface los siguientes 3 axiomas de probabilidad.


Axioma 1:
0 ≤ P(E) ≤ 1 ∀E ∈ P(Ω)
Axioma 2:
P(Ω) = 1
Axioma 3: ∀Ei i ∈ N colección de eventos disjuntos, (Ei ∩ Ej = φ), (Ei Ej = Ei ∩ Ej ∀i,j ) se tiene:
[ X
P( · Ei ) = P(Ei )
i∈N i∈N

(Ω, P) se denomina espacio de probabilidad.

2
Sección 1.3. Proposiciones sobre probabilidades 3

1.3. Proposiciones sobre probabilidades


1.3.1. Probabilidad del vacı́o
P(φ) = 0
Demostración: Tomando Ei = φ∀i ∈ N tenemos:

[ X∞
P( · Ei ) = P( Ei )
|{z}
i∈N i=1 φ
| {z }
φ


X
⇒ 1 ≥ P(φ) = P(φ) ⇔ P(φ) = 0
i=1

∴ P(φ) = 0
Corolario: ∀E1 , E2 , . . . , En disjuntos,

[n n
X
P( · Ei ) = P(Ei )
i=1 i=1

1.3.2. Probabilidad del Complemento

P(E c ) = 1 − P(E)

1 = P(Ω)
= P(E ∪· E c )
= P(E) + P(E c )

∴ P(E c ) = 1 − P(E)

1.3.3. Monotonı́a de la Probabilidad


Si E ⊆ F ⇒ P(E) ≤ P(F ). Es decir, P(·) es creciente conforme crecen los eventos.
Demostración:

P(F ) = P(F E ∪· F E c )
= P(F E) +P(F E c )
| {z }
pero E ⊆ F
= P(E) + P(E c F ) ≥ P(E)

MA3403 Probabilidades y Estadı́sticas


Sección 1.3. Proposiciones sobre probabilidades 4

1.3.4. Probabilidad de eventos no disjuntos


∀E, F eventos, P(E ∪ F ) = P(E) + P(F ) − P(EF ).
Demostración:

P(E ∪ F ) = P(EF c ∪· F E c ∪· EF )
= P(EF c ) + P(F E c ) + 2P(EF ) − P(EF )
= P(EF c ∪· EF ) + P(EF ) − P(EF ) + P(F E c )
= P(EF c ∪· EF ) + P(F E c ∪· F E) −P(EF )
| {z } | {z }
E F
= P(E) + P(F ) − P(EF )

1.3.5. Continuidad de la Probabilidad


Sea (Ω, P) un espacio de probabilidad.
(a) Si A1 ⊆ A2 ⊆ . . . ⊆ An ⊆ . . . una secuencia creciente de eventos, entonces

[
P( Ai ) = lı́m P(An )
n→∞
i=1

(b) Si A1 ⊇ A2 ⊇ . . . secuencia creciente de eventos, entonces



\
P( Ai ) = lı́m P(An )
n→∞
i=1

Demostración:
(a) Sea

Bi = Ai \Ai−1 ∀i ≥ 2 ∈ N
B1 = A1

Se prueba que (propuesto) los Bi son disjuntos,



[ ∞
[ [n n
[
· Bi = Ai (de hecho, ∀n · Bi = Ai )
i=1 i=1 i=1 i=1

MA3403 Probabilidades y Estadı́sticas


Sección 1.3. Proposiciones sobre probabilidades 5

Con esto:

[ ∞
[
P( Ai ) = P( · Bi )
i=1 i=1

X
=
|{z} P(Bi )
axioma 3 i=1
n
X
= lı́m P(Bi )
n→∞
i=1
[n
= lı́m P( · Bi )
|{z} n→∞
axioma 3 i=1
n
[ n
[
Pero · Bi = Ai = An
i=1 i=1

[
∴ P( Ai ) = lı́m P(An )
n→∞
i=1

(b) Reduzcamos a la parte (a): notemos que (Ani )i∈N es una secuencia creciente,

\ ∞
\
=⇒ P( Ai ) = 1 − P([ Ai ] c )
i=1 i=1
\∞
= 1 − P([ Aci ])
i=1
= 1 − lı́m P(Acn ) = 1 − lı́m (1 − P(An ))
n→∞ n→∞
= lı́m P(An )
n→∞

Observación: S∞
Si
T∞ (A i ) i∈N es creciente, el evento i=1 Ai se llama el ”lı́mite”de los Ai , lo mismo si es decreciente.
i=1 Ai se denomina también el lı́mite de los Ai . Con esta notación, el teorema se escribe:

P( lı́m An ) = lı́m P(An )


n→∞ n→∞

MA3403 Probabilidades y Estadı́sticas


Capı́tulo 2

Combinatoria

2.1. Espacio Equiprobable


Definición:
Un espacio de probabilidad (Ω, P) se dice equiprobable si:
Ω es finito y ∀ω, ω 0 ∈ Ω, P(ω) = P(ω 0 ).
Luego, dado ω0 ∈ Ω fijo,
[
⇒ 1 = P(Ω) = P( · {ω})
ω∈Ω
X
= P({ω})
ω∈Ω
= P({ω0 }) = P({ω0 }) · |Ω|
1
⇒ P({ω0 }) =
|Ω|

Que se cumple ∀ω0 ∈ Ω.


Mas aún, si E ⊆ Ω,
[
P(E) = P( · {ω})
ω∈E
X
= P({ω})
ω∈E
1 X
= · 1
|Ω|
ω∈E
1
= |E| ·
|Ω|
|E|
∴ P(E) =
|Ω|

2.1.1. Ejemplo
Se lanzan 2 dados equilibrados, ¿Cual es la probabilidad de que sumen 7?
Solución:
{2, 3, . . . , 12} no sirve como Ω, pues no son equiprobables.

6
Sección 2.2. Principios de conteo 7

Ω = {(i, j)|i, j ∈ {1, . . . , 6}} = {1, . . . , 6}2


donde i es el primer lanzamiento, y j el segundo.
Nos interesa

E = {(i, j) ∈ Ω|i + j = 7} = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}

|E| 6 1
⇒ P(E) = = =
|Ω| 36 6

2.2. Principios de conteo


2.2.1. Principio aditivo
El experimento de extraer el elemento de A o bien de B (A, B disjuntos), con |A| = n y |B| = m posee
n + m posibles resultados.

2.2.2. Principio multiplicativo


El experimento de extraer un primer elemento de A y luego un segundo elemento de B (A, B no
necesariamente disjuntos) posee n · m posibles resultados.

Pregunta (muestreo con orden y reposición)


Si se dispone de un conjunto A tal que |A| = n. Se extrae un elemento, se anota primero en una lista,
y se devuelve al conjunto; luego se extrae un segundo y se repite el proceso k veces. ¿De cuantas formas
puede resultar lo anterior?
Respuesta: nk .

2.3. Permutaciones
Si en la pregunta anterior los elementos extraidos NO SON REPUESTOS, ¿Cuantos resultados posibles
hay ahora?
Respuesta:
n!
(n − k)!

Ejemplo
¿Cuantos desordenes (o permutaciones) hay de letras a, b, c?
Respuesta: 3!, son {(a, b, c), (a, c, b), (b, a, c), (b, c, a), (c, a, b), (c, b, a)}

“Paradoja”del cumpleaños
De un grupo de k personas, ¿Cual es la probabilidad de que al menos 2 de ellas estén de cumpleaños
el mismo dia?
Solución: Supongamos que las personas esán ordenadas, y no hay años bisiestos. Trabajaremos con
Ω = {1, . . . , 365}k = {(ω1 , . . . , ωk )|∀i ∈ {1, . . . , k}ωi ∈ {1, . . . , 365}} que representa todas las posibles
formas en que las k personas “eligen”un cumpleaños.

MA3403 Probabilidades y Estadı́sticas


Sección 2.4. Subconjuntos 8

Dotamos a Ω de P equiprobable. Consideremos el evento

E = {ω = (ω1 , . . . , ωk ) ∈ Ω|∃i 6= j, ωi = ωj }

⇒ E c = {ω = (ω1 , . . . , ωk ) ∈ Ω|∀i 6= j, ωi 6= ωj }
Luego

P(E) = 1 − P(E c )
|E c |
= 1−
|Ω|

Sabemos que, |Ω| = 365k , luego notemos que E c es el conjunto de tuplas con todos sus elementos
distintos, lo que corresponde al caso de extraer con orden y sin reposición.

365!
⇒ |E c | =
(365 − k)!
Con esto:
365!
(365−k)!
P(E) = 1 −
365k
365 · 364 . . . · (365 − (k − 1))
= 1−
365k
k−1
Y 365 − i
= 1−
365
i=0

Por ejemplo:
k = 41 ⇒ P(E) ≈ 90 %
k = 57 ⇒ P(E) ≈ 99 %

2.4. Subconjuntos
Problema
Se extraen k elementos sin devolverlos al conjunto, y sin distinguir el orden de aparición. ¿De cuantas
formas se puede hacer esto?
Equivalentemente, ¿Cuantos subconjuntos de k elementos pueden extraerse de un conjunto de n ele-
mentos?
n
Para responder esto, contaremos las (n−k)! formas de extraer con orden y sin reposición de manera
conveniente.

(# formas con orden y sin reposición) =


(# formas sin orden y sin reposición) · (# formas de permutar k elementos)
n!
⇒ = (# formas sin orden y sin reposición) · k!
(n − k)!
luego,  
n! n
(# formas sin orden y sin reposición) = =
k!(n − k)! k

MA3403 Probabilidades y Estadı́sticas


Sección 2.5. Coeficiente multinomial 9

Ejemplo
De un grupo de 5 personas debe escogerse un comité de 2 personas. ¿Cuantos posibles comites hay?
Respuesta:  
5 5! 5·4
= = = 10
2 2! · 3! 2
Explı́citamente, en {a, b, c, d, e} los comites son:
{(a, b), (a, c), (a, d), (a, e), (b, c), (b, d), (b, e), (c, d), (c, e), (d, e)}.

2.5. Coeficiente multinomial

Pk Problema: se desea separar n elementos en k grupos distinguibles de tamaños n1 , n2 , . . . , nk (con


i=1 ni = n).
De cuantas formas puede hacerse esto?

Solución:      
n n − n1
n − n1 − n2 n − n1 − . . . − nk−1
...
n1 n2 n3 nk
n n−n1
 
En que n1 corresponde a las formas de escoger el grupo 1, n2 las formas de escoger el grupo
2 (una vez escogido el grupo 1), . . ., hasta n−n1 −...−nk−1

nk , que son las formas de escoger el grupo k, ya
escogido los anteriores.
Pero,     
n n − n1 n − n1 − . . . − nk−1
... =
n1 n2 nk
(
(((
n! (n−n
1 )! −(n(
(n( 1− . .(−(nk − 1)!
(.(

 . . . ( (((
n1 !
(n 1 )! n2 !(n − n1 − n2 )!
−n

nk !(n −(n(
1−(.( . .(− nk )!
((
(el último término es igual a 0! = 1)
n!
=
n1 !n2 ! . . . nk !
 
n
=
n1 , n2 , . . . , nk
Ejemplo: Un grupo de 10 excursionistas deben separarse en 2 equipos de tamaños 4 y 6, y cada equipo
debe poseer un jefe. ¿De cuantas formas puede hacerse esto?
Respuesta:  
10
= 5040
1, 3, 1, 5
En que 10 es el tamaño, 1 el jefe de grupo de tamaño 4, 3 el resto, 1 el jefe del grupo de tamaño 6, y
5 el resto.

2.5.1. Bolitas en Urnas


Problema A: Se dispone de un conjunto de tamaño n, del cual se extrae un elemento, se anota, y se
devuelve al conjunto; luego se extrae nuevamente, se anota, y se devuelve al conjunto, y ası́ sucesivamente
hasta completar k extracciones.

MA3403 Probabilidades y Estadı́sticas


Sección 2.6. Resumen 10

Si no se distingue el orden de aparición de los elementos, ¿De cuantas formas se puede hacer esto?
(Muestreo sin orden y con reposición)
Equivalentemente (Problema B), tenemos k bolitas indistinguibles en n urnas indistinguibles. Es claro
que arrojar una bolita en la urna i’ésima, equivale en el problema original a extraer el elemento etiquetado
i.
Por lo tanto,
#f ormas de realizar A = #f ormas de realizar B
Equivalentemente (Problema C), consideremos n−1 objetos adicionales a las k bolitas (indistinguibles
entre sı́) correspondientes a las separaciones entre urnas, y ubiquémoslos en fila con las k bolitas:

| || | . . . |

3 bolitas en urna 1, 2 bolitas en urna 2, 0 bolitas en urna 3 . . . 2 bolitas en urna n.


Del dibujo es claro que hay una asociación 1 a 1 entre formas de realizar B y las formas de realizar C.

#f ormas A = #f ormas B

= #f ormas C
 
n−1+k
=
n−1
En que n − 1 + k son las posiciones en la fila, y n − 1 las posiciones en que van las separaciones.

2.5.2. Ejemplo
En una zona marina existen 3 especies de peces: a, b, c. Se extrae una muestra de 3 peces. ¿Cuántas
posibles muestras resultantes hay?
Respuesta:    
3−1+3 5
= = 10
3−1 2
5! 5·4
= =
2!3! 2
Explicitamente, las posibles muestras son:
{(a,a,a),(a,a,b),(a,a,c),(a,b,b),(a,c,c),(a,b,c),(b,b,b),(b,b,c),(b,c,c),(c,c,c)}.

2.6. Resumen
Si se extraen k elementos de un total de n, los posibles resultados son:

Con orden Sin orden


n−1+k
nk

Con reposicion n−1
n! n

Sin reposicion (n−k)! k

Observación: tı́picamente, los muestreos A,C y D son igualmente probables, pero B no lo es (salvo que
se explı́cite lo contrario).

MA3403 Probabilidades y Estadı́sticas


Capı́tulo 3

Probabilidades Condicionales

3.1. Introducción
A veces se desea calcular la probabilidad de un evento cuando se dispone de infornación parcial del
resultado del experimento aleatorio.

3.1.1. Ejemplo
Se lanzan 2 dados equilibrados,
(a) ¿Cual es la probabilidad que aparezca al menos un 6?
(b) Se sabe que la suma de los dados es 9 o mas. ¿Cual es ahora la probabilidad de que salga al menos
un 6?
Solución:
Sean los eventos:
E = “sale al menos un 6”.
F = “la suma es 9 o mas”.

(a)
P(E) = 1 − P(E c )

5·5
=1−
36
11
=
36

(b) Los reultados fuera de F están descartados.


Los resultados en F siguen siendo igualmente probables.

=⇒
#casos f avorables en F
N ueva probabilidad E =
#casos totales en F
|EF | |{(6, 3), (6, 4), (6, 5), (3, 6), (4, 6), (5, 6), (6, 6)}|
= =
|F | 10

11
Sección 3.2. Definición 12

7 11
= 6=
10 36
O equivalentemente:
|EF |
|EF | |Ω| P(EF )
= |F |
=
F P(F )
|Ω|

3.2. Definición
Dados E, F eventos, con P(F ) > 0, definimos la PROBABILIDAD CONDICIONAL de E dado F
como:
P(EF )
P(E | F ) =
P(F )

3.2.1. Ejemplo
Un matrimonio tiene 2 hijos, y se sabe que al menos uno de ellos es varón. ¿Cual es la probabilidad
de que el otro hijo también sea varón?
Solución:
Sean los eventos:
E= El otro hijo es varón .
F = Al menos un hijo es varón.
P(EF )
P(E | F ) =
P(F )
P(E)
=
P(F )
Claramente:
1 1 1
P(E) = · =
2 2 4
1 3
P(F ) = 1 − P(F c ) = 1 − =
4 4
1
4 1
⇒ P(E | F ) = 3 =
4
3

MM

 MV
VM VV

En muchos ejemplos, para calcular P(E | F ) serı́a mas cómodo trabajar con P(F | E).
Para esto, tenemos:

MA3403 Probabilidades y Estadı́sticas


Sección 3.3. Propiedad (regla de Bayes) 13

3.3. Propiedad (regla de Bayes)

P(E | F )P(F )
P(F | E) =
P(E)
Demostración:
P(F E) P(F )
P(F | E) = ·
P(E) P(F )
Y al agrupar convenientemente los términos, tenemos

P(F E)
P(E | F ) =
P(F )

3.3.1. Ejemplo
En un torneo de fútbol se utiliza un test par detectar consumo de drogas en los jugadores. Cuando
se aplica el test a un jugador que consume drogas, hay un 90 % de probabilidad que el test dé positivo;
además, cuando el test se aplica a un jugador que no consume, hay un 5 % de probabilidad de que el test
dé positivo. Se estima que un 2.5 % de los jugadores consume drogas. Se escoge un jugador al azar, y al
realizar el test da positivo.
¿Cual es la probabilidad de que el jugador sea consumidor de drogas?
Solución:
Sean los eventos:
E = “El jugador escogido consume drogas”.
F = “El test da positivo”.
Por regla de Bayes:

P(F | E)P(E)
P(E | F ) =
P(F )
90 % · 2,5 %
=
P(F )

Para calcular P(F ), hacemos lo siguiente:

P(E) P(E c )
P(F ) = P(F E) · + P(F E c ) ·
P(E) P(E c )
= P(F | E) · P(E) + P(F | E ) · P(E c )
c

(∗) = 90 % · 2,5 % + 5 % · 97,5 %


= 7,125 %
90 % · 2,5 %
⇒ P(E | F ) =
7,125 %
≈ 31,6 %

El desarrollo (*) es una propiedad general.

MA3403 Probabilidades y Estadı́sticas


Sección 3.4. Propiedad (regla de probabilidades totales) 14

3.4. Propiedad (regla de probabilidades totales)


Sean E un
S evento, y F1 , F2 , . . . , Fn eventos que conforman una PARTICIÓN de Ω (es decir, los Fi son
disjuntos y ni=1 Fi = Ω). Entonces
n
X
P(E) = P(E | Fi )P(Fi )
i=1

Demostración:
[n
P(E) = P( · EFi )
i=1
n
X P(Fi )
= P(EFi ) ·
P(Fi )
i=1
n
X
= P(E | Fi ) · P(Fi )
i=1
Observación: La propiedad anterior también vale para una partición numerable.

3.5. Independencia de eventos


3.5.1. Introducción
En general, P(E | F ) no tiene por qué ser igual a P(E). Cuando hay igualdad, interpretamos que “F
no afecta a E”, o bien “E es independiente de F”.
Esto ocurre cuando
P(EF )
P(E) = P(E | F ) =
P(F )
lo cual motiva:

3.5.2. Definición
Decimos entonces que E y F son INDEPENDIENTES, anotado E ⊥
⊥ F , si

P(EF ) = P(E)P(F )

Observación: la independencia es una noción simétrica en E y F , es decir E ⊥


⊥ F es lo mismo que F ⊥
⊥ E.

3.5.3. Propiedad

E⊥ ⊥ Fc
⊥F ⇔E⊥
Demostración: PDQ: P(EF c ) = P(E)P(F c )
Tenemos:
P(E) = P(EF ) + P(EF c )
en que P(EF ) = P(E)P(F ) pues E ⊥
⊥ F.

⇒ P(EF c ) = P(E) − P(E)P(F )

MA3403 Probabilidades y Estadı́sticas


Sección 3.5. Independencia de eventos 15

= P(E)(1 − P(F ))
dado que 1 − P(F ) = P(F c ).
Podemos definir independencia para una colección arbitraria de eventos.

3.5.4. Definición
Sea (Ei )i∈I una coleción de eventos (acá I es un conjunto de indices).
Decimos que (Ei )i∈I es una colección INDEPENDIENTE si ∀n∈N , ∀i1 ,i2 ,...,in ∈I ı́ndices distintos, se tiene
n
\ n
Y
P( Eik ) = P(Eik )
k=1 k=1

Observación: E ⊥
⊥ F, F ⊥
⊥ G, G ⊥
⊥ E, no implican que la colección {E, F, G} sea independiente.

3.5.5. Propiedad
Sea F evento tal que P(F ) > 0. Entonces la aplicación P(· | F ), es decir:

P̃ : P −→ R

E −→ P̃(E) = P̃(E | F )
es una probabilidad (i.e., cumple los axiomas).
Demostración: Propuesta.

MA3403 Probabilidades y Estadı́sticas


Capı́tulo 4

Variables aleatorias

4.1. Introducción
En muchas situaciones, el espacio muestral que modela un cierto experimento aleatorio es demasiado
complejo para trabajar directamente con él, mientras que lo que interesa estudiar es relativamente simple.

Ejemplo
Se lanzan 100 monedas,

Ω = {cara, sello}100 ⇒| Ω |= 2100 ≈ 1,3 × 1030

Pero si nos interesa simplemente estudiar la cantidad de caras que se obtuvieron, los posibles resultados
resultados son sólo 101 (desde 0 a 100 caras), lo cual es mucho más razonable.
Por este motivo, comúnmente centraremos nuestro análisis directamente en la variable de interés sin
especificar el espacio muestral Ω.

4.2. Definición: Variable Aleatoria


Una VARIABLE ALEATORIA X es una función

X : Ω −→ R

donde (Ω, P) es un cierto espacio de probabilidad (que usualmente estará implicito).


Tı́picamente, no nos interesará estudiar Ω ni la forma particular que tiene la función X. Lo que
sı́ nos interesará estudiar son las probabilidades asociadas a la variable, es decir, queremos darle sentido
a expresiones del tipo
(∗)P(X ≥ a),
(∗)P(X ∈ [a, b])
(∗)P(X < b)
etcetera. Para esto, consideremos la siguiente notación: dado A ⊆ R, anotamos

“X ∈ A” = {ω ∈ Ω/X(ω) ∈ A ⊆ Ω}

= X −1 (A)

16
Sección 4.3. Definición: Distribución de X 17

es decir, “X ∈ A” es un evento, por lo cual tiene sentido calcular su probabilidad:

P(X ∈ A) = P({ω ∈ Ω/X(ω) ∈ A}

lo cual da sentido a las expresiones (*).

4.3. Definición: Distribución de X


Dada X variable aleatoria, definimos su LEY o DISTRIBUCIÓN como la función

µX : P(R) −→ R

A −→ µX (A) = P(X ∈ A)
Anotamos también:
Ley(X) = µX

4.3.1. Proposición
µX es una probabilidad sobre R (i.e. (R, µX ) es un espacio de probabilidad).
Demostración: Propuesta (buen ejercicio).

La ley de una variable aleatoria es lo que estudiaremos.

4.3.2. Ejemplo
Se lanza una moneda equilibrada 3 veces. Sea X la variable aleatoria que corresponde a la cantidad
de caras obtenidas.
(a) Dar un espacio de probabilidad (Ω, P) adecuado y escribir explı́citamente X como función de Ω en R.
(b) Calcular µX (A) para todo A ⊆ R.

Solución
(a) Tomamos

Ω = {0, 1}3 = {ω1 ω2 ω3 |ωi ∈ {0, 1}∀i}


con P equiprobable. Escribamos X como función de Ω en R:

X(ω) = X(ω1 ω2 ω3 ) = ω1 + ω2 + ω3

(b)
µX ({0} = P(X ∈ {0})
= P(X = 0)
= P({ω1 ω2 ω3 ∈ Ω/X(ω1 ω2 ω3 ) = 0}
1
= P({000}) =
8

MA3403 Probabilidades y Estadı́sticas


Sección 4.3. Definición: Distribución de X 18

pues P es equiprobable.
µX ({1}) = P(X ∈ {1}
= P(X = 1)
= P({ω1 ω2 ω3 /X(ω1 ω2 ω3 ) = 1})
= P({001, 010, 100})
3
=
8
pues P es equiprobable.
Análogamente:
3
µX ({2}) =
8
1
µX ({3}) =
8
Con esto X
µX (A) = P(X ∈ A) = P(X = x)
x∈A∩{0,1,2,3}

MA3403 Probabilidades y Estadı́sticas


Sección 4.4. Variables discretas 19

4.4. Variables discretas


Una variable aleatoria discreta será tal que ella toma una cantidad finita o a lo más numerable de
valores.

4.4.1. Definición: Rango de X


Una variable aleatoria X se dice DISCRETA si existe un conjunto R ⊆ R finito o numerable tal que

P(X ∈ R) = 1 (∗)

y P(X = x) > 0 ∀x ∈ R

R se denomina RANGO de X, anotado RX .

Ejemplo
La variable aleatoria del ejemplo anterior es discreta, con

RX = {0, 1, 2, 3}.

4.4.2. Definición: función de distribución discreta


Dada X variable aleatoria discreta, definimos su FUNCIÓN DE DISTRIBUCIÓN DISCRETA como

pX : R −→ [0, 1]

x −→ pX (x) = P(X = x)
c , y p (x) > 0 ∀x ∈ R
Notar que pX (x) = 0 ∀x ∈ RX X X

4.4.3. Proposición
Sea X variable aleatoria discreta. Entonces, ∀A ⊆ R,
X
P(X ∈ A) = pX (x) (**)
x∈A∩RX

Demostración:
c
P(X ∈ A) = P(X ∈ (A ∩ RX ) ∪· (A ∩ RX ))
c
= P(X ∈ A ∩ RX ) + P(X ∈ A ∩ RX )
| {z } | {z }
finito o numerable ≤P(X∈RXc )=0

Gracias a (*) [
= P( · {X = x})
x∈A∩RX
X
= P(X = x)
| {z }
x∈A∩RX
pX (x)

MA3403 Probabilidades y Estadı́sticas


Sección 4.5. Ejemplos importantes de variables aleatorias discretas 20

Ejemplo
En el ejemplo anterior,
RX = {0, 1, 2, 3}
 1
 8 si x = 0 o 3
3
pX (x) = si x = 1 o 2
 8
0 en otro caso
Con esto, para A = {0, 2}
P(X ∈ A) = pX (0) + pX (2)
1 1
= +
8 3
1
=
2

4.4.4. Propiedad
X
pX (x) = 1
x∈RX

Demostración: 1 = P(X ∈ R) y luego usar (**).

4.5. Ejemplos importantes de variables aleatorias discretas


4.5.1. Variable Bernoulli
Consideremos un experimento aleatorio con sólo 2 posibles resultados: éxito con probabilidad p, y
fracaso con probabilidad 1 − p, donde p ∈ [0, 1] es un número fijo (por ejemplo, lanzar una moneda con
cara = éxito y sello = fracaso). Sea X la variable aleatoria:

1 si se obtuvo un éxito
X=
0 si se obtuvo un fracaso

La variable aleatoria X se denomina BERNOULLI de parámetro p, anotado X ∼ 1 Bernoulli(p).


Claramente,
RX = {0, 1}
y además (p ∈ (0, 1)
pX (0) = 1 − p
pX (1) = p

MA3403 Probabilidades y Estadı́sticas


Sección 4.5. Ejemplos importantes de variables aleatorias discretas 21

4.5.2. Variable Binomial


Se repite el experimento anterior n veces. Sea X la variable aleatoria de la cantidad de éxitos que se
obtienen. X se denomina variable aleatoria BINOMIAL de parámetros n y p, anotado X ∼ bin(n, p).
Es decir:
RX = {0, 1, . . . , n}
pX (k) = P(X = k)
  (k ∈ RX )
n k
= p (1 − p)n−k
k
En que el coeficiente binomial representa escoger k posiciones donde irán los éxitos, p representa que
ocurren éxitos en las posiciones escogidas, y (1 − p) que el resto resultan en fracaso.

4.5.3. Variable Geométrica


Se repite el experimento original (de éxito con probabilidad p y fracaso con probabilidad (1 − p)) de
manera independiente de manera sucesiva, hasta que se pbtiene el primer éxito. Sea X la variable aleatoria
que denota la cantidad de veces que se realizó el experimento. X se denomina variable aleatoria GEOMÉTRICA
de parámetro p, anotado X ∼ geom(p).
Es decir:
RX = {1, 2, . . .}

pX (k) = P(X = k)
= (1 − p)k−1 p

En que (1 − p) representa los fracasos en las primeras k − 1 repeticiones, y p representa el éxito en la


repetición k-ésima.

4.5.4. Variable Binomial Negativa


Similar a la variable geométrica, pero esta vez X representa la cantidad de repeticiones hasta obtener
el r-ésimo éxito. X se denomina BINOMIAL NEGATIVA de parámetros r y p, anotado X ∼ BN (r, p).
Es decir:
RX = {r, r + 1, . . .}

pX = P(X = k)
 
k − 1 k−1
= p (1 − p)k−1−(r−1) p (*)
r−1
 
k−1
= (1 − p)k−r pr
r−1

(*) En que el coeficiente binomial representa escoger los r − 1 éxitos en las primeras k − 1 posiciones, p
representa los éxitos en las r − 1 posiciones escogidas, (1 − p) siendo el fracaso en el resto, y p el éxito en
la repetición k-ésima.
1
“se distribuye como” o “tiene ley”

MA3403 Probabilidades y Estadı́sticas


Sección 4.6. Variables Continuas 22

Ejercicio
Verificar X
pX (x) = 1
x∈RX

en los casos recién vistos.

4.5.5. Variable de Poisson


Una variable aleatoria X se dice Poisson de parámetro λ > 0 si RX = {0, 1, . . .} y ∀k ∈ RX :

pX = P(X = k)
λk
= e−λ ·
k!
Y lo anotamos X ∼ P oisson(λ).
Tı́picamente, esta variable aleatoria se utiliza para modelar la “cantidad de sucesos” que ocurren en
un cierto lapso de tiempo. Por ejemplo:

1. Cantidad de clientes que llegan a la fila de un banco en 1 hora.

2. Cantidad de llamadas telefónicas recibidas en una oficina en 1 dia.

3. Cantidad de visitas a una página web en 1 minuto.

4. etc.
CAN T IDAD
El parámetro λ representa la TASA a la que ocurren estos eventos, en unidades de T IEM P O

4.6. Variables Continuas


Una variable aleatoria X se dice ABSOLUTAMENTE CONTINUA o simplemente CONTINUA si
existe una función fX : R → [0, ∞) tal que ∀A ⊆ R,
Z
P(X ∈ A) = fX (x)dx
A

fX se denomina DENSIDAD de X

MA3403 Probabilidades y Estadı́sticas


Sección 4.6. Variables Continuas 23

Observación: Necesariamente Z ∞
fX (x)dx = 1
−∞
Observación: Informalmente, Si “ dx” es un número pequeño
Z x+dx
P(X ∈ [x, x + dx]) = fX (y)dy ≈ dxfX (x)
x


P(X ∈ [x, x + dx]
fX (x) =
| dx
{z }
densidad de prob en x
Y esto justifica el nombre densidad para fX .
Observación: la noción de continuidad de una variable aleatoria no tiene nada que ver con la con-
tinuidad usual de funciones!
Notemos que ∀x ∈ R Z
P(X = x) = P(X ∈ {x}) = fX (y)dy = 0
{x}

¿Cómo obtener fX a partir de cantidades de la forma P(X ∈ A)?


Para responder esta pregunta, introducimos:

4.6.1. Función de distribución acumulada


Dada X variable aleatoria (no necesariamente continua) definimos su FUNCIÓN DE DISTRIBUCIÓN
ACUMULADA como

FX : R → [0, 1]
x → FX (x) = P(X ≤ x)

4.6.2. Proposición
Si X es variable aleatoria continua, entonces
Z x
FX (x) = fX (y)dy
−∞

(la demostración es directa de la definición de FX )


Mas aún, ∀x punto de continuidad de fX , se tiene

dFX (x)
fX (x) =
dx
d
= P(X ≤ x)
dx
Esto se obtiene aplicado Teorema Fundamental del Cálculo.

MA3403 Probabilidades y Estadı́sticas


Sección 4.6. Variables Continuas 24

Figura 4.1: parte (b)

Ejemplo
Sea X variable aleatoria con densidad
x

2 si x ∈ [0, 2]
fX (x) =
0 si ∼

(a)Calcular FX
(b)Graficar fX y FX
(c)Calcular P(x ≥ 1)

Solución: Rx
(a) FX (x) = −∞ fX (y)dy
luego: Z x
x < 0 ⇒ FX (x) = 0dy = 0
−∞
x x
x2
Z Z
y
x ∈ [0, 2] ⇒ FX (x) = 0dy + dy =
−∞ 0 2 4
0 2 x
22
Z Z Z
y
x > 2 ⇒ FX (x) = 0dy + dy + 0dy = 0 + +0=1
−∞ 0 2 2 4

 0 si x < 0
⇒ FX (x) = x2
4 si x ∈ [0, 2]

1 si x > 2
(c)

MA3403 Probabilidades y Estadı́sticas


Sección 4.7. Variables Continuas Importantes 25

P(X ≥ 1) = 1 − P(X < 1)


| {z }
=∗ P(X≤1)
= 1 − FX (1)
1 3
= 1− =
4 4
* pues P(X = 1) = 0 y X es variable continua.

4.6.3. Proposición
Sea X variable aleatoria (no necesariamente continua)
Entonces:
(a) FX es creciente (no necesariamente estricta)
(b) lı́mx→∞ FX (x) = 1
(c) lı́mx→−∞ FX (x) = 0
(d) ∀x ∈ R
lı́m FX (y) = FX (x)
y→x+
(es decir FX es continua a la derecha)
(e) ∀x ∈ R
lı́m FX (y) = FX (x) − P(X = x)
y→x−
= P(X < x)
Luego, si X es variable aleatoria continua ⇒ FX es función continua.
Demostración:
(a) Sean x ≤ y
FX (x) = P(X ≤ x)
| {z }
≤P(X≤y)
P(·) ≤ P(X ≤ y) = FX (y)
|{z}
creciente
(b), (c), (d) y (e): aplicar continuidad de la probabilidad.

4.7. Variables Continuas Importantes


4.7.1. Variable Uniforme
X se dirá variable aleatoria UNIFORME en el intervalo [a, b] (con a < b) anotado X ∼ unif (a, b), si
su densidad es

1 si x ∈ [a, b]
1[a,b] (x) =
0 si ∼
Claramente, 
 0 si x < a
x−a
FX (x) = si x ∈ [a, b]
 b−a
1 si x > b

MA3403 Probabilidades y Estadı́sticas


Sección 4.7. Variables Continuas Importantes 26

Figura 4.2: Variable Uniforme

4.7.2. Variable Exponencial


X se dirá variable aleatoria EXPONENCIAL de parámetro λ > 0 si su densidad es

fX (x) = λe−λx 1[0,∞ (x)

Claramente: 
0 si x > 0
FX (x) =
1 − e−λx si x ≥ 0
Notemos que X es una variable aleatoria ≥ 0. Tı́picamente, se utiliza para representar tiempos aleato-
rios.
La propiedad fundamental de la variable aleatoria exponencial es la PÉRDIDA DE MEMORIA:
∀t, s ≥ 0,
P(X ≥ t + s | X ≥ t) = P(X ≥ s)
(propuesto)
Esto significa que, condicional en que X ≥ t, la variable aleatoria X se comporta (de t en adelante)
como una nueva variable aleatoria exponencial (i.e., X “olvida” que ya transcurrió un tiempo t).

4.7.3. Variable Normal


X se dirá variable aleatoria NORMAL de parámetros µ ∈ R y σ 2 > 0, anotado X ∼ N (µ, σ 2 ), si
1 −(x−µ)2
fX (x) = √ e 2σ2
2πσ
∀x ∈ R
Rz −(x−µ)2
Lamentablemente, no se puede calcular explı́citamente −∞ e 2σ2 dx. Escribimos simplemente
Z x
1 −(x−µ)2
FX (x) = √ e 2σ2 dy
2πσ 0

Cuando µ = 0, σ 2 = 1, decimos que X es una NORMAL ESTÁNDAR.

MA3403 Probabilidades y Estadı́sticas


Sección 4.7. Variables Continuas Importantes 27

Figura 4.3: Variable Exponencial

Figura 4.4: Variable Normal

MA3403 Probabilidades y Estadı́sticas


Sección 4.8. Independencia de variables aleatorias 28

4.8. Independencia de variables aleatorias


Definición: Decimos que dos variables aleatorias X e Y son INDEPENDIENTES, anotado X ⊥
⊥ Y si
∀A, B ⊆ R
P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(Y ∈ B)

Ejemplo
Sean X ⊥ ⊥ Y , con X ∼ exp(λ), Y ∼ exp(µ). Sea Z ∼ min(X, Y ). Calcular la distribución de Z.
Solución: ∀z ≥ 0

P(Z > z) = P(min(X, Y )) > z


= P(X > z, Y > z)
=
|{z} P(X > z) · P(Y > z)
⊥Y
X⊥
= e−λz · e−µz

Si z > 0, P(Z ≤ z) = 0
⇒ 
0 si z > 0
FZ (z) =
1 − e−(λ+µ)z si z ≥ 0
Luego: Z ∼ exp(λ + µ).
Ejercicio: X ⊥
⊥Y,
X ∼ P oisson(λ)
Y ∼ P oisson(µ)
⇒ Z = X + Y ∼ P oisson(λ + µ)

4.8.1. Proposición
Sean X, Y variables aleatorias independientes y sean g, h : R → R funcionens arbitrarias. Entonces
g(X) es independiente de h(Y ).
Demostración: dados A, B ⊆ R.

P(g(X) ∈ A, h(Y ) ∈ B) = P(X ∈ g −1 (A), Y ∈ h−1 (B))


⊥Y
X⊥
= P(X ∈ g −1 (A))P(Y ∈ h−1 (B))
z}|{

= P(g(X) ∈ A)P(h(Y ) ∈ B)

MA3403 Probabilidades y Estadı́sticas


Capı́tulo 5

Esperanza

5.1. Definición
Sea X una variable aleatoria, se define su ESPERANZA E(X) ∈ R como la cantidad:
 P
xP (x) si X es discreta
E(X) = R ∞x∈R X
−∞ xf X (x)dx si X es continua

En palabras, E(X) es el promedio de todos los valores que toma la variable, ponderados por su
probabilidad de ocurrencia. Es el “centro de masa” de la distribución de la variable; es una medida del
“valo0r central” que toma la variable. E(X) también se llama “valor esperado” o “media”. E NO ES el
promedio.

5.1.1. Ejemplos
Ejemplo 1: X ∼ Bernoulli(p), E(X) =?
Veamos: X
E(X) = xpX (X) + 0 · (1 − p) + 1 · p = p
x∈RX

Ejemplo 2: X ∼ Bin(n, p)
 
X n
E(X) = x· · (1 − p)n−x px
x
x∈RX
X n  p x
n
= (1 − p) x
x 1−p
x∈RX
n np
=  −
(1 p) · n
 −
(1 p)
= np

∴ E(X) = n · p

29
Sección 5.1. Definición 30

Ejemplo 3: X ∼ geom(p)

X ∞
X
k−1
E(X) = k P(X = k) = p |kr{z } ,r = 1 − p
| {z }
k=1 k=1 d(r k )
(1−p)k−1 ·p dr
∞  
d X k d 1
= p r =p −1
dr dr 1 − r
k=1
 
1 1
= p 2
=p· 2
(1 − r) p
1
=
p

X ∼ BN (r, p) ⇒ E(X) = pr
X ∼ P oisson(λ) ⇒ E(X) = λ
X ∼ U nif (a, b) ⇒ E(X) = a+b
2
X ∼ exp(λ) ⇒ E(X) = λ1
X ∼ N (µ, σ 2 ) ⇒ E(X) = µ es simétrica respecto a “µ”.

5.1.2. Proposición
Sea X variable aleatoria y g : R → R una función, entonces
 P
g(x)PX (x) si X es discreta
E(g(X)) = R ∞x∈R
−∞ g(x)f X (x)dx si X es continua
Observación: La utilidad de esta proposición es que permite calcular E(g(X)) sin la necesidad de
obtener la distribución de g(X).
Demostración: caso discreto. Sea Y = g(X).
X X X
E(Y ) = yP(|{z}
Y = y) = y P(Y = y, X = x)
y∈RY g(X) y∈RY x∈RX
X X
= yP(g(x) = y , X = x)
| {z }
x∈RX y∈RY

X
= g(x)P(X = x)
x∈RX

Corolario: ∀α ∈ R, ∀Xvariable aleatoria

E(αX) = αE(X)

La demostración es trivial usando g(x) = αx.

5.1.3. Proposición: Linealidad de E


El corolario anterior, mas la proposición E(X + Y ) = E(X) + E(Y ) nos dan que opera linealmente.
Demostración: Haremos la demostración en el caso en que X e Y son variables aleatorias discretas. Sea
Z =X +Y

MA3403 Probabilidades y Estadı́sticas


Sección 5.1. Definición 31

X
E(Z) = zP (Z = z)
| {z }
z∈RZ
{Z=z}
[
= {Z = z} ∩ · {X = x, Y = y}
x∈RX ,y∈RY
[
= · {Z = z, X = x, Y = y}
z,x,y
X X X
= z P( Z
|{z} = z, X = x, Y = y)
z∈Rz x∈RX y∈RY =X+Y =x+y
X X X
= zP(z = x + y, X = x, Y = y )
| {z }
x∈RX y∈RY z∈RZ
=0 cuando z6=x+y
X X
= (x + y)P(X = x, Y = y)
x∈RX y∈RY
X X X X
= x P(X = x, Y = y) + y P(X = x, Y = y)
x∈RX y∈RY y∈RY x∈RX
| {z } | {z }
P(X=x) P(Y =y)
= E(X) + E(Y )

Observación: notar que el resultado es cierto sin importar si las variables son independientes o no.

5.1.4. Ejemplo
n personas van a una fiesta, y dejaron su chaqueta en el sillón. Por el ajetreo de la fiesta las chaquetas
se revuelven aleatoriamente. Al salir, cada persona se lleva una chaqueta cualquiera. Calcule la cantidad
esperada de personas que se llevan su propia chaqueta.
Solución: X = cantidad de personas que se llevan su propia chaqueta.
Supongamos que las personas están enumeradas de 1 a n.
Consideremos las variables aleatorias X1 , · · · , Xn dadas por

1 si la persona lleva su propia chaqueta
Xi =
0 ∼

(es decir, Xi = 1Ei donde Ei es el evento en que se lleva su propia chaqueta)


Claramente X = X1 + · · · + Xn
Luego, E(X) = E(X1 ) + · · · + E(Xn )
Sin embargo, Xi ∼ Bernoulli(p), donde

(n − 1)! 1 1
p = P(Xi = 1) = P(persona se lleva su chaqueta) = = ⇒ E(Xi ) = p =
n! n n
1 1
⇒ E(X) = + ··· + = 1
n n

MA3403 Probabilidades y Estadı́sticas


Sección 5.1. Definición 32

5.1.5. Proposición: Esperanza de variables independientes


Sea X ⊥
⊥ Y entonces E(XY ) = E(X)E(Y )
Demostración: Repitiendo el procedimiento de la demostración previa, tenemos (para el caso discreto
con Z = X · Y ):
X X
E(Z) = xy P(X = x, Y = y)
| {z }
x∈RX y∈RY
P(X=x)P(Y =y) porque X⊥⊥Y
  
X X
=  xP(X = x)  yP(Y = y)
x∈RX y∈RY
= E(X)E(Y )

5.1.6. Proposición: Crecimiento de E(·)


Sean X, Y variables aleatorias tales que P(X ≤ Y ) = 1 entonces E(X) ≤ E(Y ). Es decir, E(·) es una
función CRECIENTE de variables aleatorias.
Demostración: Propuesta.

MA3403 Probabilidades y Estadı́sticas


Sección 5.2. Varianza y Covarianza 33

5.2. Varianza y Covarianza


La esperanza es un indicador de “tendencia central” de la variable aleatoria, pero no captura que tan
“repartida” o “dispersa” está la variable aleatoria. Para medir dispersión, una forma es la siguiente:

5.2.1. Definición: Varianza


La VARIANZA de una variable aleatoria X es el número real:

V ar(X) = E [X − E(X)]2


= E(X 2 − 2XE(X) + E(X)2 )


= E(X 2 ) + E(−2XE(X)) + E(E(X)2 )
= E(X 2 ) − 2E(X)E(X) + E(X)2
= E(X 2 ) − E(X)2

Observación: V ar(X) ≥ 0.

5.2.2. Ejemplos de varianza


X ∼ Ber(p) ⇒ V ar(X) = p(1 − p)
X ∼ Bin(n, p) ⇒ V ar(X) = np(1 − p)
1−p
X ∼ geom(p) ⇒ V ar(X) = p2

r(1−p)
X ∼ BN (n, p) ⇒ V ar(X) = p2

X ∼ P oisson(λ) ⇒ V ar(X) = λ
(b−a)2
X ∼ U nif (a, b) ⇒ V ar(X) = 12

X ∼ N (µ, σ 2 ) ⇒ V ar(X) = σ 2

Realizaremos el cálculo de la uniforme. El resto queda propuesto.


Si X ∼ U nif (a, b), sabemos que E(X) = a+b 2 .
Además:
Z +∞
E(g(x)) = g(x)fX (x)dx
−∞
Z +∞
⇒ E(X 2 ) = x2 fX (x)dx
−∞
Z b
1
= x2 dx
b−a a
1 b3 − a3
=
3 b−a
1(b− 2 + ab + a2 )
a)(b
=
3  −
(b a)

1 2
= (b + ab + a2 )
3

MA3403 Probabilidades y Estadı́sticas


Sección 5.2. Varianza y Covarianza 34

luego:

V ar(X) = E(X 2 ) − E(X)2


 
1 2 2 a+b
= (b + ab + a ) −
3 2
4b + 4ab + 4a − 3a − 6ab − 3b2
2 2 2
=
12
(b − a) 2
=
12

5.2.3. Propiedades de la Varianza


Proposición
Sean X variable aleatoria, y a, b constantes.

V ar(aX + b) = a2 V ar(X)

V ar(aX + b) = E([aX + b − E(aX + b)]2 )


| {z }
aE(EX)+b

= E([aX + b − aE(X) − b]2 )


= E([a(X − E(X))]2 )
= a2 E([X − E(X)]2 )
= a2 V ar(X)

Proposición
Sean X, Y variables aleatorias, entonces:

V ar(X + Y ) = V ar(X) + V ar(Y ) + 2(Cov(X, Y )

donde, Definición:

Cov(X, Y ) = E([X − E(X)][Y − E(Y )])


= E(XY ) − E(X)E(Y )

Observación: Cov(X, X) = V ar(X)


Demostración:

V ar(X + Y ) = E([X + Y − E(X + Y )]2 )


| {z }
E(X)+E(Y )

= E([{X − E(X)} + {Y − E(Y )}]2 )


= E({X − E(X)}2 + {Y − E(Y )}2 + 2{X − E(X)}{Y − E(Y )})
= E({X − E(X)}2 ) + E({Y − E(Y )}2 ) + 2 E({X − E(X)}{Y − E(Y )})
| {z }
Cov(X,Y )

MA3403 Probabilidades y Estadı́sticas


Sección 5.3. Función Generadora de Momentos 35

Cov(X, Y ) > 0: Se interpreta que X e Y “tienden a estar del mismo lado de su esperanza” de manera
que el producto [X − E(X)][Y − E(Y )] tiende a ser ¿0. Se dice que las variables están positivamente
correlacionadas.
Cov(X, Y ) > 0: Ocurre lo contrario.
Cov(X, Y ) = 0: variables no correlacionadas, la cantidad (X − E(X)) (Y − E(Y )) es con frecuencia
| {z }| {z }
>0 <0
similar, de manera que E(·) da 0.

Proposición
X⊥⊥ Y ⇒ Cov(X, Y ) = 0
Demostración:

Cov(X, Y ) = E(XY ) − E(X)E(Y )


=
|{z} E(X)E(Y ) − E(X)E(Y )
⊥Y
X⊥
= 0

Observación: La recı́proca no es cierta en general.

5.3. Función Generadora de Momentos


Dado k ∈ N, la cantidad E(X k ), se llama momento de orden X.
Para calcular los momentos de manera eficiente, se utiliza lo siguiente.
Z +∞
xk fX (x)dx
−∞

es la definición, pero puede ser difı́cil de calcular.

5.3.1. Definición
La función generadora de momentos de una variable aleatoria X se define como:

MX : R → [0, ∞)
t → MX (t) = E(etX )

Proposición:
dk M
X(0) = E(X k )
dtk
Demostración: Si X es continua, tenemos

MA3403 Probabilidades y Estadı́sticas


Sección 5.3. Función Generadora de Momentos 36

d d
MX (t) = E(et X)
dt dt 
Z +∞ 
d tx
= e fX (x)dx
dt −∞
Z +∞  
d  tx 
= e fX (x) dx
−∞ dt
Z +∞
= xetX fX (x)dx
−∞
Z +∞
d
⇒ MX |t=0 = xfX (x)dx
dt −∞
= E

Al derivar sucesivamente, se obtiene el resultado.

5.3.2. Ejemplo
X ∼ N (µ, σ 2 )
Calculemos MX (t):
Z +∞ −(x−µ)2
tX 1
MX (t) = E(e )= √ etx e 2σ 2 dx
2πσ −∞
x−µ
Usando y = σ

Z +∞ Z +∞ −(y−σt)2
1 y2 1 2 t2 1
⇒√ et(µ+σy e− 2 
σdy = eµt+ 2 σ ·√ e 2 dy
2π
σ −∞ 2π −∞
| {z }
1= densidad de N (σt,1)
µt+ 12 σ 2 t2
= e = MX (t)

Ahora, calculemos E(X) y V ar(X) con la función generadora de momentos.

d d µt+ 1 σ2 t2
MX (t) = (e 2 )
dt dt
1 2 2
= (µ + σ 2 t)eµt+ 2 σ t (*)
d
⇒ E(X) = MX (0) = µ
dt
Además
d2 MX d
(t) = (*)
dt2 dt
1 2 2 1 2 2
= (µ + σ 2 t)eµt+ 2 σ t + σ 2 eµt+ 2 σ t
⇒ E(X 2 ) = µ2 + σ 2

luego

MA3403 Probabilidades y Estadı́sticas


Sección 5.4. Distribución de una función de una variable aleatoria 37

V ar(X) = E(X 2 ) − E(X 2 )


= µ2 + σ 2 − µ2
= σ2

5.3.3. Proposición
Si X ⊥
⊥ Y ⇒ MX+Y = MX · MY
Demostración:

MX+Y (t) = E(et(X+Y ) )


= E(etX · etY )
=
|{z} E(etX ) · E(etY )
⊥Y
X⊥
= MX (t) · MY (t)

5.3.4. Teorema
Sean X, Y variables aleatorias tales que MX , MY son finitos en torno a 0.
Entonces X e Y tienen la misma distribución si y solo si MX (t) = MY (t) ∀t
La demostración es fácil en ⇒, y en ⇐ es difı́cil (y no las haremos).

5.3.5. Proposición: estabilidad bajo la suma


⊥ Y son X ∼ N (µ, σ 2 ), Y ∼ N (v, τ 2 ) entonces,
Si X ⊥

X + Y ∼ N (µ + v, σ 2 + τ 2 )

Demostración:

MX+Y (t) =
|{z} MX (t) · MY (t)
⊥Y
X⊥
1 2 t2 1 2 2
= eµt+ 2 σ · evt+ 2 τt
1 2 +τ 2 )t2
= e(µ+v)t+ 2 (σ

La última expresión es la f.g.m. de una variable aleatoria Z ∼ N (µ + v, σ 2 + τ 2 ).


Por el teorema, X + Y tiene la misma distribución que Z, es decir

X + Y ∼ N (µ + v, σ 2 + τ 2 )

5.4. Distribución de una función de una variable aleatoria


Problema: dada una variable aleatoria X con densidad fX , y dada una función g : R → R, ?’Como
calcular la densidad de la variable aleatoria Y = g(X)?
Solución: seguir los siguientes pasos.

MA3403 Probabilidades y Estadı́sticas


Sección 5.4. Distribución de una función de una variable aleatoria 38

Escribir:

FY (y) = P(Y ≤ y)
= P(g(X) ≤ y)

Despejar X, en el sentido de obtener un conjunto Ay ⊆ R tal que

g(X) ≤ y ⇔ X ∈ Ay

(de hecho, Ay = g −1 ((−∞, y]))


Con esto: Z
FY (y) = P(X ∈ Ay ) = fX (x)dx
Ay

Calcular
d
fY (y) = FY (y)
dy

5.4.1. Ejemplo: X ∼ N (0, 1)


Calcular la densidad de Y = X 2
Siguiendo los pasos:

FY (y) = P(Y ≤ y) = P(X 2 ≤ y)

Notemos que ∀y ≥ 0
√ √
X2 ≤ y ⇔ − y ≤ X ≤ y
Con esto:
√ √
FY (y) = P(− y ≤ X ≤ y)
Z √y
1 −x2
= √
√ e 2 dx
− y 2π
Z √y
1 −x2
= 2 √ e 2 dx
|{z}
0 2π
integrandoespar

Finalmente:

d
fY (y) = FY (y)
dy
" Z √y #
d 2 −x2
= √ e 2 dx
dy 2π 0
2 √ 2 1
TFC + regla de la cadena = √ e− y /2 · √
2π 2 y
e− y/2
= p √
2π y

MA3403 Probabilidades y Estadı́sticas


Sección 5.4. Distribución de una función de una variable aleatoria 39

Para y > 0, se tiene que P(X 2 ≤ y) = 0

e−y/2
⇒ fY (y) = √ 1 (y)
2πy [0,∞)

MA3403 Probabilidades y Estadı́sticas


Capı́tulo 6

Vectores Aleatorios

En muchas situaciones hay 2 o mas variables aleatorias que poseen alguna relación (son no inde-
pendientes), por lo cual no basta con estudiarlos por separado; por lo que para comprender bien su
comportamiento, hay que estudiarlos de manera CONJUNTA.

Ejemplo
Se escoge una perosna al azar en una población, y se consideran las variables aleatorias
X: edad de la persona

Y : peso de la persona

Z: estatura de la persona
Claramente, estas variables estan relacionadas. Por ejemplo, las probabilidades del evento Z ≥ 1,50m
cambia si se condiciona en el evento X ≥ 18.

6.1. Definición: Vector Aleatorio


Un VECTOR ALEATORIO es una X ~ : Ω → Rn , donde (Ω, P) es un espacio de probabilidad.
Observación: podemos escribir
 
X1 (ω)
~
X(ω) = 
 .. 
. 
Xn (ω)

donde cada Xi es una variable aleatoria.


~ = (X, Y ).
Observación: por simplicidad de la presentación, trabajaremos con n = 2. Anotaremos X

6.1.1. Definición: Función de Distribución Acumulada Conjunta


Tenemos que la función de distribución acumulada conjunta del vector aleatorio (X, Y ) es:

FX,Y : R2 −→ [0, 1]
(x, y) −→ FX,Y (x, y) = P(X ≤ x, Y ≤ y)

¿Como obtener FX y FY a partir de FX,Y ?

40
Sección 6.1. Definición: Vector Aleatorio 41

6.1.2. Proposición

lı́m FX,Y (x, y) = FX (x)


y→∞
lı́m FX,Y (x, y) = FY (y)
x→∞

Demostración:
Notemos que si yn → ∞, entonces

{X ≤ x, Y ≤ yn }n∈N

es creciente y su unión es {X ≤ x}. Luego,

lı́m FX,Y (x, y) = lı́m Fx,y (x, yn )


y→∞ n→∞
= lı́m P(X ≤ x, Y ≤ yn )
n→∞
= P(X ≤ x)
= FX (x)

en que la penúltima igualdad se da por continuidad de la probabilidad.

6.1.3. Definición
Un ~v .a(X, Y ) se dice discreto si X e Y son variables discretas.
Anotamos:
PX,Y (x, y) = P(X = x, Y = y)

6.1.4. Definición
Un ~v .a(X, Y ) se dice conjuntamente continua si existe una función fX,Y : R2 → [0, ∞), llamada
densidad conjunta de (X, Y ), tal que ∀A ⊆ R2
ZZ
P((X, Y ) ∈ A) = fX,Y (x, y)dxdy
A

MA3403 Probabilidades y Estadı́sticas

Вам также может понравиться