Вы находитесь на странице: 1из 34

Chapter 1

Distribución de probabilidad
de un vector aleatorio
continuo

En este capı́tulo se analiza el comportamiento probabilı́stico conjunto de n


variables aleatorias continuas definidas en el mismo espacio de probabilidad.
La presentación de este desarrollo se realiza de manera similar al realizado
para el modelo de probabildad de un vector aleatorio de variables discretas
y contiene el siguiente marco conceptual:

• Función de densidad de probabilidad conjunta.

• Función de probabilidad acumulada conjunta.

• Función de densidad de probabilidad marginal.

• Función de probabilidad acumulada marginal.

• Función de probabilidad condicional.

• Variables aleatorias independientes.

• Esperanza condicional.

• Varianza condicional.

• Covarianza.

• Coeficiente de correlación.

1
2 Distribución de probabilidad de un vector aleatorio continuo

• Función generadora de momentos conjunta.

• Función generadora de momentos marginal.

• Funciones de variables aleatorias.

1.1 Densidad de probabilidad conjunta

Definición 1.1. Para (X, Y ) un vector aleatorio de variables continuas,


una función f (x, y) tal que
Z a Z b 
p(X ≤ a; Y ≤ b) = f (x, y)dy dx (1.1)
−∞ −∞

se denomina función de densidad de probabilidad conjunta para (X, Y ) y


satisface las siguientes propiedades

• f (x, y) ≥ 0 para todo (x, y) ∈ R2 .


R ∞ hR ∞ i
• −∞ −∞ f (x, y)dy dx = 1.

En general para X = (X1 , X2 , · · · , Xk ) un vector de variables continuas de


dimensión k su función de densidad de probabilidad conjunta, está dada
por f (x1 , x2 , · · · , xk ) y satisface

• p(X1 ≤ a1 , X2 ≤ a2 , · · · Xk ≤ ak ) está dada por


Z a1 Z a2 Z ak  
··· f (x1 , x2 , · · · , xk )dxk · · · dx2 dx1
−∞ −∞ −∞

• f (x1 , x2 , · · · , xk ) ≥ 0 para todo (x1 , x2 , · · · xk ) ∈ Rk


R ∞ hR ∞ hR

i i
• −∞ −∞ · · · −∞ f (x1 , x2 , · · · xk )dxk · · · dx2 dx1 = 1

3|x − y|
Ejemplo 1.1. f (x, y) = I[2,4] (x)I[1,3] (y) es una función de densi-
13
dad de probabilidad conjunta de (X, Y ).
1.1. Densidad de probabilidad conjunta 3

En efecto, por definición f (x, y) ≥ 0 para todo (x, y) ∈ [2, 4] × [1, 3].
Además (
x − y si x − y ≥ 0
|x − y| =
y − x si x − y ≤ 0
y el cálculo de
Z ∞ Z ∞  Z 4 Z 3 
f (x, y)dy dx = f (x, y)dy dx
−∞ −∞ 2 1

conduce a
Z 3 Z 3  Z 4 Z 3  Z 3 Z x 
13
(y − x)dy dx+ (x − y)dy dx+ (x − y)dy dx =
2 x 3 1 2 1 3

es decir Z ∞ Z ∞ 
f (x, y)dy dx = 1
−∞ −∞

2(x + y)
Ejemplo 1.2. f (x, y) = I[y,4] (x)I[1,2] (y) es una función de den-
21
sidad de probabilidad conjunta de (X, Y ).

En efecto f (x, y) ≥ 0 y además


Z 2 Z 4 
2(x + y)
I= dx dy
1 y 21

se calcula por integración iterada como


Z 2 Z x  Z 4 Z 2 
2(x + y) 2(x + y)
I= dy dx + dy dx = 1
1 1 21 2 1 21
xy
Ejemplo 1.3. f (x, y) = I (y)I[0,2] (x) es una función de densidad de
2 [x,2]
probabilidad conjunta de (X, Y ).

En efecto f (x, y) ≥ 0 y además


Z 2 Z 2  Z 2 Z y 
xy xy
dy dx = dx dy = 1
0 x 2 0 0 2

Ejemplo 1.4. f (x, y) = e−(x+y) I[0,∞) (y)I[0,∞) (x) es una función de den-
sidad de probabilidad conjunta de (X, Y ).
4 Distribución de probabilidad de un vector aleatorio continuo

En efecto f (x, y) ≥ 0 y además


Z ∞ Z ∞  Z ∞
−(x+y)
e dy dx = e−x dx = 1
0 0 0
x−y
Ejemplo 1.5. f (x, y) = I[2,4] (x)I[1,3] (y) no es una función de den-
4
sidad de probabilidad conjunta de (X, Y ).

En efecto, a pesar que


4 Z 3 
x−y
Z
dy dx = 1
2 1 4
f (x, y) no es positiva para todos los valores en los cuales y > x, por ejemplo
en el punto (2, 3).
8(xyz)
Ejemplo 1.6. f (x, y, z) = I[0,1] (x)I[0,1] (y)I[1,2] (z) es una función
3
de densidad de probabilidad conjunta de (X, Y, Z).

En efecto f (x, y, z) ≥ 0 y además


Z 1 Z 1 Z 2  
8xyz
dz dy dx = 1
0 0 1 3

Definición 1.2. Sea f (x, y) es una función de densidad probabilidad con-


junta para (X, Y ). Si A ⊂ R2
ZZ
p(x, y) ∈ A = f (x, y)dxdy
A

Ejemplo 1.7. Para A y las funciones f (x, y) dadas, calcular p(x, y) ∈ A

2(x + y)
• Si f (x, y) = I[y,4] (x)I[1,2] (y)
21
Z 4 "Z x/2 #
2(x + y)
p(2y ≤ x) = dy dx = 4/9
2 1 21

xy
• Si f (x, y) = I (y)I[0,2] (x)
2 [x,2]
Z 2 "Z y #
2 xy
p(y ≥ x ) = 1 − √ 2
dx dy = 1 − 17/48 = 31/48
1 y
1.1. Densidad de probabilidad conjunta 5

• Si f (x, y) = e−(x+y) I[0,∞) (y)I[0,∞) (x)


Z ∞ Z x  Z ∞
−(x+y)
p(y ≤ x) = e dy dx = e−x − e−2x dx = 1/2
0 0 0

8(xyz)
• Si f (x, y, z) = I[0,1] (x)I[0,1] (y)I[1,2] (z)
3
Z 1/2 "Z 1/2 "Z 3/2
# #
8xyz
p(x ≤ 0.5 ; y ≤ 0.5 ; z ≤ 1.5) = dz dy dx = 3/64
0 0 0 3

Definición 1.3. F (x, y) = p(X ≤ x, Y ≤ y) se denomina función de pro-


babilidad acumulada conjunta para (X, Y ) y satisface las siguientes propie-
dades

• F (−∞, y) = limx→−∞ F (x, y) para todo y ∈ R.

• F (x, −∞) = limy→−∞ F (x, y) para todo x ∈ R.

• limh→0− f (x + h, y) = limh→0+ f (x, y + h) = F (x, y).

• Si x1 < x2 y y1 < y2 entonces

p(x1 ≤ X ≤ x2 ; y1 ≤ Y ≤ y2 ) = F (x2 , y2 )−F (x2 , y1 )−F (x1 , y2 )+F (x1 , y1 )

La construcción de F (x, y) requiere un cuidadoso análisis de la local-


izacion de (x, y) como se ilustra a continuación en el siguiente ejemplo.
1
Ejemplo 1.8. Sea f (x, y) = I[1,3] (x)I[1,2] (y) función de densidad de pro-
2
babilidad de (X, Y ).

• En la región Q1 = {(x, y)|x ≤ 1} ∪ {(x, y)|y ≤ 1}, la función de


probabilidad acumulada está dada por F (x, y) = 0.

• En la región Q2 = {(x, y)|1 ≤ x ≤ 3 , 1 ≤ y ≤ 2}


1 x
Z Z y 
(x − 1)(y − 1)
F (x, y) = du dv =
2 1 1 2

• En la región Q3 = {(x, y)|1 ≤ x ≤ 3 , y ≥ 2}

1 2
Z Z x 
(x − 1)
F (x, y) = du dv =
2 1 1 2
6 Distribución de probabilidad de un vector aleatorio continuo

• En la región Q4 = {(x, y)|x ≥ 3 , 1 ≤ y ≤ 2}

1 3
Z Z y 
F (x, y) = du dv = y − 1
2 1 1

• Finalmente, en la región Q5 = {(x, y)|x ≥ 3 , y ≥ 2}, la función de


probabilidad acumulada está dada por F (x, y) = 1.

1.2 Función de densidad probabilidad marginal


Definición 1.4. Sea (X, Y ) un vector aleatorio y f (x, y) la función de
densidad de probabilidad conjunta. Las funciones de densidad de probabili-
dad marginales de X y Y están dadas por
Z ∞
fX (x) = f (x) = f (x, y)dy (1.2)
−∞

Z ∞
fY (y) = f (y) = f (x, y)dx (1.3)
−∞
 
3
En un vector (X, Y, Z) de dimensión 3, se definen funciones de
1
 
3
densidad de probabilidad marginal de dimensión 1 y funciones de
2
densidad de probabilidad marginal de dimensión 2. Como ilustración
Z ∞ Z ∞ 
f (x) = f (x, y, z)dy dz (1.4)
−∞ −∞

Z ∞
f (x, y) = f (x, y, z)dz (1.5)
−∞

Ejemplo 1.9. Las funciones de densidad de probabilidad marginales para


x−y
f (x, y) = I[2,4] (x)I[1,2] (y), están dadas por:
3
Z ∞
1 2 2x − 3
Z
f (x) = f (x, y)dy = (x − y)dy = I[2,4] (x)
−∞ 3 1 6
Z ∞
1 4 2(3 − y)
Z
f (y) = f (x, y)dx = (x − y)dx = I[1,2] (y)
−∞ 3 2 3
1.2. Función de densidad probabilidad marginal 7

Se recomienda al lector verificar que f (x) y f (y) son funciones de den-


sidad de probabilidad, y calcular

• p(x ≤ 5/2).

• p(y ≤ 3/2).

Ejemplo 1.10. Las funciones de densidad de probabilidad marginales para


2(x + y)
f (x, y) = I[y,4] (x)I[1,2] (y), están dadas por:
21

Z x Z 2
2(x + y) 2(x + y)
f (x) = dy + dy
1 21 1 21
3x2 − 2x − 1 2x + 3
= I[1,2] (x) + I[2,4] (x)
21 21
4
3y 2 − 8y − 16
Z
2(x + y)
f (y) = dx = − I[1,2] (y)
y 21 21

Ejemplo 1.11. Las funciones de densidad de probabilidad marginales para


xy
f (x, y) = I (y)I[0,2] (x), están dadas por:
2 [x,2]
Z 2
xy x(4 − x2 )
f (x) = dy = I[0,2] (x)
x 2 4
Z y
xy y3
f (y) = dx = I (y)
0 2 4 [0,2]

Ejemplo 1.12. Las funciones de densidad de probabilidad marginales para


f (x, y) = e−(x+y) I[0,∞) (y)I[0,∞) (x), están dadas por:
Z ∞
f (x) = e−(x+y) dy = e−x I[0,∞] (x)
0

Z ∞
f (y) = e−(x+y) dx = e−y I[0,∞] (y)
0
8 Distribución de probabilidad de un vector aleatorio continuo

Ejemplo 1.13. Las funciones de densidad de probabilidad marginales para


8(xyz)
f (x, y, z) = I[0,1] (x)I[0,1] (y)I[1,2] (z), están dadas por:
3
Z 1 Z 2  Z 1
8xyz
f (x) = dz dy = 4xydy = 2xI[0,1] (x)
0 1 3 0
Z 1 Z 2  Z 1
8xyz
f (y) = dz dx = 4xydx = 2yI[0,1] (y)
0 1 3 0
Z 1 Z 1  Z 1
8xyz 4xz 2z
f (z) = dy dx = = I (z)
0 0 3 0 3 3 [1,2]
Z 2
8xyz
f (x, y) = dz = 4xy I[0,1] (x) I[0,1] (y)
1 3
Z 1
8xyz 4xz
f (x, z) = dy = I (x) I[1,2] (z)
0 3 3 [0,1]
Z 1
8xyz 4yz
f (y, z) = dx = I (y) I[1,2] (z)
0 3 3 [0,1]

Se recomienda al lector verificar, que las anteriores funciones son fun-


ciones de densidad de probabilidad.

1.3 Función de probabilidad acumulada marginal

Definición 1.5. Para X = {X1 , X2 , · · · , Xn } un vector aleatorio con


función de densidad de probabilidad conjunta f (x1 , x2 , · · · , xn ), la función
de probabilidad acumulada marginal de Xi está dada por
Z x
FXi (x) = p(Xi ≤ x) = fXi (u)du (1.6)
−∞

Ejemplo 1.14. Hallar la función de probabilidad acumulada marginal F (x)


2(x + y)
cuando f (x, y) = I[y,4] (x)I[1,2] (y).
21

Como
3x2 − 2x − 1 2x + 3
f (x) = I[1,2] (x) + I[2,4] (x)
21 21
1.3. Función de probabilidad acumulada marginal 9

• F (x) = 0 si x ≤ 1.
x3 − x2 − x + 1
• F (x) = si x ∈ [1, 2].
21
1 x2 + 3x − 10
• F (x) = + si x ∈ [2, 4].
7 21
• F (x) = 1 si x ≥ 4.

En consecuencia, F (x) se puede reescribir como


x3 − x2 − x + 1 1 x2 + 3x − 10
 
F (x) = I[1,2] (x) + + I[2,4] (x) + I[4,∞) (x)
21 7 21
xy
Ejemplo 1.15. Para f (x, y) = I (y)I[0,2] (x), las funciones de pro-
2 [x,2]
babilidad acumulada marginal están dadas por:

x2 (8 − x2 )
• F (x) = I[0,2] (x) + I[2,∞) (x).
16
y4
• F (y) = I (y) + I[2,∞) (y).
16 [0,2]
Se recomienda al lector verificar los resultados presentados y calcular

• p(x ≤ 1).
• p(y ≥ 1).
Ejemplo 1.16. Las funciones de probabilidad acumulada marginal para
f (x, y) = e−(x+y) I[0,∞) (y)I[0,∞) (x), están dadas por:

• F (x) = (1 − e−x ) I[0,∞) (x).


• F (y) = (1 − e−y ) I[0,∞) (y).

8(xyz)
Ejemplo 1.17. Para f (x, y, z) = I[0,1] (x)I[0,1] (y)I[1,2] (z).
3
La función de probabilidad acumulada marginal F (z) está dada por
z2 − 1
F (z) = I[1,2] (z) + I[2,∞) (z)
3
y la función de probabilidad acumulada marginal F (y, z) está dada por
y2z2
F (y, z) = I (y) I[1,2] (z) + I[1,∞] (y) I[2,∞] (z)
3 [0,1]
10 Distribución de probabilidad de un vector aleatorio continuo

1.4 Densidad de probabilidad condicional


Definición 1.6. Sea (X, Y ) un vector aleatorio y f (x, y) la función de
densidad de probabilidad conjunta. Las funciones de densidad de probabili-
dad condicional fX|Y (x) y fY |X (y) están dadas por:

f (x, y)
fX|Y (x) = f (x|y) = (1.7)
f (y)
f (x, y)
fY |X (y) = f (y|x) = (1.8)
f (x)
Ejemplo 1.18. Las funciones de densidad de probabilidad condicional para
x−y
f (x, y) = I[2,4] (x)I[1,2] (y), están dadas por:
3
x−y
f (x|y) = I (x)I[1,2] (y)
2(3 − y) [2,4]
2(x − y)
f (y|x) = I (x)I[1,2] (y)
2x − 3 [2,4]

Se recomienda al lector verificar


Z 4
f (x|y = k)dx = 1 para todo y ∈ [1, 2]
2
Z 2
f (y|x = k)dy = 1 para todo x ∈ [2, 4]
1

Ejemplo 1.19. Las funciones de densidad de probabilidad condicional para


2(x + y)
f (x, y) = I[y,4] (x)I[1,2] (y), están dadas por:
21

2(x + k)
• f (x|y = k) = I (x)I[1,2] (y).
16 + 8k − 3k 2 [k,4]

Se recomienda al lector verificar


Z 4
f (x|y = k)dx = 1 para todo y ∈ [1, 2]
k

2(y + k) 2(y + k)
• f (y|x = k) = I[1,2] (y)I[2,4] (x)+ 2 I (y)I[1,2] (x).
2k + 3 3k − 2k − 1 [1,k]
1.4. Densidad de probabilidad condicional 11

Se recomienda al lector verificar


Z 2
f (y|x = k)dy = 1 para todo x ∈ [2, 4]
1
Z k
f (y|x = k)dy = 1 para todo x ∈ [1, 2]
1

Ejemplo 1.20. Las funciones de densidad de probabilidad condicionales


xy
para f (x, y) = I (y)I[0,2] (x), están dadas por:
2 [x,2]
2x
• f (x|y = k) = I (x)I[0,2] (y).
k 2 [0,k]
2y
• f (y|x = k) = I (y)I[0,2] (x).
4 − k 2 [k,2]

Se recomienda al lector verificar que estas funciones son funciones de


densidad de probabilidad y calcular

• p(x ≤ 1|y = 3/2).

• p(y ≥ 1|x = 1).

Definición 1.7. Sea (X, Y ) un vector aleatorio y f (x, y) la función de


probabilidad conjunta. La funciones de probabilidad acumulada condicional
de X y Y están dadas por:
Z x
FX|Y (x) = p(X ≤ x|Y ) = fX|Y (u)du (1.9)
−∞
Z y
FY |X (y) = p(Y ≤ y|X) = fY |X (u)du (1.10)
−∞

Ejemplo 1.21. Hallar las funciones de probabilidad acumulada condicional


x−y
para f (x, y) = I[2,4] (x)I[1,2] (y).
3
Dado que

x−k
• f (x|y = k) = I (x)I[1,2] (y)
2(3 − k) [2,4]
12 Distribución de probabilidad de un vector aleatorio continuo

2(k − y)
• f (y|x = k) = I (x)I[1,2] (y)
2k − 3 [2,4]
entonces

(x − 2)(2k − x − 2)
• F (x|y = k) = I[2,4] (x)I[1,2] (y) + I[4,∞] (x).
4(k − 3)
(y − 1)(2k − y − 1)
• F (y|x = k) = I[2,4] (x)I[1,2] (y) + I[2,∞] (y).
2k − 3

Ejemplo 1.22. Hallar las funciones de densidad de probabilidad acumu-


xy
lada condicional para f (x, y) = I (y)I[0,2] (x).
2 [x,2]
Dado que

2x
• f (x|y = k) = I (x)I[0,2] (y).
k 2 [0,k]
2y
• f (y|x = k) = I (y)I[0,2] (x).
4 − k 2 [k,2]

entonces

x2
• F (x|y = k) = I (x)I[0,2] (y) + I[2,∞] (x).
k 2 [0,k]
(k 2 − y 2 )
• F (y|x = k) = I (x)I[k,2] (y) + I[2,∞] (y).
(k 2 − 4) [0,2]

1.5 Variables aleatorias independientes


Definición 1.8. En un vector aleatorio X = {X1 , X2 , · · · , Xn } con función
de densidad de probabilidad conjunta f (x1 , x2 , · · · , xn ) las variables X1 , X2 , · · · , Xn
se dicen independientes sı́ y sólo sı́ se cumple una de las siguientes condi-
ciones:

• fXi |Xj = fXi ∀i 6= j.

• f (x1 , x2 , · · · , xn ) = ni=1 fXi (xi ).


Q
1.5. Variables aleatorias independientes 13
Qn
• F (x1 , x2 , · · · , xn ) = i=1 FXi (xi ).

Ejemplo 1.23. El vector (X, Y ) con función de densidad de probabili-


x−y
dad conjunta f (x, y) = I[2,4] (x)I[1,2] (y), no es un vector de variables
3
independientes.

En efecto
x−y 2x − 3
f (x|y) = I[2,4] (x)I[1,2] (y) 6= f (x) =
2(3 − y) 6

Ejemplo 1.24. El vector (X, Y ) con función de densidad de probabilidad


xy
conjunta f (x, y) = I (y)I[0,2] (x), no es un vector de variables inde-
2 [x,2]
pendientes.

En efecto
2x x(4 − x2 )
f (x|y = k) = I [0,k] (x)I [0,2] (y) 6
= f (x) = I[0,2] (x)
k2 4

Ejemplo 1.25. El vector (X, Y ) cuando X ∼ N (µX , σX 2 ) y Y ∼ N (µ , σ 2 )


Y Y
es un vector de variables independientes si la función de densidad de pro-
babilidad conjunta f (x, y) esá dada por

1 (x − µX )2 (y − µY )2
  
1
f (x, y) = exp − 2 +
2πσX σY 2 σX σY2

Ejemplo 1.26. El vector (X, Y ) con función de densidad de probabili-


dad conjunta f (x, y) = e−(x+y) I[0,∞) (y)I[0,∞) (x), es un vector de variables
independientes.

En efecto Z ∞
f (x) = e−(x+y) dy = e−x I[0,∞] (x)
0
Z ∞
f (y) = e−(x+y) dx = e−y I[0,∞] (y)
0
y
f (x, y) = f (x)f (y)
14 Distribución de probabilidad de un vector aleatorio continuo

1.6 Esperanza de un vector aleatorio

Definición 1.9. Sea X = {X1 , X2 , · · · , Xn } un vector aleatorio con función


de densidad de probabilidad conjunta f (x1 , x2 , · · · , xn ). El valor esperado
de X está dado por

E(X) = µX = (µX1 , µX2 , · · · , µXn ) (1.11)

donde Z ∞
µXi = xi f (xi )dxi
−∞

Definición 1.10. Sea G(X1 , X2 , · · · , Xk ) una función definida para un


vector aleatorio (X1 , X2 , · · · , Xk ) con función de densidad de probabilidad
conjunta f (x1 , x2 , · · · , xn ). El valor esperado de G está dado por
Z ∞ Z ∞ Z ∞  
µG = ··· g(x1 , x2 , · · · xk )f (x1 , x2 , · · · xk )dxk · · · dx2 dx1
−∞ −∞ −∞
(1.12)

Definición 1.11. Sea (X, Y ) un vector aleatorio con función de probabi-


lidad conjunta f (x, y). El valor esperado condicional de X dado Y está
dado por Z ∞
E(X|Y ) = µX|Y = xf (x|y)dx (1.13)
−∞

Teorema 1.1. Para (X, Y ) un vector aleatorio con función de densidad


de probabilidad conjunta f (x, y)

• E(aX + b |Y ) = aµX|Y + b.

• Si X, Y son independientes E(X|Y ) = µX .

• Si X, Y son independientes E(aX + b|Y ) = aµX + b

• Si X, Y son independientes E(XY ) = µX µY .


R∞
• E (G(x, y)|x) = −∞ g(x, y)f (y|x)dy.
1.7. Varianza de un vector aleatorio 15

1.7 Varianza de un vector aleatorio


Definición 1.12. Sea X = {X1 , X2 , · · · , Xn } un vector aleatorio con
función de densidad de probabilidad conjunta f (x1 , x2 , · · · , xn ). La va-
rianza de X está dada por
2 2 2 2
V (X) = σX = (σX 1
, σX 2
, · · · , σX n
) (1.14)

donde
Z ∞ Z ∞
2 2
σX i
= (xi − µXi ) f (xi )dxi = x2i f (xi )dxi − (µXi )2
−∞ −∞

Definición 1.13. Sea G(X1 , X2 , · · · , Xk ) una función definida para un


vector aleatorio (X1 , X2 , · · · , Xk ) con función de densidad de probabilidad
conjunta f (x1 , x2 , · · · , xn ). La varianza de G está dada por
V (G) = E G2 (X1 , X2 , · · · Xk ) − E 2 (G(X1 , X2 , · · · Xk ))

(1.15)

Definición 1.14. Sea (X, Y ) un vector aleatorio con función de densidad


de probabilidad conjunta f (x, y). La varianza condicional de X dado Y
está dada por Z ∞
V (X|Y ) = (x − µX|Y )2 f (x|y)dx (1.16)
−∞

Se recomienda demostrar que


Z ∞
V (X|Y ) = x2 f (x|y)dx − (µX|Y )2 = E(x2 |y) − (µX|Y )2
−∞

Teorema 1.2. Para (X, Y ) un vector aleatorio con función de densidad


de probabilidad conjunta f (x, y)

• V (aX + b |Y ) = a2 V (X|Y ).
• Si X, Y son independientes V (X|Y ) = V (X).
• Si X, Y son independientes V (aX + b|Y ) = a2 V (X)

Definición 1.15. Sea (X, Y ) un vector aleatorio con función de densidad


de probabilidad conjunta f (x, y). La covarianza de X y Y está dada por
Z ∞ Z ∞ 
2
Cov(X, Y ) = σXY = (x − µX )(y − µY )f (x, y)dy dx (1.17)
−∞ −∞
16 Distribución de probabilidad de un vector aleatorio continuo

Definición equivalente para la covarianza de X, Y es

Cov(X, Y ) = E ((X − µX )(Y − µY ))

Teorema 1.3. Si (X, Y ) son variables aleatorias continuas, entonces

Cov(X, Y ) = E(XY ) − µX µY

en efecto
Z ∞ Z ∞ 
Cov(X, Y ) = (x − µX )(y − µY )f (x, y)dy dx
−∞ −∞
Z ∞ Z ∞ 
= (xy − xµY − yµX + µX µY )f (x, y)dy dx
−∞ −∞
Z ∞ Z ∞ 
= (xy)f (x, y)dy dx − (µX µY )
−∞ −∞
= E(XY ) − µX µY

Dos resultados importantes que se derivan del teorema anterior son

• Cov(X, X) = E(X 2 ) − µ2X = σX


2 .

• Si (X, Y ) son independientes Cov(X, Y ) = 0. El enunciado recı́proco


no es cierto, si Cov(X, Y ) = 0 no necesariamente las variables X y
Y son independientes, lo cual se ilustra en el siguiente ejemplo.
3w
Ejemplo 1.27. Sea f (z, w) = I (w)I(−w,w) (z) función de densidad
2 [0,1]
de probabilidad conjunta.

La función

 Z 1 Z 1 
3
f (z) = I[−1,0] (z) wdw + I[0,1] (z) wdw
2 −z z
3(1 − z 2 )
= I[−1,1] (z)
4

y por definición Z 1
3
µz = (z − z 3 )dz = 0
4 −1
1.7. Varianza de un vector aleatorio 17

además ZZ Z 1 Z w 
3 3 2
(zw)wdzdw = zw dz dw = 0
2 2 0 −w
entonces Z Z 
3
Cov(z, w) = (zw)wdzdw − µz µw = 0
2
Se sugiere al lector, calcular f (w) y verificar que f (z, w) 6= f (z)f (w) lo
cual significa que las variables no son independientes.
Definición 1.16. Sea X = {X1 , X2 , · · · , Xn } un vector aleatorio con
función de densidad de probabilidad conjunta f (x1 , x2 , · · · , xn ). La ma-
triz de covarianzas de X está dada por

2 2 2
 
σX 1
σX 1 X2
··· σX X
1 n
σ2 σX2 ··· 2
σX 
 X2 X1 2 2 Xn 
Σ =  . .. ..  (1.18)
 .. . . 
2
σX 2
σX ··· 2
σX
n X1 n X2 n

Definición 1.17. Sea (X, Y ) un vector aleatorio y f (x, y) la función de


densidad de probabilidad conjunta. El coeficiente de correlación de X y Y
está dado por

Cov(X, Y )
ρXY = (1.19)
σX σY
X y Y se dicen no correlacionadas si Cov(X, Y = 0.
Definición 1.18. Sea X = {X1 , X2 , · · · , Xn } un vector aleatorio con
función de densidad de probabilidad conjunta f (x1 , x2 , · · · , xn ). La ma-
triz de correlaciones de X está dada por

 
1 ρX1 X2 ··· ρX1 Xn
 ρX X
 2 1 1 ··· ρX2 Xn 
R =  . (1.20)

.. .. 
 .. . . 
ρXn X1 ρXn X2 ··· 1

Ejemplo 1.28. Para el vector (X, Y ) con función de densidad de proba-


x−y
bilidad conjunta f (x, y) = I[2,4] (x)I[1,2] (y), verificar
3
18 Distribución de probabilidad de un vector aleatorio continuo

• E(X, Y ) = (29/9 , 13/9).


9k − 28
• µX|Y =k = .
3(k − 3)

28k − 45 (9k − 14)2


• σY2 |X=k = − .
6(2k − 3) 9(2k − 3)2
1
• Cov(X, Y ) = .
81

598
• ρXY = = 0.08179
299

Ejemplo 1.29. Para el vector (X, Y ) con función de densidad de proba-


xy
bilidad conjunta f (x, y) = I (y)I[0,2] (x), verificar
2 [x,2]

2(k 2 + 2k + 4)
• µY |X=k = .
3(k + 2)

2 3k 2 − 4k
• σX|Y =k = .
6
2 = 44
• σX = 0.19556.
255

Definición 1.19. Sean X ∼ N (µX , σX 2 ) y Y ∼ N (µ , σ 2 ) dos variables


Y Y
aleatorias no independientes con coeficiente de correlación ρ. El vector
(X, Y ) tiene distribución normal bivariada con función de densidad de pro-
babilidad conjunta f (x, y) dada por

f (x, y) = AeB I(−∞,∞) (x) I(−∞,∞) (y) (1.21)

siendo
1
A= p
2πσX σY 1 − ρ2
y
" 2     2 #
1 x − µX x − µX y − µY y − µY
B=− − 2ρ +
2(1 − ρ2 ) σX σX σY σY
1.8. Función generadora de momentos conjunta 19

En este modelo de probabilidad, la función de densidad de probabilidad


condicional f (x|y) está dada por

1
f (x|y) = q eC (1.22)
2 2
2πσX (1 − ρ )

para

 2
1 ρσX
C=− 2 x − µX − (y − µY )
2σX (1 − ρ2 ) σY

Esta función de densidad de probabilidad corresponde a una distribución


normal con parámetros
ρσX
µX|Y = µX + (y − µY ) (1.23)
σY
2
V (X|Y ) = σX (1 − ρ2 ) (1.24)

1.8 Función generadora de momentos conjunta

Definición 1.20. Para X = {X1 , X2 , · · · , Xn } un vector aleatorio con


función de densidad de probabilidad conjunta f (x1 , x2 , · · · , xn ) la función
generadora de momentos conjunta de X está dada por
Z ∞ Z ∞ 
(t1 x1 +t2 x2 +···+tn xn )
mX (t) = ··· e f (x1 , x2 , · · · , xn )dxn · · · dx1
−∞ −∞
p (1.25)
para todo t = (t1 , t2 , · · · , tn ) con t21 + t22 + · · · + t2n < K, para algún K.

Definición 1.21. Sea X = {X1 , X2 , · · · , Xn } un vector aleatorio de va-


riables continuas y f (x1 , x2 , · · · , xn ) la función de densidad de probabilidad
conjunta. La función generadora de momentos marginal de Xi está dada
por Z ∞
mXi (t) = etxi f (xi )dxi (1.26)
−∞

Teorema 1.4. Si X = {X1 , X2 , · · · , Xn } es un vector aleatorio de varia-


bles independientes con f (x1 , x2 , · · · , xn ) la función de probabilidad con-
junta, entonces
20 Distribución de probabilidad de un vector aleatorio continuo

Y
mX (t) = mXi (t) (1.27)
i

Definición 1.22. Sea Y = G(X1 , X2 , · · · , Xk ) una función definida para


un vector aleatorio (X1 , X2 , · · · , Xk ) con función de densidad de probabi-
lidad conjunta f (x1 , x2 , · · · , xn ). La función generadora de momentos para
Y está dada por
Z ∞ Z ∞ Z ∞  
g(x1 ,x2 ,···xk )t
mY (t) = ··· e f (x1 , x2 , · · · xk )dxk · · · dx2 dx1
−∞ −∞ −∞
(1.28)

Ejemplo 1.30. Sean (X, Y ) variables aleatorias independientes con función


de densidad de probabilidad

f (x) = 5e−5x I[0,∞) (x) f (y) = 3e−3y I[0,∞) (y)

Z ∞ Z ∞ 
xt+yt
mX,Y (t) = ef (x, y)dy dx
0 0
Z ∞  Z ∞ 
= ext f (x)dx eyt f (y)dy
 0   0
5 3
= t<3
5−t 3−t
Se recomienda al lector, calcular mX (t) y mY (t) y verificar que

mX,Y (t) = mX (t)mY (t)

1.9 Función de variables aleatorias


En lo que resta de este capı́tulo se describen 3 metodologı́as para construir
la función de densidad de probabilidad y con ella el modelo de probabilidad
de una variable que es función de una o varias variables aleatorias continuas.
En la literatura estadı́stica estas metodologı́as se conocen como:

• Técnica usando la función de probabilidad acumulada.

• Técnica usando la función generadora de momentos.


1.9. Función de variables aleatorias 21

• Teorema de transformación.

Definición 1.23. Sea X una variable aleatoria continua y f (x) su función


de probabilidad. Una variable aleatoria Y se dice función de X si existe
una función g : X −→ R tal que Y = g(X).

Usando la técnica de la función de probabilidad acumulada F (y), la función


de densidad f (y) satisface

f (y) = F 0 (y)

Ejemplo 1.31. Si X ∼ Exp(θ), hallar f (y) la función de densidad de


probabilidad de g(X) = Y = X + 3.

Utilizando la técnica de la función de probabilidad acumulada


Z y−3
F (y) = p(Y ≤ y) = p(X ≤ y − 3) = θe−θx dx = 1 − e−θ(y−3)
0

en consecuencia

f (y) = F 0 (y) = θe−θ(y−3) I[3,∞) (y)

1 2
Ejemplo 1.32. Si f (x) = √ e−x /2 I(−∞,∞) (x), hallar f (y) la función

de densidad de probabilidad de g(X) = Y = X 2 .

Utilizando la técnica de la función de probabilidad acumulada


√ √
F (y) = p(Y ≤ y) = p(X 2 ≤ y) = p(− y ≤ X y)
Z √y Z − √y
1 −x2 /2 1 2
= √ e dx − √ e−x /2 dx
−∞ 2π −∞ 2π
Z √y
2 2
=√ e−x /2 dx
2π 0

la sustitución w = y conduce a
w
e−z/2 w
e−z/2
Z Z
2 1
F (y) = √ √ dz = √ dz
2π 0 2 z Γ(1/2) 0 2z
para concluir que
Y ∼ Gamma(1/2; 1/2)
22 Distribución de probabilidad de un vector aleatorio continuo

es decir, si X ∼ N (0; 1) y Y = X 2 entonces

Y ∼ χ2(1)

Utilizando la técnica de la función generadora de momentos


Z ∞
1 2 2
mY (t) = √ ex t e−x /2 dx
2π −∞
Z ∞
1 x2
=√ e− 2 (1−2t) dx
2π −∞
 1/2
1 1/2
= =
(1 − 2t)1/2 1/2 − t
para concluir como antes

Y ∼ χ2(1)

Ejemplo 1.33. Si X ∼ U [0, 1]. Hallar f (y) la función de densidad de


probabilidad de g(X) = Y = X 2 .

Para Y

F (y) = p(Y ≤ y) = p(X ≤ y)
Z √y

= dx = y I(0,1) (y) + I[1,∞) (y)
0

y ası́
1
f (y) = F 0 (y) = √ I(0,1) (y)
2 y

Teorema 1.5. (Teorema de transformación univariada) Dada X con función


d −1
de densidad de probabilidad f (x), si g(X) = Y es uno a uno y (g (Y )
dy
es continua y no cero, entonces

d −1
f (y) = (g (Y ) fX (g −1 (Y ))IY (y)

dy

En efecto:

F (y) = p(Y ≤ y) = p(g(X) ≤ y)


= p(X ≤ g −1 (y)) = FX (g −1 (y))
1.9. Función de variables aleatorias 23

y la derivada por regla de la cadena proporciona



−1
d −1
f (y) = fX (g (y)) (g (Y )

dy

Se sugiere hallar f (y) en los anteriores ejemplos aplicando este teorema.


Definición 1.24. Sea (X, Y ) un vector aleatorio y f (x, y) su función de
densidad probabilidad conjunta. W se dicen función de (X, Y ) si existe
una función g : (X, Y ) −→ R tal que g(X, Y ) = W

Los siguientes ejemplos ilustran un procedimiento para la construcción


de f (w).
Ejemplo 1.34. Si (X, Y ) es un vector aleatorio con función de densidad de
probabilidad conjunta f (x, y) = e−(x+y) I[0,∞) (x)I[0,∞) (y). Hallar la función
X +Y
de densidad de probabilidad de W = g(X, Y ) = .
2
Para W y usando la la técnica de la función de probabilidad acumulada
X +Y
F (w) = p(W ≤ w) = p( ≤ w)
2
Z 2w Z 2w−x 
= e−(x+y) dy dx = 1 − e−2w (2w + 1)
0 0

entonces
f (w) = F 0 (w) = 4we−2w I(0,∞) (w)

Ejemplo 1.35. Si (X, Y ) es un vector aleatorio con función de densidad


de probabilidad conjunta f (x, y) = 3xI(0,x) (y)I(0,1) (x). Hallar la función
de densidad de probabilidad de W = g(X, Y ) = X − Y .

Para W y usando la la técnica de la función de probabilidad acumulada

F (w) = p(W ≤ w) = p(X − Y ≤ w) = 1 − p(X − Y ≥ w)


Z 1 Z x−w 
=1− 3xdy dx
w 0
w3 − 3w + 2
=1−
2
entonces
3(1 − w2 )
f (w) = F 0 (w) = I(0,1 (w)
2
24 Distribución de probabilidad de un vector aleatorio continuo

Ejemplo 1.36. Si (X, Y, Z) es un vector aleatorio con función de densidad


de probabilidad conjunta

f (x, y, z) = e−(x+y+z) I(0,∞) (x)

Hallar la función de densidad de probabilidad de

X +Y +Z
W = g(X, Y, Z) =
3

Para W y usando la la técnica de la función de probabilidad acumulada

F (w) = p(W ≤ w) = p(X + Y + Z ≤ 3w)


Z 3w Z 3w−x Z 3w−x−y  
−(x+y+z)
= e dz dy dx
0 0 0
e−3w (9w2 + 6w + 2)
=1−
2
entonces
27w2 e−3w
f (w) = F 0 (w) = I(0,∞) (w)
2

Definición 1.25. Sea (X, Y ) un vector aleatorio y f (x, y) su función de


densidad probabilidad conjunta. Dos variables aleatorias W1 , W2 se dicen
función de (X, Y ) si existe una función g : (X, Y ) −→ R2 tal que

g(X, Y ) = (g1 (X, Y ), g2 (X, Y )) = (W1 , W2 )

Definición 1.26. Sea (X, Y ) un vector aleatorio y g una transformación


tal que
g(X, Y ) = (g1 (X, Y ), g2 (X, Y )) = (W1 , W2 )
y
g −1 (W1 , W2 ) = g1−1 (W1 , W2 ), g2−1 (W1 , W2 ) = (X, Y )


Se define el Jacobiano de la transformación a la expresión

∂X ∂X


∂W1 ∂W2
J (w1 , w2 ) =


∂Y ∂Y

∂W1 ∂W2

1.9. Función de variables aleatorias 25

Teorema 1.6. (Teorema de transformación bivariada) Sea (X, Y ) un vec-


tor aleatorio, f (x, y) su función de densidad probabilidad conjunta y W1 , W2
variables aleatorias tal que

g(X, Y ) = (g1 (X, Y ), g2 (X, Y )) = (W1 , W2 )

Si J 6= 0 y sus componentes son continuas, entonces

f (w1 , w2 ) = |J (w1 , w2 )| fX,Y g1−1 (w1 , w2 ), g2−1 (w1 , w2 ) IW1 ,W2 (w1 , w2 )


Ejemplo 1.37. Si (X, Y ) es un vector aleatorio con función de densidad


de probabilidad conjunta f (x, y) = (x + y)I(0,1) (x)I(0,1) (y) y W, V variables
tal que

g1 (X, Y ) = X + Y = W g2 (X, Y ) = Y − X = V

Para la transformación definida se deduce:


W −V W +V
g1−1 (W, V ) = =X g2−1 (W, V ) = =Y
2 2

1 1

2 2 1

J (w, v) = =
1 2

1

2 2
y entonces

1  
f (w, v) = w I(−1,0) (w)I(−w,2+w) (v) + I(0,1) (w)I(w,2−w) (v)
2

Ejemplo 1.38. Si (X, Y, Z) son variables aleatorias independientes con


distribución normal estándar y W, V, U variables tal que

g1 (X, Y, Z) = X = W
X +Y
g2 (X, Y, Z) = =V
2
X +Y +Z
g3 (X, Y, Z) = =U
3
26 Distribución de probabilidad de un vector aleatorio continuo

Para la transformación definida se deduce:

g1−1 (W, V, U ) = W = X
g2−1 (W, V, U ) = 2V − W = Y
g3−1 (W, V, U ) = 3U − 2V = Z


1 0 0



J (w, v, u) = −1 2 0 = 6



0 −2 3
y entonces
 3
1 2 +8v 2 −4wv−12vt+9u2 )
f (w, v, u) = 6 √ e−1/2(2w I(0,∞) (w)I(0,∞) (v)I(0,∞) (u)

En particular
Z ∞ Z ∞
√
3 2
f (u) = f (w, v, u)dw dv = √ e−3/2u I(−∞,∞) (u)
−∞ −∞ 2π

es decir, U ∼ N (0; 1/3)

Ejemplo 1.39. Si (X, Y ) es un vector aleatorio con función de densidad de


probabilidad conjunta f (x, y) = 2e−(x+y) I(0,y) (x)I(0,∞) (y) y W, V variables
tal que

g1 (X, Y ) = X = W g2 (X, Y ) = Y + X = V

Para la transformación definida se deduce:

g1−1 (W, V ) = W = X g2−1 (W, V ) = V − W = Y


1 0

J (w, v) = =1

−1 1
y entonces
f (w, v) = 2e−v I(2w,∞) (v)
1.9. Función de variables aleatorias 27

Ejemplo 1.40. Si (X1 , X2 ) son variables aleatorias independientes con


distribución exponencial con parámetro θ, interesa hallar f (y) la función
de densidad de probabilidad de W = X1 + X2 .

Las funciones de densidad de probabilidad marginales están dadas por

f (x1 ) = θe−θx1 I[0,∞) (x1 ) f (x2 ) = θe−θx2 I[0,∞) (x2 )

en consecuencia, la función de densidad de probabilidad conjunta está


dada por
f (x1 , x2 ) = θ2 e−θ(x1 +x2 ) I[0,∞) (x)I[0,∞) (y)
y utilizando la técnica de la función generadora de momentos

Z ∞ Z ∞ 
(x1 +x2 )t
mW (t) = e f (x1 , x2 )dx2 dx1
Z0 ∞ 0
Z ∞
= ex1 t f (x1 )dx1 ex2 t f (x2 )dx2
0 0
= mX1 (t)mX2 (t)
 2
θ
=
θ−t

es decir
W ∼ Gamma(θ, 2)

Resultado equivalente se obtiene si se define la transformación

g1 (X1 , X2 ) = X1 + X2 = W g2 (X1 , X2 ) = Y = V

Para la transformación definida se deduce:

g1−1 (W, V ) = W − V = X g2−1 (W, V ) = V = Y


1 −1

J (w, v) = = −1

0 −1

y entonces
f (w, v) = θ2 e−θw I(0,∞) (w)I(0,w) (v)
28 Distribución de probabilidad de un vector aleatorio continuo

Finalmente Z w
f (w) = θ2 e−θw dv = θ2 we−θw I(0,∞) (w)
0
es decir
W ∼ Gamma(θ, 2)

Ejemplo 1.41. Si (X, Y ) es un vector aleatorio con función de densidad


de probabilidad conjunta f (x, y) = 3xI(0,x) (y)I(0,1) (x). Hallar la función
de densidad de probabilidad de W = g1 (X, Y ) = X − Y .

Sea V = g2 (X, Y ) = X + Y
Para la transformación definida se deduce:
V +W V −W
g1−1 (V, W ) = =X g2−1 (V, W ) = =Y
2 2

1/2 1/2

J (v, w) = = −1/2

1/2 −1/2
y entonces
3(v + w)
f (v, w) = I(0,1) (w)I(w,2−w) (v)
4
Finalmente
2−w
3(1 − w2 )
Z
3
f (w) = (v + w)dv = I(0,1 (w)
4 w 2

Ejemplo 1.42. Si (X, Y ) es un vector aleatorio con función de densidad


1
de probabilidad conjunta f (x, y) = I(1,3) (x)I(2,5) (y). Hallar la función de
6
densidad de probabilidad de W = g1 (X, Y ) = XY .

Sea V = g2 (X, Y ) = X
Para la transformación definida se deduce:
W
g1−1 (W, V ) = V = X g2−1 (W, V ) = =Y
V

0 1

J (v, w) = = −1/v

1/v −w/v 2
1.10. Ejercicios 29

y entonces
1
f (v, w) = I (v)I(2v,5v) (w)
6v (1,5)
Finalmente
ln(w/2) ln(5/2) ln(w/15)
f (w) = I(2,5 (w) + I(5,6) (w) − I(6,15) (w)
6 6 6

1.10 Ejercicios
1. Halle el valor de c tal que f (x, y) = xyI[1,4] (x)I[0,c] (y) sea función de
densidad de probabilidad.
k(3x + y)
2. Para f (x, y) = I[1,2] (x)I[1,3] (y)
5
• Halle k tal que f (x, y) es una función de densidad de probabi-
lidad.
• Calcule p(x ≤ 3/4; y ≤ 1/2).
• Calcule p(x ≥ 1/2; y ≤ 2).
• Calcule p(x ≥ 1; y ≥ 1).
• Calcule p(x ≤ 2).
1
3. Sea f (x, y) = (x + 4)(y + 1)I[0,2] (x)I[1,3 ](y).
60
• Verifique si f (x, y) es una función de densidad de probabilidad.
• Calcule p(x ≤ y).
• Calcule p(2x ≥ 3).
• Calcule p(x − y ≥ 1).

4. Si la función de densidad de probabilidad de (X, Y ) está dada por

3
f (x, y) = (2x + y)I[1,2] (y)I[2−y,y] (x)
11
• Calcule p(y ≥ 2x).
• Halle f (y|x).
1
5. Sea f (x, y) = y(2x + 1)I[0,4] (x)I[1,5 ](y).
240
30 Distribución de probabilidad de un vector aleatorio continuo

• Verifique si f (x, y) es una función de densidad de probabilidad.


• Calcule µX .
• Calcule µY |X .
2
• Calcule σX|Y .

6. Para f (x, y) = kxyI[0,1] (y)I[y,2−y] (x)

• Halle k tal que f (x, y) es una función de densidad de probabi-


lidad.
• Calcule p(x ≤ 3/4; y ≤ 1/2).
• Calcule p(x ≤ 1; y ≥ 1/3).
• Calcule p(x ≤ 4/5|y = 1/2).
• Calcule p(y ≤ x/2).
• Halle F (x).
• Calcule µY |X=1 .
2
• Calcule σX|Y =1/2 .

7. Para f (x, y) = k(x + y)I[0,4] (y)I[0,y/2] (x) función de densidad de pro-


babilidad conjunta del vector W = (X, Y )

• Halle k.
• Calcule µW = (µX , µY ).
• Calcule la matriz de varianzas y covarianzas de W .

8. La función de densidad de probabilidad de (X, Y, Z) está dada por

1
f (x, y, z) = x(y + 1)(z + 4)I[1,3] (x)I[0,2] (y)I[1,4] (z)
312
• Halle f (x, y).
• Halle f (y, z).
• Halle f (x|y).
• Halle f (y|z).

9. Establezca si X, Y son independientes cuando


1
f (x, y) = x(y + 1)I[1,3] (x)I[2,4] (y)
32
1.10. Ejercicios 31

10. Si la función de densidad de probabilidad de (X, Y ) está dada por

f (x, y) = 3(x + y)I[0,1] (x)I[0,1−x] (y)

Para Z = Y − X y W = X + Y

• Halle f (z, w).


• Halle Cov(z, w)

11. X y Y son variables aleatorias independientes con funciones de den-


sidad

f (x) = k1 (x + 2)I[2,5] (x) f (y) = k2 (y + 3)I[0,4] (y)

• Halle el valor de k1 y k2 .
• Calcule µX y µY .
• Calcule µX|Y =k .
• Calcule σY2 |X=2 .

12. X y Y son variables aleatorias independientes con funciones de den-


sidad

f (x) = k1 (x − 1)I[3,6] (x) f (y) = k2 (y + 2)I[0,3] (y)

• Halle el valor k1 y k2 .
• Halle f (w1 , w2 ) si W1 = X + Y y W2 = X − Y .
• Halle f (w1 |w2 ).
• Calcule µW1 |W2 .
2
• Calcule σW .
1 |W2

13. Halle f (x, y) si X y Y son variables aleatorias independientes con


distribución normal tal que
2
µX = 25 ; σX = 4 ; µY = 70 ; σY2 = 9

14. Halle f (x, y) si X y Y son variables aleatorias con distribución nor-


mal tal que
2
µX = 20 ; σX = 5 ; µY = 80 ; σY2 = 4 ; Cov(X, Y ) = 2.3

15. Si X ∼ N (4; 1) y Y ∼ N (9; 2) son variables aleatorias independientes


32 Distribución de probabilidad de un vector aleatorio continuo

• Halle f (x, y).


• Halle f (x|y).
• Calcule µX|Y .
• Calcule σY2 |X

16. Si X ∼ Exp(4) y Y ∼ Exp(2) son variables aleatorias independientes

• Halle f (x, y).


• Halle f (x|y).
• Calcule µX|Y .
• Calcule σY2 |X

17. En una oficina de atención al cliente se reciben en promedio 40 lla-


madas cada hora e ingresan en promedio 10 personas cada media
hora. Halle f (t1 , t2 ) si:

• T1 es el tiempo de espera en minutos entre 2 llamadas consecu-


tivas.
• T2 es el tiempo de espera en minutos para que ingrese un nuevo
cliente.
• T1 y T2 son independientes.

18. X y Y son variables aleatorias independientes con distribución uni-


forme en los intervalos [2, 4] y [−2, 2] respectivamente

• Halle f (x, y).


• Halle F (x, y).

19. X y Y son variables aleatorias independientes con distribución uni-


forme en los intervalos [1, 4] y [1, 2] respectivamente

• Halle f (x, y).


• Halle f (x|y = k).
• Calcule µX|Y =k .
• Calcule p(x ≤ y).

20. La función de densidad de probabilidad de (X, Y ) está dada por

f (x, y) = kI[0,2] (y)I[y,y+4] (x)


1.10. Ejercicios 33

• Halle el valor de k.
• Halle f (w) si W = 2X + 3.
• Halle f (u, v) si U = X − Y y V = X + Y .
• Halle f (v).

21. La función de densidad de probabilidad de (X, Y ) está dada por

1
f (x, y) = (x + 2)(y + 1)I[1,3] (x)I[2,4] (y)
64
Para W = 2X + 3, Z + X + Y

• Halle f (w, z).


• Halle f (w).
• Halle f (z).
• Halle F (w) y F (z).

22. La función de densidad de probabilidad de (X, Y ) está dada por

f (x, y) = e−(x+y) I[0,∞) (x)I[0,∞) (y)

• Halle f (w) si W = 3X + 8.
• Halle f (z) si Z = X + 2Y .

23. La función de densidad de probabilidad de (X, Y ) está dada por

f (x, y) = e−(x+y) I[0,∞) (x)I[0,∞) (y)

• Halle f (u, v) si U = 2X − 3Y y V = Y .

24. X y Y son variables aleatorias independientes con funciones de den-


sidad
f (x) = I[4,5] (x) f (y) = I[9,10] (y)
si X y Y representan el largo y ancho de un rectángulo, calcule la
varianza del área del rectángulo.

25. Si X ∼ N (µX ; σX 2 ) y Y ∼ N (µ ; σ 2 ) son variables aleatorias inde-


Y Y
pendientes, halle

• Halle f (x, y).


• Halle f (x|y).
34 Distribución de probabilidad de un vector aleatorio continuo

• Halle f (w) para W = aX + bY .

26. Si X, Y, Z son variables aleatorias independientes con distribución


normal de parámetros µ y σ 2 , halle

• Halle f (x, y, z).


• Halle f (y|x, z).
• Halle f (w) para W = aX + bZ.

Вам также может понравиться