Вы находитесь на странице: 1из 54

Introducción a Vectores

Aleatorios con énfasis en los


bidimensionales
• Hasta ahora hemos considerado el caso de variables
aleatorias unidimensionales. Esto es, el resultado del
experimento de interés se registra como un único
número real.
• En muchos casos, sin embargo, nos puede interesar
asociar a cada resultado de un experimento aleatorio,
dos o más características numéricas. Por ejemplo, de
los remaches que salen de una línea de producción
nos puede interesar el diámetro X y la longitud Y.
Teniendo en cuenta la inevitable variabilidad en las
dimensiones de los remaches debido a las numerosas
causas presentes en el proceso de fabricación, los
podemos representar asociándoles dos variables
aleatorias X e Y que pueden pensarse como una
variable aleatoria bidimensional: (X ,Y ).
Cómo Generar el recorrido de un
vector aleatorio bidimensional
Sea ξ un experimento aleatorio y Ω el espacio
muestral asociado a ξ. Sean también X = X(𝜔) y Y
= Y(𝜔) dos funciones que asignan un número
real a cada resultado 𝜔𝑖 del experimento,
contenido en el espacio muestral; es decir, para
cada 𝜔𝑖 ∈ Ω existe un número real x para el cual
x = X(𝜔𝑖 ) y también un número real y tal que y =
Y(𝜔𝑖 ). Bajo estas consideraciones diremos que
(X, Y) recibe el nombre de variable aleatoria
bidimensional o Vector aleatorio bidimensional
• Si en lugar de dos variables aleatorias, tenemos n
variables aleatorias X1 , X2 ,..., Xn , llamaremos a
(X1 , X2 ,..., Xn ) variable aleatoria n-dimensional o
Vector aleatorio de dimensión n.
• Al conjunto de valores que toma la variable
aleatoria bidimensional (X,Y) se llamará recorrido de
la v.a. (X,Y) y se indicá por RXY. En otras palabras:
𝑅𝑋𝑌 = 𝑥, 𝑦 : 𝑥 = 𝑋 𝜔 𝑒 𝑦 = 𝑌 𝜔 𝑐𝑜𝑛 𝜔𝜖Ω
corresponde a la imagen de (X,Y) del espacio
muestral.
Tipos de Vectores aleatorios
bidimensionales
- Vector aleatorio de v.a. discretas bidimensional.
Yj
Xi
y1 y2 ym
x1 p11 p12
x2

xn pnm

- Vector aleatorio de v.a. continuas bidimensional


Ejercicio N°1: Construcción de una
Variable aleatoria discreta bidimensional
Se lanza un dado dos veces:
Ω = (1,1) (1,2)……………(6,6)
Se definen las siguientes variables aleatorias:
X: Se asigna el número máximo que aparece.
Y: Suma de los números que aparecen
X(1,1)= 1 X(1,2)=2 ……………………….X(6,6)=6
Y(1,1)=2 Y(1,2)=3……………………….. Y(6,6)=12
Luego, el recorrido de la variable aleatoria
bidimensional, estará dado por:
Rx,y = (1,2), (1,3),……(1,12), (2,2), (2,3)…………….(6,12)
A través de una tabla:
X\ Y 2 3 4 5 6 7 8 9 10 11 12
1
2
3
4
5
6

Asignación de probabilidades.
Para (X=1,Y=2)
Equivalencia entre sucesos:
el suceso elemental (1,1) ∈ Ω genera el suceso (1,2)
∈ Ʀx,y . Luego:
1 1
P( (1,1) ) = ≡ 𝑃 𝑋 = 1; 𝑌 = 2 =
36 36
Para (X=2,Y=3)
Equivalencia entre sucesos:
Resultados perteneciente al espacio muestral que
originan el valor X=2 del recorrido de X e Y=3 del
recorrido de Y.
Son:
(2,1) (2,2) (1,2) ∈ Ω que originan X(2,1)=2; X(2,2)=2;
X(1,2) =2
(1,2) (2,1) ∈ Ω originan Y(1,2)=3; Y(2,1)=3
Luego, los pares comunes perteneciente a Ω, son (1,2) y
2
(2,1), su probabilidad conjunta es , por lo tanto
36
2
P(X=2,Y=3) = .
36
Así sucesivamente, se asignan las probabilidades para los
pares (x,y).
Distribución de probabilidad de la v.a.b. (X,Y) o del
Vector aleatorio de dimensión 2
X\ Y 2 3 4 5 6 7 8 9 10 11 12 PX(x)

1 1/36 0 0 0 0 0 0 0 0 0 0
2 0 2/36 1/36 0 0 0 0 0 0 0 0

3 0 0 2/36 2/36 1/36 0 0 0 0 0 0

4 0 0 0 2/36 2/36 2/36 1/36 0 0 0 0

5 0 0 0 0 2/36 2/36 2/36 2/36 1/36 0 0

6 0 0 0 0 0 2/36 2/36 2/36 2/36 2/36 1/36


Py(y)
Ejercicio N° 2
• Hay tres cajas registradoras a la salida de un supermercado.
Dos clientes llegan a las cajas en diferentes momentos
cuando no hay otros clientes ante aquellas. Cada cliente
escoge una caja al azar e independientemente del otro.
• Sean las variables aleatorias X: “ nº de clientes que escogen la
caja 1” e Y: “nº de clientes que escogen la caja 2”. Hallar la
función de probabilidad conjunta de (X,Y).

Ω = 1,1 ; 1,2 ; 1,3 ; 2,1 ; 2,2 ; 2,3 ; 3,1 ; 3,2 ; (3,3)


X(1,1)=2 X(1,2)=1 X(1,3)=1 X(2,1)=1 X(2,2)=0 X(2,3)=0
X(3,1)=1 X(3,2)=0 X(3,3)=0
Y(1,1)=0 Y(1,2)=1 Y(1,3)=0 Y(2,1)=1 Y(2,2)=2 Y(2,3)=1
Y(3,1)=0 Y(3,2)=1 Y(3,3)=0

Asignación de probabilidades.
Distribución de Probabilidad conjunta de (X,Y)
X\Y 0 1 2
0 1/9 1/9 1/9
1 2/9 2/9 0
2 1/9 0 0

𝑃 𝑋 = 1; 𝑌 = 1 = 2/9 corresponde a la probabilidad de


que un cliente escoja la caja 1 y el otro la caja 2
Definición de la distribución de probabilidad de la
variable aleatoria discreta bidimensional (X,Y).
Sea (X,Y) una variable aleatoria discreta
bidimensional. A cada resultado posible (xi , yj) se
asocia un número p(xi,yj) que representa 𝑃(𝑋 =
𝑥𝑖 ,𝑌 = 𝑦𝑗 ) que satisface las siguientes condiciones:

i) 𝑝(𝑥𝑖 ,𝑦𝑗 )≥ 0 ∀ 𝑥, 𝑦

ii) σ∞ σ∞
𝑗=1 𝑖=1 𝑝(𝑥𝑖 ,𝑦𝑗 )=1

Estas condiciones se pueden verificar tanto en el ejemplo 1, como en el ejemplo2.


Distribuciones de probabilidades
marginales para el vector a.b.d..
La suma de las probabilidades de cada fila
genera la probabilidad marginal asociada al
valor de la variable X de esa fila.
𝑃 𝑋 = 𝑥𝑖. = σ𝑚 𝐽=1 𝑝(𝑥𝑖 , 𝑦𝑗 )
La suma de las probabilidades de cada columna
genera la probabilidad marginal asociada al
valor de la variable Y de esa columna.
𝑃 𝑌 = 𝑦.𝑗 = σ𝑛𝑖=1 𝑝(𝑥𝑖 , 𝑦𝑗 )
Distribuciones marginales del ejemplo
anterior
X\ Y 2 3 4 5 6 7 8 9 10 11 12 PX(x)

1 1/36 0 0 0 0 0 0 0 0 0 0 1/36
2 0 2/36 1/36 0 0 0 0 0 0 0 0 3/36

3 0 0 2/36 2/36 1/36 0 0 0 0 0 0 5/36

4 0 0 0 2/36 2/36 2/36 1/36 0 0 0 0 7/36

5 0 0 0 0 2/36 2/36 2/36 2/36 1/36 0 0 9/36

6 0 0 0 0 0 2/36 2/36 2/36 2/36 2/36 1/36 11/36


Py(y) 1/36 2/36 3/36 4/34 5/36 6/36 5/36 4/36 3/36 2/36 1/36 1
Las dos distribuciones marginales
Y PY(y)
X 𝑃𝑋 (𝑥) 2 1/36
1 1/36 3 2/36
2 3/36 4 3/36
3 5/36 5 4/36
6 5/36
4 7/36
7 6/36
5 9/36
8 5/36
6 11/36 9 4/36
1 10 3/36
11 2/36
12 1/36
1

Estas son distribuciones unidimensionales. Por lo cual se puede, calcular


la esperanza, la varianza, la desviación estándar, el coeficiente de
variabilidad, etc..
Distribuciones Condicionales
Si se elige una fila ( donde x=6) de la distribución bidimensional, con el correspondiente
recorrido de la variable (Y) permite originar una distribución de probabilidad condicional
unidimensional . Ejemplo.

Y 2 3 4 5 6 7 8 9 10 11 12
0 0 0 0 0 2/36 2/36 2/36 2/36 2/36 1/36 : 11/36
𝑃(𝑌Τ𝑥=6) 0 0 0 0 0 2/11 2/11 2/11 2/11 2/11 1/11 : 1,0

Si se elige una columna de la distribución bidimensional, con el correspondiente recorrido


de la variable (X) permite originar una distribución de probabilidad unidimensional.
Ejemplo
X P(X/y=6)
1 0 0
2 0 0
3 1/36 0,2
4 2/36 0,4
5 2/36 0,4
6 0 0
5/36 1,0
Variable aleatoria continua bidimensional y su
función de densidad de probabilidad conjunta.
( Vector aleatorio)
Definición:
Se dice que dos variables aleatorias X e Y
tienen una distribución continua conjunta, si existe
una función no negativa f definida sobre todo el plano
x,y tal que para cualquier subconjunto A del plano,

𝑃 𝑋, 𝑌 ∈ 𝐴 =‫𝑥 𝑓 ׭‬, 𝑦 𝑑𝑥𝑑𝑦


A
La función f se denomina función de densidad de
probabilidad conjunta de X e Y. Tal que satisface las
siguientes condiciones:
𝑓 𝑥, 𝑦 ≥ 0 𝑝𝑎𝑟𝑎 − ∞ < 𝑥 < ∞,
−∞ < 𝑦 < ∞

∞ ∞
‫׬‬−∞ ‫׬‬−∞ 𝑓 𝑥, 𝑦 𝑑𝑥dy = 1.

Funciones de densidad marginales de X y Y


Se define g y h las funciones de densidad de
probabilidades marginales de X e Y respectivamente,
como sigue:
∞ ∞
𝑔 𝑥 = ‫׬‬−∞ 𝑓 𝑥, 𝑦 𝑑𝑦; ℎ 𝑦 = ‫׬‬−∞ 𝑓 𝑥, 𝑦 𝑑𝑥
Distribuciones Condicionales.
Sea f(x,y) la función de densidad conjunta para las
variables X e Y y sean las distribuciones marginales
g(x) y h(y) de las respectivas variables aleatorias antes
señaladas. Las distribuciones condicionales de:

𝑓(𝑥,𝑦)
𝑓(𝑥Τ𝑦) = cuando ℎ 𝑦 > 0
ℎ(𝑦)
y de:
𝑦Τ 𝑓(𝑥,𝑦)
𝑓( 𝑥) = cuando g(x) > 0
𝑔(𝑥)
Ejercicio N°3.
El tiempo total (en horas) que permanece un cliente en un
determinado restaurante se divide en: Y1 = tiempo de espera
hasta que se sirve el primer plato; Y2 = tiempo desde ese
momento hasta que el cliente sale del restaurante (es decir,
tiempo de comer y pagar). Las variables aleatorias Y1 e Y2
tienen distribución conjunta dada por:
𝑒 −(𝑦1+𝑦2) 0 ≤ 𝑌1 ,𝑌2 ≤ ∞
f (y1, y2) =
0, en todo otro lugar.
Calcular:
a) La probabilidad de que el cliente pase más de una hora en el
restaurante;
b) Las distribuciones marginales de Y1 e Y2.
c) La probabilidad de que un cliente tarde en ser servido más de
una hora
SOLUCIÓN:
a) Pr(𝑦1 + 𝑦2 > 1) = 2/e;
b) 𝑓𝑌1 (𝑦1 ) = 𝑒 −𝑦1 𝑦1 ≥ 0
𝑓𝑌2 (𝑦2 ) = 𝑒 −𝑦2 𝑦2 ≥ 0
c) Pr(𝑦1 > 1) = 1/e
Desarrollo items a)
𝑦2

0
1 𝑦1

𝑃(𝑦1 + 𝑦2 > 1)= 1 − 𝑃(𝑦2 ≤ 1 − 𝑦1 ) =

𝑃(𝑦2 ≤ 1 − 𝑦1 ) =

1 1−𝑦1 −(𝑦 +𝑦 )
‫׬‬0 ‫׬‬0 𝑒 1 2 𝑑𝑦2 𝑑𝑦1 = 1 − 2𝑒 −1

2
1 − 𝑃(𝑦2 ≤ 1 − 𝑦1 ) = 1- (1 − 2𝑒 −1 ) = 𝑒
Ejercicio N° 4.- Una fábrica obtiene la mayor parte de sus
ganancias totales vendiendo dos artículos A y B. Por razones
de almacenamiento, las ganancias por venta del artículo A
nunca pueden superar a las del artículo B. Responde a las
preguntas, si las ganancias (X,Y), donde X son las obtenidas
por ventas del artículo A e Y las del artículo B, tienen la
siguiente función de densidad conjunta:
1
𝑠𝑖 0 ≤ 𝑥 ≤ 10000 0 ≤ 𝑦 ≤ 10000 𝑥 ≤ 𝑦
𝑘

𝑓𝑋,𝑌 (𝑥, 𝑦)=


0 𝑒𝑛 𝑡. 𝑜. 𝑙.

a) Calcular el valor de k
b) Calcular que las ganancias totales sean mayores a 10000
Solución:
10000 10000 1
a) ‫׬‬0 ‫׬‬0 𝑘
𝑑𝑥𝑑𝑦 = 1

1
𝑘= se reemplaza en la función de densidad.
100002

b) 𝑃 𝑋 + 𝑌 > 10000 = 𝑃 𝑌 > 10000 − 𝑋 =


Gráfico.
Y
10000 𝑦≥𝑥

𝑦 > 10000 − 𝑥

5000 10000 X
El área con las cuadrículas es posible subdividirla en
dos áreas iguales, permitiendo medirla de la siguiente
manera:

5000 10000 1 10000 10000 1


‫׬‬0 ‫׬‬10000−𝑥 100002 𝑑𝑦𝑑𝑥 + ‫׬‬5000 ‫𝑥׬‬ 100002
𝑑𝑦𝑑𝑥

= 0,5.-
Ejercicio N°5: Sean X e Y una variable aleatoria bidimensional o
un vector aleatorio de dimensión 2, que se representa por el
siguiente modelo de f.d.p.

𝑐 6−𝑥−𝑦 0 < 𝑥 < 2, 2 < 𝑦 < 4


𝑓 𝑥, 𝑦 =
0 en t. o .l

a) Calcule c para que la función quede definida.


b) Calcule :
𝑃(𝑋 < 1, 𝑌 < 3)
𝑥<1 𝑃(𝑥<1;𝑦<3)
c) Calcular 𝑃( ൗ𝑦<3)= 𝑃(𝑦<3)
Ejercicio N° 6
Una máquina para refrescos se llena al principio de un
día dado con una cantidad aleatoria 𝑌2 y despacha
durante el día una cantidad aleatoria 𝑌1 ( medida en
galones) No se vuelve a surtir durante el día y enton-
ces 𝑌1 ≤ 𝑌2 . Se ha observado que 𝑌1 y 𝑌2 tienen una
función de densidad conjunta:
1
0 ≤ 𝑦1 ≤ 𝑦2
2
𝑓(𝑦1, 𝑦2 )= 0 ≤ 𝑦2 ≤ 2
0 en t. o. l.

a) Obtenga la función de densidad marginal de 𝑌2 .


𝑦2 1 1
𝑔(𝑦2 ) = ‫׬‬0 2 𝑑𝑦1 = 𝑦2
2

1
𝑦2 0 ≤ 𝑦2 ≤ 2
2
𝑔(𝑦2 )=
0 en t. o. l

b) Obtener la función de densidad condicional de


ℎ(𝑦1 /𝑦2 ).
𝑓(𝑦1 ,𝑦2 ) 1Τ 1
2
= ℎ(𝑦1 /𝑦2 ) = 1Τ =
𝑔(𝑦2 ) 2𝑦2 𝑦2
1
0 < 𝑦1 ≤ 𝑦2 ≤ 2
𝑦2
ℎ(𝑦1 /𝑦2 ) =
0 en t. o. l.

c) Calcular la probabilidad la probabilidad de que se


venda menos de medio galón, dado que la máqui-
na contiene 2 galón al inicio del día.
1Τ 1 1
1Τ /𝑌 =2) 2
𝑃(𝑌1 ≤ 2 2 = ‫׬‬0 𝑑𝑦1 =
2 4
Se remplaza 𝑦2 por 2 en la función de d. condicional
Función de distribución acumulativa para variable
aleatoria bidimensional o función de distribución
conjunta (bivariable)
1.- Sea (X,Y) una variable aleatoria bidimensional
discreta, con función de probabilidad conjunta p(x,y).
La función de distribución acumulativa de
probabilidad de dicha variable está dada por:
σ𝑥 σ𝑦
F(x,y) = 𝑃 𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦 = −∞ −∞ 𝑝(𝑥𝑖 , 𝑦𝑗 )
Del ejemplo N° 2 determinar la función de distribución acumulativa de probabilidad
X\Y 0 1 2
0 1/9 1/9 1/9
1 2/9 2/9 0
2 1/9 0 0
Se pueden ir acumulando las probabilidades
considerando las filas o las columnas. Así:
0 x<0 y<0
1/9 0≤𝑥<1 0≤𝑦<1
2/9 0≤𝑥<1 1≤𝑦<2
3/9 0≤𝑥<1 𝑦≥2
F(x,y)= 3/9 1≤𝑥<2 0≤𝑦<1
6/9 1≤𝑥<2 1≤𝑦<2
7/9 1≤𝑥<2 𝑦≥2
4/9 𝑥≥2 0≤𝑦<1
7/9 𝑥≥2 1≤𝑦<2
1 𝑥≥2 𝑦≥2
2.- Sean 𝑋 𝑦 𝑌 dos variables aleatorias continuas con
una función de distribución conjunta F(x,y). Si existe
una función no negativa f(x,y) tal que:
𝑥 𝑦
𝐹 𝑋 = 𝑥, 𝑌 = 𝑦 = ‫׬‬−∞ ‫׬‬−∞ 𝑓 𝑥, 𝑦 𝑑𝑦𝑑𝑥
para cualesquiera números reales (x,y), entonces se
dice que X y Y son variables aleatorias conjuntas
continuas. A la función 𝑓 𝑥, 𝑦 se le conoce como
función de densidad de probabilidad conjunta.
Ejercicio N°6:
Sea la función de densidad de probabilidad conjunta
1
𝑓 𝑥, 𝑦 = (6-x-y) 0<x<2, 2<y<4
8
0 en todo otro lugar
La función de distribución acumulativa es:
0 𝑥 ≤ 0 ,𝑦 ≤ 2
1
x(y-2)(10-x-y) 0 < 𝑥 < 2, 2 < 𝑦 < 4
8
1
F(x,y) = x(6-x) 0 < 𝑥 < 2, 𝑦 ≥ 4
8
1
(y-2)(8-y) 𝑥 ≥ 2, 2 < 𝑦 < 4
8
1 𝑥 ≥ 2, 𝑦 ≥ 4

0 2
Independencia entre las variables aleatorias
Análogo al caso de sucesos independientes:
𝑃 𝐴 ∩ 𝐵 = 𝑃 𝐴 ∗ 𝑃(𝐵)
Caso en que las variables aleatorias son discretas. Entonces
para que dichas variables sean independientes se tiene que
cumplir:
𝑃 𝑋 = 𝑥; 𝑌 = 𝑦 = 𝑃𝑋 𝑥 ∗ 𝑃𝑌 𝑦
La probabilidad conjunta es igual al producto de las
probabilidades marginales.
Ejercicio N° 7 :
𝑃 𝑋 = 2; 𝑌 = 3 = 𝑃 𝑋 = 2 ∗ 𝑃(𝑌 = 3)
2/36 3/36 * 2/36
1/18 ≠ 1/6 No hay indepen.
Nota: Si todas las probabilidades conjuntas
fueran igual a los respectivos productos entre
las probabilidades marginales de X e Y,
entonces dichas variables son independientes.
Cuando dos variables aleatorias continuas son
independientes, X no está asociada con Y y viceversa,
entonces:
𝑓 𝑥, 𝑦 = 𝑔 𝑥 ∗ ℎ(𝑦)
La función de densidad conjunta de x, y es igual al
producto de las distribuciones marginales de las
respectivas variables aleatorias (continuas).
Con el ejemplo N° 3 anteriormente planteado,
averigüe, si las variables aleatorias X e Y son
independientes.
La generalización de esta idea al caso de un vector
aleatorio con más de dos variables aleatorias. En
general, cualquier función f puede considerarse como
una función de densidad de k variables aleatorias,
siempre que:

i) 𝑓 𝑥1 , 𝑥2 , … … … 𝑥𝑘 ≥ 0
∞ ∞ ∞ ∞
ii) ‫׬‬−∞ ‫׬‬−∞ ‫׬‬−∞ … … … ‫׬‬−∞ 𝑓( 𝑥1 , 𝑥2 , … … … 𝑥𝑘 )
𝑑𝑥1 𝑑𝑥2 … … … . 𝑑𝑥𝑘 =1
La función de distribución acumulativa de
probabilidad para la variable aleatoria bidimensional
se define:
𝑥 𝑦
𝐹 𝑥, 𝑦 = 𝑃 𝑋 ≤ 𝑥; 𝑌 ≤ 𝑦 = ‫׬‬−∞ ‫׬‬−∞ 𝑓 𝑥, 𝑦 𝑑𝑦𝑑𝑥
Generalización:
𝑷 𝑿𝟏 ≤ 𝒙𝟏 𝑿𝟐 ≤ 𝒙𝟐 … . . 𝑿𝒌 ≤ 𝒙𝒌 =
𝒙𝟏 𝒙𝟐 𝒙𝒌
𝑭(𝒙𝟏 𝒙𝟐 … … . 𝒙𝒌 )=‫׬‬−∞ ‫׬‬−∞ … … ‫׬‬−∞ 𝒇(𝒕𝟏 𝒕𝟐 … 𝒕𝒌 )d𝒕𝟏 𝒅𝒕𝟐 ………..𝒅𝒕𝒌
Valores esperados
Con las distribuciones marginales se pueden obtener
las esperanzas de cada una de las variables aleatoria y
sus respectivas varianzas, ya que las distribuciones
marginales en esta caso, son distribuciones asociadas
a una variable aleatoria.
Caso en que las variables aleatorias son discretas:
σ𝑅𝑋 𝑥𝑝𝑋 𝑥 = 𝐸(𝑥) σ𝑅𝑌 𝑦𝑝𝑌 𝑦 = 𝐸(𝑦)
Caso en que las variables aleatorias son continuas:
∞ ∞
‫׬‬−∞ 𝑥𝑓𝑋 (𝑥)𝑑𝑥 =𝐸 𝑥 ‫׬‬−∞ 𝑦𝑓𝑌 (𝑦)𝑑𝑥 =𝐸 𝑦
𝑉 𝑥 = 𝐸(𝑥 )-𝐸(𝑥)2 Igual al caso unidimensional.
2
Como las distribuciones condicionales, conducen a
distribuciones unidimensionales, es posible determinar
sus esperanzas, varianzas, desviaciones estándar,
coeficiente de variabilidad y otros indicadores. Cuyas
notaciones de las dos primeras son:
𝑦 𝑦
𝐸 ൗ𝑋 = 𝑥 = ෍ 𝑦 ∗ 𝑃( ൗ𝑋 = 𝑥 )
𝑅𝑦

𝐸 𝑥ൗ𝑌 = 𝑦 = ෍ 𝑥 ∗ 𝑃( 𝑥ൗ𝑌 = 𝑦)
𝑅𝑥

𝑦 𝑦 2ൗ 𝑦 2
𝑉 Τ𝑋=𝑥 = 𝐸 𝑋=𝑥 − 𝐸 Τ𝑋=𝑥
𝑥 𝑥 2ൗ 𝑥 2
𝑉 Τ𝑌=𝑦 = 𝐸 𝑌=𝑦 − 𝐸 Τ𝑌=𝑦
Ejercicio N°7:
Y 2 3 4 5 6 7 8 9 10 11 12
𝑃(𝑌Τ𝑥=6) 0 0 0 0 0 2/11 2/11 2/11 2/11 2/11 1/11 : 1,0

𝑦 14+16+18+20+22+12
𝐸( Τ𝑋=6 ) = = 9,2727
11

𝑦 2ൗ 72 ∗2+82 ∗2+92 ∗2+102 ∗2+112 ∗2+122


𝐸 𝑋=6 =
11
974
= = 88,5454
11
𝑦 2
𝑉 Τ𝑋=6 = 88,5454 − 9,2727 = 2,5625

𝑉 𝑦ൗ𝑋=6
𝑉 𝑦Τ𝑋=6 = 1,6 𝐶𝑉 = 𝑦 = 0,1726
𝐸( ൗ𝑋=6 )
Valor esperado de una función de variables aleatorias
Sea g(𝑋1 , 𝑋2 , … … . . 𝑋𝑘 ) una función de las variables aleatorias
discretas 𝑋1 , 𝑋2 , … … . . 𝑋𝑘 , que tienen una función de probabilidad
conjunta p(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 ) entonces:
𝐸[g(𝑋1 , 𝑋2 , … … . . 𝑋𝑘 )]=
σ𝑥𝑘 σ𝑥𝑘−1 … σ𝑥1 g(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 )p(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 )
Si 𝑋1 , 𝑋2 , … … . . 𝑋𝑘 son variables aleatorias continuas
con función de densidad conjunta f(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 ),
entonces:
𝐸[g(𝑋1 , 𝑋2 , … … . . 𝑋𝑘 )]=
∞ ∞ ∞
‫׬‬−∞ … . . ‫׬‬−∞ ‫׬‬−∞ g(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 ) f(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 )
𝑑𝑥1 𝑑𝑥2 …….𝑑𝑥𝑘
Ejercicio N°8. 𝑋1 𝑦 𝑋2 tienen la siguiente función de
densidad de probabilidad conjunta
2 𝑥1 0 ≤ 𝑥1 ≤ 1 ; 0 ≤ 𝑥2 ≤ 1
𝑓(𝑥1 , 𝑥2 )=
0 en cualquier otro lugar
1 1 1
𝐸(𝑋1 𝑋2 )= ‫׬‬0 ‫׬‬0 𝑥1 𝑥2 (2 𝑥1 )𝑑𝑥1 𝑑𝑥2 =
3
Sean 𝑋1 𝑦 𝑋2 variables aleatorias independientes con
función de densidad conjunta 𝑓(𝑥1 , 𝑥2 ). Sean 𝑔(𝑥1 ) y
ℎ(𝑥2 ) funciones de dichas variables aleatorias. Entonces
𝐸[𝑔(𝑥1 ) ℎ(𝑥2 ) ]=𝐸[𝑔(𝑥1 )] 𝐸[ℎ(𝑥2 )]
Siempre y cuando los valores esperados existan.
Covarianza: Mide la variabilidad conjunta de (𝑋1 , 𝑋2 )
Cov(𝑋1 , 𝑋2 ) = 𝐸[(𝑋1 -𝐸(𝑋1 ))((𝑋2 -𝐸(𝑋2 ))]
= 𝐸(𝑋1 𝑋2 )-𝐸(𝑋1 ) 𝐸(𝑋2 )
Puede tomar valores positivos o negativos, depende del
tipo de relación lineal que haya entre las variables 𝑋1 𝑦 𝑋2
directa o inversa, será cero cuando no haya relación
lineal entre las variables 𝑋1 𝑦 𝑋2 .
Coeficiente de correlación de Pearson: Mide el grado
de asociación entre 𝑋1 ; 𝑋2 , en término lineal.
𝐶𝑜𝑣(𝑋1 ,𝑋2 ) 𝐸(𝑋1 𝑋2 )−𝐸(𝑋1 ) 𝐸(𝑋2 )
𝜌𝑥1𝑥2 = = −1 ≤ 𝜌𝑥1𝑥2 ≤ 1
𝜎𝑋1 𝜎𝑋2
𝑉 𝑋1 𝑉(𝑋2 )

Valores esperados condicionales.


- Cuando las variables aleatorias son discretas
𝑥1
σ
𝐸(𝑋1 /𝑋2 = 𝑥2 )= 𝑅𝑥 𝑥1 𝑝( Τ𝑥2)
1
- Cuando las variables aleatorias son continuas
∞ 𝑥1
𝐸(𝑋1 /𝑋2 = 𝑥2 )=‫׬‬−∞ 𝑥1 𝑓( Τ𝑥2)𝑑𝑥1
Ejercicio N° 9
Cálculo del coeficiente de correlación del ejercicio antes visto
Distribuciones marginales:
𝑔(𝑥1 )= 2𝑥1 0 ≤ 𝑥1 ≤ 1 𝐸(𝑥1 )= 2Τ3
0 en t. o. l. 𝑉(𝑥1 )= 1Τ18

ℎ(𝑥2 )= 1 0 ≤ 𝑥2 ≤ 1 𝐸(𝑥2 )=1Τ2


0 en t. o. l. V(𝑥2 )= 1Τ12

1 2 1
− ∗( ) 0
3 3 2
𝜌𝑥1𝑥2 = = =0
0,23570226∗0,18867513 0,068

No hay asociación lineal entre las variables.


Caso 1
Sean las variables aleatorias (𝑋1 ; 𝑋2 … … … … 𝑋𝑛 )
supongan son independiente entre sí y que siguen
una distribución exponencial cada una de ellas con
parámetro 𝛽
Sea Y = σ𝑛𝑖=1 𝑋𝑖 una combinación lineal.
La esperanza de Y es: 𝐸 𝑌 =
σ𝑛𝑖=1 𝐸 𝑋𝑖 = 𝛽 + 𝛽 … … … + 𝛽 = 𝑛𝛽
𝑉 𝑌 = σ𝑛𝑖=1 𝑉(𝑋𝑖 ) =𝛽 2 + 𝛽 2 … … . +𝛽 2 =n𝛽 2
Luego, la variable aleatoria Y se distribuirá como una
gamma con parámetros 𝛼 = 𝑛 𝑦 𝛽 = 𝛽
Ello se puede comprobar utilizando la propiedad
reproductiva de la función generatriz de momento y
que consiste en:
Si 𝑋1 𝑋2 𝑋3 … … 𝑋𝑛 son variables aleatorias
independientes entre sí. Sea 𝑌 = σ𝑛𝑖=1 𝑋𝑖 ( una
combinación lineal. Sean 𝑀𝑥1 (t), 𝑀𝑥2 (t), …… 𝑀𝑥𝑛 (t)
las respectivas funciones generatrices de las variables
antes indicadas.
La función generatriz de momento de Y es:
𝑀𝑌 (t) = ς𝑛𝑖=1 𝑀𝑥𝑖 (𝑡)
De ella se podría deducir los posibles parámetros de
la distribución de probabilidad de Y.
Considerando el Caso 1.
Se sabe que cada una de las variables aleatorias se
distribuyen exponencialmente con parámetro β y que
cada una de ellas tiene una función generatriz de
1
momento igual a 𝑀𝑥 (t) =
1−𝛽𝑡
Luego, la función generatriz de momento de Y es:
1 1 1 1 1
𝑀𝑌 (t) = ∗ * ***** =
1−𝛽𝑡 1−𝛽𝑡 1−𝛽𝑡 1−𝛽𝑡 (1−𝛽𝑡)𝑛

Por lo tanto, la variable aleatoria Y de distribuye


como una Gamma con parámetro α= n y β
Caso 2.-
Sea (𝑋1 ; 𝑋2 … … … … 𝑋𝑛 ) variables aleatorias
independiente entre sí y que cada una sigue una
distribución normal con media 𝜇 𝑦 𝜎 2 .
Sea U = σ𝑛𝑖=1 𝑎𝑖 𝑋𝑖 una combinación lineal siendo 𝑎𝑖
constante. Entonces
𝐸 𝑈 = 𝐸(𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ … … + 𝑎𝑛 𝑋𝑛 ) =
𝐸 𝑎1 𝑋1 + 𝐸(𝑎2 𝑋2 )+……….+𝐸(𝑎𝑛 𝑋𝑛 )=
σ𝑛𝑖=1 𝑎𝑖 𝐸(𝑋𝑖 ) = σ𝑛𝑖=1 𝑎𝑖 𝜇
V(U)= V(𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ … … + 𝑎𝑛 𝑋𝑛 ) =
V 𝑎1 𝑋1 + 𝑉(𝑎2 𝑋2 )+……….+V(𝑎𝑛 𝑋𝑛 )=
σ𝑛𝑖=1 𝑎𝑖 2 𝑉(𝑋𝑖 ) = σ𝑛𝑖=1 𝑎𝑖 2 𝜎 2
Luego, en este caso la variable aleatoria U se
𝑛
σ
distribuye como una normal con media: 𝑖=1 𝑎𝑖 𝜇 y
varianza: σ𝑛𝑖=1 𝑎𝑖 2 𝜎 2

Caso 3.
Sean las variables aleatorias (𝑋1 ; 𝑋2 … … … … 𝑋𝑛 ) que
𝑛
σ
no son independiente entre sí y sea U = 𝑖=1 𝑎𝑖 𝑋𝑖 una
combinación lineal de ellas, entonces:

𝑛
V(U)= 𝑖=1 𝑎𝑖 2 𝑉 𝑋𝑖 + 2 σ σ𝑖<𝑗 𝑎𝑖 𝑎𝑗 𝐶𝑜𝑣(𝑋𝑖 𝑋𝑗 )
σ
𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜𝑠 𝑙𝑜𝑠 𝑝𝑎𝑟𝑒𝑠 𝑖, 𝑗 𝑐𝑜𝑛 𝑖 < 𝑗
Caso: Teorema de Chebyshev.
Si Y es una variable aleatoria con media finita 𝜇 y
varianza 𝜎 2 , entonces para cualquier constante
positiva k>0 ,
1
𝑃( 𝑌 − 𝜇 <k 𝜎) ≥ 1 −
𝑘2
Ejercicio N° 11.
La cantidad de clientes que llegan cada día a un
quiosco, y que se observa por un periodo prolongado,
tiene una media de 20 clientes y una desviación
estándar de 2. Se desconoce la distribución de
probabilidad.
¿ Cuál sería la probabilidad mínima de que mañana
lleguen entre 16 y 24 cliente al quisco?
𝑃 16 ≤ 𝑌 ≤ 24 = 𝑃 16 − 20 ≤ 𝑌 ≤ 24 − 20 =
1
𝑃( 𝑌 − 20 ≤ 4)≥ 1 − 2
𝑘
𝜇 = 20 𝑦 𝜎 = 2, como se sabe que kσ = 4,
entonces k=2
Al reemplazar, se tiene:
1 3
𝑃 16 ≤ 𝑌 ≤ 24 ≥ 1 − ≥
4 4
Habría una probabilidad de al menos de un 75% de
que lleguen mañana entre 16 y 24 clientes al quiosco.
Ley de los grandes números
Sea 𝑥1 𝑥2 𝑥3 … … … 𝑥𝑛 una muestra aleatoria de la
variable aleatoria X, en que se sabe que estas son
independientes entre sí y que cada una de ellas se
distribuye de la misma forma como la población.
σ𝑛
𝑖=1 𝑥𝑖
La media de la poblacional es 𝜇 𝑦 = 𝑥ҧ media
𝑛
muestral, generada con la muestra aleatoria.
σ𝑛
𝑖=1 𝑥𝑖
Entonces lim =𝜇 La varianza de la media
𝑛→∞ 𝑛
𝜎2
muestral es V(𝑥ҧ𝑛 )=
𝑛
1 𝜎
𝑃 𝑥ҧ𝑛 − 𝜇 <∈ = 1 − 2 si ∈=k
∈ 𝑛

Вам также может понравиться