Вы находитесь на странице: 1из 24

Distribucin conjunta

106

 Se deben cumplir los mismos supuestos que para variables


unidimensionales:

 La interpretacin de la funcin de densidad conjunta es una


funcin bidimensional.
Distribucin conjunta(2)
107

 Ej: X: el nmero que sale al tirar un dado.


Y: la cantidad de caras que salen al tirar una moneda.
Distribucin conjunta(2)
108

 Ej 2: Caso continuo:
Distribucin Marginal
109

 Cada componente de una variable aleatoria bidimensional


es una variable aleatoria unidimensional en s misma.

 Nos puede interesar conocer la distribucin de una


componente por separado, sin tener en cuenta a la otra
componente.

 Eso se denomina "marginar", y la distribucin de la variable


unidimensional por separado se llama "distribucin
marginal".
Distribucin Marginal(2)
110

 (v.a. discretas) Sea la variable aleatoria bidimensional XY


distribuida segn PXY(x,y), la distribucin marginal de X es:

 Anlogamente, la distribucin marginal de Y es:


Distribucin Marginal(3)
111

 (v.a. continuas) Sea la variable aleatoria bidimensional XY


distribuida segn fXY(x,y), la distribucin marginal de X es:

 Anlogamente, la distribucin marginal de Y es:


Distribucin Marginal(4)
112

 Ej 1:
Distribucin Marginal(5)
113
Distribucin Marginal(5)
114

 Ej 2:
Distribucin Marginal(6)
115

 Ej 2: Distribucin marginal de X: se aplica la frmula al


nico intervalo relevante (0 < x < 4):
Distribucin Marginal(7)
116

 Ej 2: Distribucin marginal de Y: se aplica la frmula al


nico intervalo relevante (1 < y < 3):
Distribucin Marginal(8)
117

 Ej 3:
Distribucin Marginal(9)
118

 Ej 3: Distribucin marginal de X: se aplica la frmula al


nico intervalo relevante (0 <x< 2):

 Distribucin marginal de Y: se aplica la frmula al nico


intervalo relevante (0 < y < 2):
Covarianza
119

 Introducimos el concepto de probabilidad conjunta, cuando


dos v.a. pueden tomar simultneamente ciertos valores
concretos (caso discreto):

 La covarianza refleja la relacin lineal de 2 v.a. X e Y:

(X,Y) =E(XY)-E(X) E(Y)


Covarianza(2)
120

Donde:
caso v.a. discretas

caso v.a. continuas

 Correlacin de Pearson:
Distribuciones Condicionales.
121

 Supongamos que tenemos las v.a. peso y altura.

 Intuitivamente, si conocemos el valor que tom una de las


v.a. al hacer el experimento, eso nos modificar la
distribucin de probabilidad de la otra variable aleatoria.

 Conociendo funcin de densidad conjunta de las dos


variables aleatorias, podemos obtener la distribucin
marginal del peso. Pero si conociramos que la variable
altura tom el valor 1.90m, la distribucin marginal del
peso que tenamos sigue siendo vlida?
Distribuciones Condicionales(2).
122

 No, Seguramente, la masa de probabilidad del peso tender


a distribuirse ms hacia los valores ms altos:
Distribuciones Condicionales(3).
123

 Se define entonces la funcin de densidad condicional:

 Caso 2 v.a. discretas X e Y:

 Caso 2 v.a. continuas X e Y:


Independencia de v.a.
124

 Intuitivamente, X e Y son independientes si fX/Y(x,y) es


idntica para todos los posibles valores de y.

 Por ejemplo, que la distribucin del peso es idntica para


los distintos valores de altura (claramente no se cumple).

 Si fX/Y(x,y) no depende de y, entonces es en realidad fX(x), es


decir, la distribucin marginal de X.
Independencia de v.a.(2)
125

 Ej 1:
Independencia de v.a.(3)
126
Independencia de v.a.(4)
127

Ej 2:
Independencia de v.a.(5)
128
Esperanza Condicional
129

 Podemos obtener la esperanza de una distribucin


condicional de la misma manera que para el caso
unidimensional:

 Caso 2 v.a. discretas X e Y:

 Caso 2 v.a. continuas X e Y:

Вам также может понравиться