Академический Документы
Профессиональный Документы
Культура Документы
Curso 2017-2018
Definición Dist. y fdp Conjunta Clasificación Dist. Condicionales Funciones de dos V.A. Momentos de dos V.A
Contenido
4 Distribuciones Condicionales
Contenido
4 Distribuciones Condicionales
{X ≤ x, Y ≤ y} = {X ≤ x} ∩ {Y ≤ y}
Contenido
4 Distribuciones Condicionales
Propiedades
1 fXY (x, y) ≥ 0
Rx Ry
2 FXY (x, y) = α=−∞ β=−∞ fXY (α, β)dαdβ
R∞ R∞
3
x=−∞ y=−∞ XY
f (x, y)dxdy = 1
RR
4 P ((X, Y ) ∈ D) = f (x, y)dxdy
D XY
5 Concepto de densidad:
Funciones Marginales
Funciones Marginales
Marginal de X:
Marginal de Y :
Contenido
4 Distribuciones Condicionales
P
P ((X, Y ) ∈ D) = (xi ,yk )∈D pik
P P
Marginales: P (X = xi ) = k pik P (Y = yk ) = i pik
Ejemplos: Lanzamiento de dos monedas independientes
1 X cara o cruz, Y cara o cruz.
Marginales:
X
P (X = xi ) = P (X = xi , Y ≤ ∞) FY (y) = P (X = xi , Y ≤ y)
xi ∈ΩX
Obtención de K:
Z Z
1
Kdxdy = KArea(ΩXY ) = 1 ⇒ K=
ΩXY Area(ΩXY )
Contenido
4 Distribuciones Condicionales
Distribuciones Condicionales
Marginales:
Distribuciones Condicionales
Principales Teoremas
Teorema de la Multiplicación
Teorema de Bayes
fX (x|y)fY (y) fY (y|x)fX (x)
fY (y|x) = fX (x|y) =
fX (x) fY (y)
En el caso discreto:
P (X = xi , Y = yk ) = P (X = xi )P (Y = yk ) ∀xi ∈ ΩX , yk ∈ ΩY
Ejemplos
1 (X, Y ) v.a uniforme en el rectángulo x1 < X < x2 , y1 < Y < y2 :
1
(x2 −x1 )(y2 −y1 )
(x, y) ∈ ΩXY
fXY (x, y) =
0 resto
1 1
x2 −x1
x1 < x < x 2 y2 −y1
y1 < y < y 2
fX (x) = fY (y) =
0 resto 0 resto
fXY (x, y) = fX (x)fY (y) ⇔ (X, Y ) son independientes
2 (X, Y ) v.a. uniforme en el cı́rculo unidad (R = X 2 + Y 2 ≤ 1):
1
x2 + y 2 ≤ 1
fXY (x, y) = π
0 resto
2
√ 2p
π
1 − x2 −1 ≤ x ≤ 1 1 − y2 −1 ≤ y ≤ 1
fX (x) = fY (y) = π
0 resto 0 resto
fXY (x, y) 6= fX (x)fY (y) ⇔ (X, Y ) no son independientes
( √ √
fXY (x, y) √1 − 1 − x2 ≤ y ≤ 1 − x2
fY (y|x) = = 2 1−x2
fX (x) 0 resto
fdp condicionada uniforme fY (y|x) 6= fY (y)
Contenido
4 Distribuciones Condicionales
Proceso:
Búsqueda de BXY para cada z
Obtención de P (Z ≤ z) = P ((X, Y ) ∈ BXY )
Ejemplos: Amplificador de entrada a un receptor, modulador, avión
bimotor, salto de longitud (3 v.a.), . . .
BXY = (x, y) ∈ R2 |x + y ≤ z
Z ∞ Z z−x
v.a. indep
FZ (z) = fXY (x, y)dxdy =
x=−∞ y=−∞
Z ∞ Z z−x Z ∞
= fX (x)fY (y)dxdy = fX (x)FY (z − x)dx
x=−∞ y=−∞ x=−∞
Derivando respecto a z:
Z ∞
fZ (z) = fX (x)fY (z − x)dx ⇔ fZ (z) = fX (z) ∗ fY (z)
x=−∞
Teorema de la Convolución
Teorema: Sean X e Y v.a. independientes y Z = X + Y
Z: R2 −→ R W: R2 −→ R
(X, Y ) −→ Z = g (X, Y ) (X, Y ) −→ W = h (X, Y )
(Z, W ) es una v.a. bidimensional
Objetivo: Caracterizar Z y W de manera conjunta a partir del
conocimiento de g(·), h(·) y suponiendo caracterizada la v.a. (X, Y )
FZW (z, w) = P (Z ≤ z, W ≤ w) = P ((X, Y ) ∈ BXY )
BXY = (x, y) ∈ R2 |g(x, y) ≤ z, h(x, y) ≤ w
Teorema Fundamental
Teorema: Sean X, Y v.a. continuas y g(x, y), h(x, y) funciones no
constantes en ningún intervalo de ΩXY . Entonces la fdp conjunta de
las variables aleatorias Z = g(X, Y ), W = h(X, Y ) viene dada por
n
X fXY (xi , yi )
fZW (z, w) =
i=1
|J(xi , yi )|
J(x, y) es el Jacobiano
δz δz δx δx
1
δx δy δz δw
J(x, y) = δw = J(z, w) =
δw δy δy
δx δy J(z, w) δz δw
Teorema Fundamental
Ejemplo: R, Θ v.a. independientes
r − r22
fR (r) = e 2σ r≥0 (Rayleigh) fΘ (θ) ∼ Uniforme en (−π, π)
σ2
2
r − r r≥0
fRΘ (r, θ) = fR (r)fΘ (θ) = e 2σ2
2πσ 2 −π < θ < π
Raı́ces:
p
x = r cos θ sol. única r1 = x2 + y 2
=⇒
y = r sin θ θ1 = arctan(y/x)
Teorema Fundamental
Ejemplo (Continuación): R, Θ v.a. independientes
r − r22
fR (r) = e 2σ r≥0 (Rayleigh) fΘ (θ) ∼ Uniforme en (−π, π)
σ2
2
r − r2 r≥0
fRΘ (r, θ) = fR (r)fΘ (θ) = e 2σ
2πσ 2 −π < θ < π
Marginales: N (0, σ)
2 2
1 − x2 1 − y2
fX (x) = √ e 2σ fY (y) = √ e 2σ
2πσ 2πσ
fXY (x, y) = fX (x)fY (y) ⇔ X, Y independientes
Ejemplo
X, Y v.a. independientes. Z = X + Y
1 Definimos W = Y
2 fXY (x, y) = fX (x)fY (y)
δz δz
δx δy
1 1 z =x+y x1 = z − w
J = δw δw = =1 ⇒
0 1 w=y y1 = w
δx δy
fXY (x1 , y1 )
fZW (z, w) = = fXY (z − w, w) = fX (z − w)fY (w)
|J(x1 , y1 )|
R∞ R∞
3 fZ (z) = −∞ fZW (z, w)dw = −∞ fX (z − w)fY (w)dw = fX (z) ∗ fY (z)
Contenido
4 Distribuciones Condicionales
Media y Varianza
En el caso discreto:
XX
E [g(X, Y )] = g(xi , yk )P (X = xi , Y = yk )
i k
Media condicionada:
Z ∞ Z ∞
E[g(X, Y )|M ] = g(x, y)fXY (x, y|M )dxdy
−∞ −∞
Teorema
⇒
X, Y v.a. independientes E[XY ] = E[X]E[Y ]
:
Media y Varianza
Teorema
X, Y v.a. independientes ⇒ Var[X + Y ] = Var[X] + Var[Y ]
Resumen
Dadas X1 , . . . , XN v.a. independientes:
N
X N
X N
X
Y =b+ ak Xk E[Y ] = b + ak E[Xk ] Var[Y ] = a2k Var[Xk ]
k=1 k=1 k=1
Además:
Si X1 , . . . , XN son v.a. Gaussianas, Y es Gaussiana.
Si N → ∞ entonces Y es Gaussiana independientemente de las
distribuciones de X1 , . . . , XN (Teorema del Lı́mite Central)
Casos Particulares
Medias: m10 = E[X] = ηX , m01 = E[Y ] = ηY
Varianzas: µ20 = E[(X − ηX )2 ] = σX
2
, µ02 = E[(Y − ηY )2 ] = σY2
Covarianza:
Coeficiente de Correlación:
Cov(X, Y ) Cov(X, Y )
rXY = = p 2 2 − 1 ≤ rXY ≤ 1
σX σY σX σY
Relaciones Estadı́sticas
Ortogonalidad: E[XY ] = 0
Además. . .
⇒
X, Y v.a. independientes X, Y incorreladas
:
Y = aX + b