You are on page 1of 15

CSA.

Esperanzas y funcin caracterstica 1



Tema 4. Esperanzas y funcin caracterstica

1. ESPERANZA Y VARIANZA

A menudo es interesante resumir ciertas propiedades de una VA y de su distribucin de
probabilidad en unos cuantos nmeros. Estas cantidades deterministas no identificarn de forma
nica a la VA, pero nos darn una idea de sus principales caractersticas. En este tema se estudiarn
los principales parmetros de una VA; fundamentalmente ndices de localizacin y de dispersin.
Def: Llamaremos Esperanza (Media o Valor esperado) de una VA:
E(X) = = xf
X
(x)dx
!"
+"
#

En el caso discreto, esto se convierte en:
E(X) = = x
i
P(X = x
i
)
!i
"

Evidentemente, en un espacio equiprobable este es el concepto intuitivo y habitual de
promedio. La media es claramente un parmetro de localizacin, nos da una idea de dnde puede
estar situada la variable estudiada.
Interpretacin frecuencial
Supongamos que X es una VA discreta tomando valores {x
1
,x
2
,,x
k
,}. Repetimos el
experimento n veces (siendo n suficientemente grande) y observamos n
i
= {nmero de veces que
obtenemos el valor x
i
}; con lo que f
r
(x
i
) = n
i
/n. La esperanza de X sera:
E(X) ! x
i
f
r
(x
i
)
"i
#
=
n
1
x
1
++ n
k
x
k
+
n

La media puede entenderse desde el punto de vista frecuencial como el lmite del promedio de
muestras de la misma VA, cuando el nmero de muestras tiende a infinito.
Obs: La esperanza se define como una integral (o como una serie en el caso discreto). Esta
integral puede que no siempre exista. De hecho, algunas VA carecen de media.
Ejemplo: Sea X: Valor obtenido en el lanzamiento de un dado. X toma valores en {1,2,,6}
con probabilidad 1/6. Por tanto: E(X) = (1+2++6)/6 = 3.5.
Ejemplo: Sea X~U(a,b). Entonces:
E(X) =
x
b ! a
dx
a
b
"
=
1
b ! a
b
2
! a
2
2
=
b + a
2


Las principales propiedades de la esperanza son:
1) Si la fdp es simtrica respecto a un punto, ese punto ha de ser necesariamente la media. Es
decir, si f(a+x) = f(a-x) para todo x, entonces E(X) = a. En particular, si la fdp es par entonces la
media es cero. Por ejemplo, una uniforme es simtrica respecto al punto medio del intervalo donde
est definida, por lo que este punto es la media.
2 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo


2) La media de una VA no tiene porqu ser uno de los posibles valores de la variable. En el
ejemplo del lanzamiento de un dado, la media (3.5) no pertenece al rango de la VA.
3) Teorema fundamental para esperanzas
Bajo las mismas hiptesis del teorema fundamental. Si Y= g(X) entonces:
E(Y) = yf
Y
(y)dy
!"
+"
#
= g(x)f
X
(x)dx
!"
+"
#

El teorema tambin es cierto en el caso discreto:
E(Y) = y
j
P(Y = y
j
)
!j
"
= g(x
i
)P(X = x
i
)
!i
"

En el caso bidimensional, Z = g(X, Y) entonces:
E(Z) = zf
Z
(z)dz
!"
+"
#
= g(x, y)f
XY
(x, y)dx
!"
+"
#
!"
+"
#
dy

El teorema fundamental para esperanzas nos permite calcular la media de una transformacin
sin necesidad de calcular la fdp de la variable transformada.
4) La esperanza es un operador lineal, es decir:
(i) E(aX+b) = aE(X)+b
(ii) E(aX+bY) = aE(X)+bE(Y)

Ejemplo resuelto 4.1: Sea X una VA N(0, !). Hacemos la transformacin Y= X
2
. Determina E(Y)
E(Y)=E{g(X)}=
!
g(x)f(x)dx
"#
+#
$
=
1
% 2&
x
2
e
"
x
2
2%
2
dx =
"#
+#
$
1
2&
%
2
z
2
e
"z
2
/ 2
dz =
"#
+#
$



!
z = u "dz = du
ze
#z
2
/ 2
dz = dv "v = #e
#z
2
/ 2
z=x/! "dz = dx/! (tipificamos)

!
=
"
2
2#
$ze
$z
2
/ 2
]
$%
+%
=0
1 2 4 3 4
$ $e
$z
2
/ 2
dz
$%
+%
&

'
(
)
*
)
+
,
)
-
)
= "
2
1
2#
e
$z
2
/ 2
dz
$%
+%
&
= "
2
f(z)dz
$%
+%
&
= "
2

Por tanto E(Y) =E(X
2
) = !
2


Otros ndices de localizacin son la moda: el valor en el que se alcanza el mximo de la fdp o;
lo que es lo mismo en el caso discreto, el valor ms probable; y la mediana, aquel punto que deja la
mitad de la probabilidad a cada lado, es decir, el punto en el que la FD vale 1/2.

Ejemplo 4.1: Sea X una VA N(, !). Determina la media, la moda y la mediana de X







CSA. Esperanzas y funcin caracterstica 3


Ejemplo 4.2: Sea X una VA exp(#). Determina la media, la moda y la mediana de X















De entre los parmetros de dispersin, el ms importante quiz sea la varianza, que mide la
concentracin de una variable aleatoria respecto a su media. Se define:
Var (X) = !
2
= E{(X " )
2
} = (x " )
2
f(x)dx
"#
+#
$

En el caso discreto esto se transforma en:
Var (X) = (x
i
! )
2
P(X= x
i
)
"i
#

Sus propiedades principales son:
1) Var(X) = E(X
2
) - E
2
(X)
2) Si X= c (constante o determinista) entonces Var(X) =0
3) Var(aX+b) = a
2
Var(X); con a y b nmeros reales.

Ejercicio 4.1: Demuestra las propiedades anteriores











4 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo


Ejemplo 4.3: Sea X una VA que toma valores en -1 y en +1 con probabilidad 1/2. Calcula su media
y su varianza. Sea Y una VA que toma valores en -10 y en +10 con probabilidad 1/2. Calcula su
media y su varianza. Compara las medias y las varianzas de X e Y.












Otro parmetro importante de dispersin es la desviacin tpica: la raz cuadrada (positiva) de
la varianza. Tiene especial inters por estar expresada en la mismas unidades que la variable.

Sabemos que la varianza mide la dispersin de una variable en torno a su media; pero es una medida imprecisa. Es
de gran importancia calcular la probabilidad de que una variable tome valores en un intervalo centrado en la media, y
gracias a la desigualdad de Tchebycheff, podemos acotar esto en trminos de la varianza y del radio del intervalo.
Dado $ >0 entonces P(|X-| ! $) " !
2
/$
2
La demostracin es sencilla:
!
"
2
= (x #)
2
f(x)dx
#$
+$
%
& (x #)
2
f(x)dx
{x /| x#|&'}
%
& '
2
f (x)dx
{x /| x#|&'}
%
= '
2
P(| X# |& ')
La cota de Tchebycheff es, en general, un poco elevada, es decir, el valor de la cota suele ser bastante mayor que
la probabilidad que se desea acotar. An as, es especialmente til en aquellos casos en los que dispongamos de poca
informacin sobre la distribucin de probabilidad de la VA.

Ejemplo 4.4: Sea X una VA Ber(p). Determina la media y la varianza de X






Ejemplo 4.5: Sea X una VA N(,!). Determina la varianza de X




CSA. Esperanzas y funcin caracterstica 5


Ejemplo 4.6: Sea X una VA U(a,b). Determina la varianza de X













Ejemplo 4.7: Sea X una VA exp(#). Determina la varianza de X












Ejemplo resuelto 4.2: Sea X una VA con distribucin de Rayleigh de parmetro !.
Calcula E(X) y Var(X).
!
f(x) =
x
"
2
e
#
x
2
2"
2
si x > 0
!
E(X) =
x
2
"
2
e
#
x
2
2 "
2
0
$
%
dx = #xe
#
x
2
2 "
2
]
0
$
+ e
#
x
2
2 "
2
0
$
%
dx = " 2& f
N(0,1)
(x)dx =
" 2&
2
0
$
%

!
x = u "dx = du
x
#
2
e
$
x
2
2#
2
dx = dv " v = $e
$
x
2
2#
2

!
E(X
2
) =
x
3
"
2
e
#
x
2
2"
2
0
$
%
dx =
1
"
2
t
2
e
#
t
2"
2
0
$
%
dt = E(exp(
1
2"
2
)) = 2"
2

!
x
2
= t "2xdx = dt
Por tanto:
Var(X)=E(X
2
)-E
2
(X)=
!
2"
2
#
$
2
"
2
=
4 #$
2
"
2

6 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo


Dado un suceso A de probabilidad no nula, definimos la esperanza condicionada:
E(X / A) = xf(x / A)dx
!"
+"
#

Esta es una definicin equivalente a la de esperanza pero utilizando la fdp condicionada. En el
caso discreto:
E(X / A) = x
i
P(X = x
i
/ A)
!i
"

Este concepto puede ser til para calcular una media gracias al teorema de las probabilidades
totales para esperanzas (vlido para particiones finitas o infinitas):
Dada una particin {A
1
,, A
n
, } se verifica que E(X) = E(X/ A
i
)P(A
i
)
!i
"

Ejemplo 4.8: Disponemos de dos dados, uno con 4 y otro con 6 caras, numeradas de 1 a 4 de 1 a
6 respectivamente. Se lanza una moneda, de forma que si sale cara lanzamos el dado de 4 caras, en
otro caso lanzamos el dado de 6 caras. Sea la VA X: Nmero obtenido. Calcula E(X) y E(X
2
).





La esperanza condicionada es especialmente til cuando el suceso que condiciona est
relacionado con una VA. Por ejemplo si A ={Y=y}:
E(X / Y = y) = xf(x / Y = y)dx
!"
+"
#
= x
f(x, y)
f
Y
(y)
dx
!"
+"
#

Para cada valor y de la VA Y tendremos un valor diferente de E(X/Y=y). En este sentido, la
esperanza condicionada es una funcin de la VA Y; por lo que podemos pensar que E(X/Y)=g(Y) es
a su vez una VA. Tiene sentido pues, hablar de la media de la esperanza condicionada; que verifica
que:
E{E(X / Y)} = E(X / Y = y)f(y)dy
!"
+"
#
= E(X)

Este resultado es til por dos motivos: por un lado nos proporciona una versin continua del
teorema de las probabilidades totales para esperanzas, y por otro nos va a permitir, como veremos
en el epgrafe dedicado a regresin, realizar predicciones.
Es fcil comprobar que si las dos variables son independientes la esperanza condicionada vale
siempre E(X) , independientemente del valor y utilizado, por lo que no ser VA .

Ejemplo 4.9: Sea X una VA N(c,1). Supongamos que a su vez el parmetro c es un valor observado
de una VA U(5,6). Calcula la esperanza de X.





CSA. Esperanzas y funcin caracterstica 7


Ejemplo 4.10: Sea X una VA Geo(r). Supongamos que a su vez el parmetro r es un valor
observado de una VA U(0.5,1). Calcula la esperanza de X.
Sugerencia: Utiliza que E{Geo(p)} = 1/p (Ejemplo resuelto 4.3, pgina 13)





2. CORRELACIN Y REGRESIN

A menudo las VA implicadas en un determinado problema estn interrelacionadas y presentan
una determinada relacin de dependencia. Por ejemplo, en un sistema de colas, el tiempo de espera
est relacionado con la cantidad de clientes por unidad de tiempo que se incorporan al sistema. El
objetivo de muchos trabajos de investigacin es precisamente determinar la dependencia que existe
entre distintas variables, por ejemplo consumo de tabaco e incidencia de cncer. Por tanto, resulta
muy til disponer de algn parmetro que mida la dependencia entre VA. En nuestro caso
introduciremos parmetros relativos a la dependencia lineal entre dos VA.
Def: Se llama covarianza de X e Y:
Cov(X,Y) = !
XY
= E{(X-
X
)(Y-
Y
)} = E(XY) - E(X)E(Y)
Una relacin importante entre las varianzas y la covarianza de dos VA viene dada por la
desigualdad de Schwartz:
!
"
XY
2
# "
X
2
"
Y
2
; o equivalentemente : "
XY
# "
X
"
Y

La covarianza puede ser interesante para estudiar la relacin lineal entre dos VA, pero es fcil
comprobar que es un parmetro dependiente de las unidades de medida que utilicemos. Es decir, si
Z=aX+b y W=cY+d, es inmediato que !
ZW
=ac!
XY
. Sin embargo, resulta evidente que la relacin
entre las variables X e Y es la misma que la que existe entre Z y W (supn que las variables miden
longitud y que la transformacin lineal consiste en un cambio de metros a centmetros). Para
eliminar esa dependencia de la escala usada, se define el coeficiente de correlacin como:
!
XY
=
"
XY
"
X
"
Y
parmetro que, independientemente de las unidades, siempre toma valores en el intervalo [-1,1]
(vase desigualdad de Schwartz). Adems, es una magnitud adimensional.
El coeficiente de correlacin mide el grado de dependencia lineal entre dos VA, de forma que
si vale 1 -1 la dependencia es total. Esta afirmacin se discutir en detalle en el apartado de
regresin.
Diremos que dos VA son incorreladas si su coeficiente de correlacin es nulo (para ello basta
con que su covarianza sea cero); hablaremos de VA ortogonales en el caso de que la esperanza de su
producto sea cero.
8 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo


Ejercicio 4.2: Demuestra que si X e Y son VA independientes, entonces tambin son incorreladas.






Dos VA independientes son siempre incorreladas, aunque el recproco no es, en general, cierto;
pues el hecho de que no exista dependencia lineal no quiere decir que no pueda existir otro tipo de
dependencia, por ejemplo, polinmica o exponencial. Las condiciones de incorrelacin e
independencia son equivalentes bajo la hiptesis de normalidad, como se ver ms adelante.

Ejercicio 4.3: Demuestra que Var(X+Y) = Var(X) + Var(Y) + 2 Cov(X,Y).





Por tanto, la varianza de una suma coincide con la suma de las varianzas slo cuando las
variables estn incorreladas, pero puede ser mayor o menor que la suma de las varianzas.

Regresin
La teora de la regresin estudia cmo estimar una VA Y en funcin de n VA X
1
, ..., X
n
que
pudieran ser ms fcilmente medibles. Para ello se construye
!

Y = g(X
1
,,X
n
) y se aproxima Y por
!

Y . Para elegir la funcin g debemos establecer algn criterio respecto a su forma o propiedades.
Para que la estimacin sea buena, la funcin g debe minimizar el error cometido. Al trabajar con
VA se pueden considerar distintos tipos de error; pero la teora de la regresin clsica considera el
error cuadrtico medio:
$ = E{(Y-
!

Y )
2
}
En esta seccin estudiaremos la prediccin de una VA Y por una nica VA X, aunque los
resultados que obtengamos sern fcilmente generalizables a dimensiones superiores.
Estudiaremos distintas posibilidades para la forma de la funcin g:
1)
!

Y = g(X) = a (Estimacin constante e independiente de X)
En este caso $ = E{(Y-a)
2
} = E(Y
2
) + a
2
- 2aE(Y). Derivando respecto al parmetro a e
igualando a cero:
2a - 2E(Y) = 0; de donde se deduce que a = E(Y). Al ser positiva la segunda derivada
concluimos que el valor de
!

Y que minimiza el error es precisamente E(Y). Por otro lado, es evidente
que el error cuadrtico medio cometido es $ = Var(Y).
CSA. Esperanzas y funcin caracterstica 9

2)
!

Y = g(X) = aX + b (Estimacin lineal)
Minimizando el error cuadrtico medio se obtienen los siguientes valores (anlogo a 1):
a =
!
XY
!
X
2
= "
!
Y
!
X
; b = E(Y) # "
!
Y
!
X
E(X)

Por lo que la recta general de regresin toma la siguiente expresin:

Y = E(Y) + !
"
Y
"
X
(X# E(X))

Adems, se puede probar que el error cometido es:
! = "
Y
2
(1 # $
2
)

La pendiente de la recta viene marcada por el signo de %. Si % = 1 -1, se ve que el error
cometido es cero y la dependencia lineal entre las dos variables es total. Por otro lado si % = 0,
vemos que la recta de regresin se reduce a la expresin

Y
= E(Y), es decir, el conocer X no aporta
ninguna informacin lineal sobre Y; o lo que es lo mismo, las variables son incorreladas.
3)
!

Y = g(X) (Estimacin general)
Se puede probar que el estimador es:
!

Y = E(Y/X) llamado lnea general de regresin.
Evidentemente si X e Y son independientes
!

Y = E(Y) es decir, el conocer X no nos aporta nada
para conocer Y. En la prctica no es fcil conocer esa esperanza condicionada, por lo que, en
general, se utiliza ms la estimacin lineal mnimo cuadrtica.

3. NORMALIDAD MULTIDIMENSIONAL
Todos estos parmetros tienen una especial relevancia cuando trabajemos con distribuciones
normales. Definiremos la distribucin normal n-dimensional de la siguiente forma:

Sea X = (X
1
,, X
n
)
t
un vector aleatorio, y sea = (
1
,,
n
)
t
un vector de nmeros reales .

Sea ! =
"
1
2
"
12
"
1n
"
2
2
"
2n

"
n
2
#
$
%
%
%
%
&
'
(
(
(
(
una matriz simtrica y semidefinida positiva.

Diremos que X~ N
n
(, !) si
f(x) = f(x
1
,, x
n
) =
1
(2")
n / 2
det(!)
1/ 2
exp #
1
2
(x # )
t
!
#1
(x # )
$
%
&
'
(
)

Al vector

!
r
se le llama vector de medias y a la matriz & se le llama matriz de varianzas-
covarianzas.
En el caso bidimensional (n=2), si llamamos r = !
12
/(!
1
!
2
), la funcin de densidad se puede
expresar como:
f(x, y) =
1
2!"
1
"
2
1# r
2
exp #
1
2(1 # r
2
)
(x #
1
)
2
"
1
2
+
(y #
2
)
2
"
2
2
# 2r
(x #
1
)(y #
2
)
"
1
"
2
$
%
&
'
(
)
*
+
,
-
,
.
/
,
0
,

10 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo



Es fcil de demostrar, calculando las marginales, que X~N(
1
,!
1
) e Y~N(
2
,!
2
). Adems se
verifica que Cov(X,Y) = !
12
y %
XY
= r.
Obs: En la expresin anterior de f(x,y) es fcil comprobar que si r=0 entonces f(x,y)=f(x)f(y).
Es decir, si dos normales son incorreladas, tambin son independientes. Por tanto, bajo la hiptesis
de normalidad, la condicin de independientes equivale a la de incorreladas.
Obs: En una normal n-dimensional las n marginales son normales monodimensionales, aunque
el recproco no es cierto en general.
-3
-2
-1
0
1
2
3
-4
-2
0
2
4
0
0.1
0.2
0.3
0.4
X
Y

Figura: Representacin de una fdp de una normal bidimensional.


4. MOMENTOS Y FUNCIN CARACTERSTICA

Si elegimos una transformacin del tipo g(X)=X
k
y calculamos su esperanza tendremos el
momento no centrado de orden k de la VA X, que denotaremos por m
k
. Tambin hablaremos de
momento centrado de orden k de la VA X:
k
= E{(X-)
k
}. Los momentos de orden bajo ya han
sido estudiados y debido a su gran uso tiene nombres propios como media y varianza. Los
momentos de orden superior pueden ser tiles para medir propiedades de las distribuciones tales
como asimetra o apuntamiento.
Para variables bidimensionales, se definen los momentos de rdenes k y r, como:
m
kr
= E(X
k
Y
r
) (momento no centrado)

kr
= E{(X-
X
)
k
(Y-
Y
)
r
} (momento centrado)
La funcin caracterstica es, salvo por un signo, la transformada de Fourier de la fdp. Se define:

!(") = E(e
j"X
) = e
j"x
f(x)dx
#$
+$
%

En el caso discreto:
!(") = E(e
j"X
) = e
j"x
i
P(X = x
i
)
#i
$

CSA. Esperanzas y funcin caracterstica 11

Obs: La funcin caracterstica existe siempre, es decir, siempre se puede calcular la integral o
la serie.
Sus principales propiedades son:
1) '(0)=1
2) |'(()| " 1
3) Si Y = aX+b, entonces '
Y
(() = e
j(b
'
X
(a()
4) Si f(x) es par entonces '(() es par y real

Ejercicio 4.4: Demuestra las propiedades 2) y 3)






La funcin caracterstica identifica de modo nico una VA debido a la frmula de inversin:
f(x) =
1
2!
e
"j#x
$(#)d#
"%
+%
&

La frmula de inversin, derivada de la transformada inversa de Fourier, permite identificar de
forma nica la fdp de una VA. Es decir, dos VA con funciones caractersticas iguales, tienen
funciones de densidad iguales.
Un resultado de especial inters es el teorema de los momentos:
Si existe m
n
, el momento de orden n, entonces:
!
d
n
"(#)
d#
n
#=0
= j
n
m
n

La demostracin se basa en el desarrollo en serie de potencias de una funcin exponencial:
e
j!X
=
(j!x)
k
k!
k=0
"
#

Por tanto:
!(") = e
j"x
f(x)dx
#$
+$
%
=
(j")
k
k!
x
k
f(x)dx
#$
+$
%
k=0
$
&
=
( j")
k
k!
m
k
k=0
$
&

Por otro lado, haciendo el desarrollo en serie de potencias de '(() en torno a (
0
= 0:
!(") =
!
( k)
(0)
k!
"
k
k=0
#
$

Dado que el desarrollo en serie de potencias es nico, se obtiene el resultado.
La demostracin de este resultado nos permite, a travs de los momentos de una VA,
reconstruir su funcin caracterstica o, equivalentemente, su transformada de Fourier. Esto ser
especialmente til en el caso de la distribucin normal. El teorema nos proporciona tambin una
herramienta para el clculo de los momentos de una VA a partir de su funcin caracterstica.
Utilizaremos este mtodo para calcular la media y varianza de las distribuciones binomial,
geomtrica y de Poisson.
12 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo


Ejemplo 4.11: Calcula la funcin caracterstica, la media y la varianza de una Bi(n,p)





















Ejercicio 4.5: Calcula la funcin caracterstica, la media y la varianza de una P())



















CSA. Esperanzas y funcin caracterstica 13


Ejemplo resuelto 4.3: Clculo de la funcin caracterstica, la media y la varianza de una Geo(p)

P(X=k)=q
k-1
p; k=1,2,3, y q=1-p
!
"(#) = e
j#k
q
k$1
p
k=1
%
&
=
p
q
(qe
j#
)
k
k=1
%
&
=
p
q
qe
j#
1$qe
j#
= p(e
$j#
$q)
$1

__________________
!
"' (#) = $p(e
$j#
$q)
$2
e
$j#
($j) = jpe
$j#
(e
$j#
$q)
$2

!
"' (0) = jp(1#q)
#2
= jpp
#2
=
j
p

!
Por tanto E(X) =
"' (0)
j
=
1
p

__________________
Calculamos la segunda derivada:
!
"' ' (#) = jp{$je
$j#
(e
$j#
$q)
$2
+ e
$j#
[$2(e
$j#
$q)
$3
($je
$j#
)]}
!
"' ' (0) = jp{#j(1#q)
#2
+[2j(1#q)
#3
]} = j
2
p[
#1
p
2
+
2
p
3
] = j
2
2 #p
p
2

!
Por tanto E(X
2
) =
"' ' (0)
j
2
=
2 #p
p
2

!
Ahora Var(X) = E(X
2
) "E
2
(X) =
2 "p
p
2
"
1
p
2
=
1"p
p
2



Ejemplo resuelto 4.4: Clculo de la funcin caracterstica de una VA N(,!)
Obs: En una N(0,1) se verifica que m
2k-1
= 0 y m
2k
= (2k)! / [2
k
k!] para k=1,2,

Si X~N(,!) entonces X=!Y+ siendo Y~(0,1). Por ello, si calculamos la funcin
caracterstica de Y obtendremos la de X: '
X
(() = e
j(
'
Y
(!()
Calcularemos entonces la funcin caracterstica de una N(0,1). Como existen todos los
momentos podemos calcular el desarrollo en serie de potencias:
!
"
Y
(#) =
"
(i
(0)
i!
#
i
i=0
$
%

Por el teorema de los momentos:
'
(i
(0) = j
i
m
i
Por tanto:
!
"
Y
(#) =
j
i
m
i
i!
#
i
i=0
$
%
=
(j#)
2k
m
2k
(2k)!
k=0
$
%
=
(&#
2
)
k
(2k)!
(2k)!
2
k
k!
k=0
$
%
= &
#
2
2
'
(
)
*
+
,
k
1
k!
k=0
$
%
= e
&#
2
/ 2

De donde:
!
"
X
(#) = e
j#
"
Y
($#) = e
j#
e
%
$
2
#
2
2
= e
j#%
$
2
#
2
2




14 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo


Def: Llamaremos funcin caracterstica conjunta de las variables X e Y a:

'
XY
((
1
,(
2
) = E{e
j((
1
X+(
2
Y)
}
La funcin caracterstica caracteriza de un modo nico una VA bidimensional, pues tambin
existe una frmula de inversin bidimensional.
Sus principales propiedades son:
1) Se pueden obtener las funciones caractersticas marginales como:
'
X
(() = '
XY
((,0); '
Y
(() = '
XY
(0,()
2) Si Z= aX+bY entonces '
Z
(() = '
XY
(a(, b()
3) Si Z= aX+bY y W=cX+dY entonces '
ZW
((
1
,(
2
) = '
XY
(a(
1
+c(
2
, b(
1
+d(
2
)
4) X e Y son independientes si y solo si '
XY
((
1
,(
2
) = '
X
((
1
)'
Y
((
2
)
5) La funcin caracterstica de la suma de dos VA independientes es el producto de las
funciones caractersticas marginales (Se deduce de las propiedades 2) y 4)). Esta propiedad se puede
considerar como la versin del teorema de convolucin en el dominio de la funcin caracterstica.
La convolucin de fdps se convierte en un producto de funciones caractersticas, lo cual, en
determinadas ocasiones, puede resultar ms fcil de calcular.
6) Teorema de los momentos. Si existe el momento de rdenes k y r, entonces:
!
k
!
r
"(#
1
, #
2
)
!#
1
k
!#
2
r
#
1
=0
#
2
=0
= j
(k+r )
m
kr



Ejemplo 4.12: Demuestra que la suma de dos VA normales independientes sigue una distribucin
normal.

















CSA. Esperanzas y funcin caracterstica 15


Distribucin Parmetros Rango Media Varianza
Bernoulli p {0,1} p p(1-p)
Binomial n, p {0,1,2,...,n} np np(1-p)
Poisson ) {0,1,2,3,....} ) )
Geomtrica p {1,2,3,....} 1/p
(1-p)/p
2

Uniforme a, b (a,b) (a+b)/2
(b-a)
2
/12
Normal , ! (-#,+#)
!
2

Exponencial # (0,+#) 1/# 1/#
2

Rayleigh ! (0,+#) !(*/2)
1/2

!
2
(4-*)/2
En una N(0,1) se verifica que m
2k-1
= 0 y m
2k
= (2k)! / [2
k
k!] para k=1,2,
Tabla resumen de las medias y varianzas de las principales distribuciones


EJERCICIOS PROPUESTOS:

Esperanzas y varianzas. Cao. Problema 4.6. Pag. 181; Problema 4.12. Pag 198.
Esperanza y varianza. Li. Problemas de autoevaluacin 3.4. Pag. 140.
Varianza. Li. Problemas de autoevaluacin 3.2. Pag. 139.
Esperanza de funciones de una VA. Li. Problema 3.41. Pag. 135
Esperanza y esperanza condicionada. Stark. Problema 4.11. Pag. 220.
Esperanza y Correlacin. Li. Problema 4.15. Pag. 203..
Correlacin. Stark. Ejemplo 4.3.5. Pag 186
Covarianza e incorrelacin. Li. Ejemplos adicionales 4.27. Pag. 196.
Independencia e incorrelacin. Stark. Problema 4.18. Pag. 221
Regresin. Stark. Problema 4.16. Pag 221

Nota: Las referencias indicadas para los problemas son vlidas para la 2 edicin del Stark.

LECTURAS RECOMENDADAS:
Esperanzas y varianzas. Cao. Captulos 4.6 y 4.7.
Momentos y funcin caracterstica. Papoulis. Secciones 7.1 y 7.2 (2 y 3 ed.) o secciones 6.4 y
6.5 (4 ed.).

INFORMACIN Y DOCUMENTACIN ADICIONAL:
La documentacin de este tema se complementa con un boletn de problemas. En clases de
laboratorio se realizar una prctica de ordenador (prctica #6). Esta prctica dispone de un
enunciado que es recomendable leer antes de asistir al laboratorio.