Академический Документы
Профессиональный Документы
Культура Документы
Memo Garro
Resumen
Una herramienta fundamental en estadı́stica y probabilidad es la distribución normal o gaussiana.
Aquı́ revisamos los resultados básicos asociados a esta distribución para el caso unidimensional.
Definimos la densidad guassiana en términos de los parámetros µ y σ 2 . Calculamos el valor de la
integral de Gauss y algunos otras integrales asociadas. Definimos la variable aleatoria gaussiana
en términos de la función de densidad en la sección y sus momentos centrales. Demostramos que
la convolución de densidades guassianas es gaussiana, usamos esto para demostrar que la suma de
variables aleatorias gaussianas independientes es gaussiana. Con ejemplo mostramos la necesidad
de la hipótesis de independencia. Finalmente mostramos la densidad gaussiana como solución de
la ecuación del calor.
Índice
1 Densidad gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Integrales gaussianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
3 Variable aleatoria gaussiana o normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
4 Momentos centrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5 Convolución de densidades gaussianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
6 Suma de variables aleatorias normales independientes . . . . . . . . . . . . . . . . . . . . 7
7 Una suma de normales que no es normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
8 La ecuación del calor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1 Densidad gaussiana
Definición 1 (Densidad gaussiana). Una densidad gaussiana o normal de parámetros µ ∈ R y
σ 2 , con σ > 0, es una función f ( · ; µ, σ 2 ) : R → R de la forma
1 (x−µ)2
f (x; µ, σ 2 ) = √ e− 2σ2 , x ∈ R. (1)
σ 2π
1
µ = 0 y σ = 0.5
1.5 µ = 1 y σ = 0.75
µ = −2 y σ = 0.25
0.5
Observación 1.
1
f (x; µ, σ 2 ) =
f (x − µ)/σ; 0, 1 y f (x; 0, 1) = σf (σx + µ; µ, σ).
σ
Enlistamos algunas propiedades que tı́picamente se prueban en los cursos básicos de probabilidad
relativos a la densidad gaussiana.
f (−x + µ; µ, σ) = f (x + µ; µ, σ), ∀x ∈ R.
2 Integrales gaussianas
Teorema 2 (Integral de Gauss-Euler-Poisson).
Z ∞
2 √
e−x dx = π.
∞
Demostración. Una forma sencilla de calcular esta integral es usando coordenadas polares de la
manera siguiente. Sea Z ∞
2
I= e−x dx.
∞
Entonces Z ∞ Z ∞ Z ∞Z ∞
−x2 −y 2 2 +y 2 )
2
I = e dx e dy = e−(x dxdy.
∞ ∞ ∞ −∞
2
Proponemos la transformación
x = r cos θ
y = r sin θ
Calculamos el jacobiano
∂(x, y) cos θ −r sin θ
∂(r, θ) = sin θ = r.
r cos θ
De donde
Z 2π Z ∞ Z ∞
−r2 2
2
I = re dr dθ = 2π re−r dr
0 0 0
Z ∞
=π e−u du (u = r2 )
0
=π
√
Y dado que I > 0, se sigue que I = π.
Algunas otras pruebas de esta integral con varios métodos pueden encontrarse en la Wikipedia.
La mayorı́a de los problemas de este tipo tienen el factor constante 2 en el término exponencial, pero
por sustitución es muy fácil demostrar la siguiente integral.
Demostración.
Z ∞ Z ∞ (x−µ)2
1
f (x; µ, σ)dx = √ e− 2σ 2 dx
−∞ σ 2π −∞
∞
x−µ
Z
1 2
=√ e−u du, u= √
π −∞ σ 2
√
π
= √ = 1.
π
Y también Z ∞
1
x2n+1 exp − ax2 dx = 0. (4)
−∞ 2
3
Demostración. Observamos que x2n+1 exp − 12 ax2 es una función impar, por lo que (4) es inmediata.
Para probar (3), procedemos por inducción. El caso n = 0 está cubierto por el Corolario 1. Para
n = 1, integrando por partes
Z ∞
1 ∞ − 1 ax2
Z
2 − 21 ax2
x e dx = e 2 dx
−∞ a −∞
r
1 2π
= .
a a
Supongamos la fórmula (3) para n. Queremos probarla para n + 1. Nuevamente integrando por
partes
Z ∞ Z ∞
2(n+1) − 21 ax2 1 2
x e dx = x2n+1 x e− 2 ax dx
−∞ −∞
Z ∞
2n + 1 1 2
= x2n e− 2 ax dx
a −∞
r
2n + 1 (2n)! 2π
= · n n
a a 2 n! a
r
(2(n + 1))! 2π
= n+1 n+1 .
a 2 (n + 1)! a
Observación 2. Si usamos la notación de doble factorial (2n − 1)!! = 1 · 3 · · · (2n − 1), entonces
(2n)!
= (2n − 1)!!.
2n n!
4
de donde E(X) = µ. Ahora,
X−µ
Teorema 4. X ∼ N (µ, σ 2 ) si y sólo si σ ∼ N (0, 1).
X−µ
Demostración. Supongamos que X ∼ N (µ, σ 2 ) y sea Z = σ , entonces
Definición 5. Por extensión, si µ ∈ R es una constante, entonces admitimos que la densidad discreta
1 si x = µ,
f (x; µ, 0) = (5)
0 en otro caso,
es una densidad normal degenerada.
Observación 3. Si f ( · ; µ, 0) es una densidad normal degenerada dada por (5), entonces f tiene un
máximo en x = µ, es diferenciable (con derivada igual a cero) en todos los relaes, salvo en x = µ, y
los inciso (i) y (iv) del Teorema 1 se cumplen tal cual.
Observación 4. Si X es una v.a. con distribución normal degenerada dada por la función de
probabilidades (5), entonces P (X = µ) = 1, E(X) = µ y var(X) = 0.
5
4 Momentos centrales
donde
σ22 µ1 + σ12 µ2 σ12 σ22
µ := y σ 2 := .
σ12 + σ22 σ12 + σ22
Demostración. Por el Lema 1, para cada x ∈ R,
2
(x − µ1 )2 (x − µ2 )2 σ12 σ22 (µ1 − µ2 )2
x − µ1 x − µ2
+ = + +
σ12 σ22 σ12 + σ22 σ12 σ22 σ12 + σ22
2
σ12 + σ22 σ22 µ1 + σ12 µ2 (µ1 − µ2 )2
= x− +
σ12 σ22 σ12 + σ22 σ12 + σ22
1 2 (µ2 − µ1 )2
= (x − µ) + .
σ2 σ12 + σ22
Luego,
1 (x − µ1 )2 (x − µ2 )2
1
f (x; µ1 , σ12 ) f (x; µ2 , σ22 ) = exp − +
σ1 σ2 2π 2 σ12 σ22
1 (µ1 − µ2 )2 (x − µ)2
1 1
=p 2 √ exp − √ exp −
σ1 + σ22 2π 2 σ12 + σ22 σ 2π 2σ 2
6
Teorema 5. Si µ1 , µ2 ∈ R y σ1 , σ2 > 0, entonces
Z ∞
f (x; µ1 , σ12 ) f (x; µ2 , σ22 ) dx = f (µ2 ; µ1 , σ12 + σ22 ).
−∞
= f (x − µ2 ; µ1 , σ12 + σ22 )
(x − (aµ + b))2
1
= √ exp − , ∀x ∈ R.
|a|σ 2π 2a2 σ 2
Por lo tanto Y ∼ N (aµ + b, a2 σ 2 ).
Demostración. Note que el teorema anteror cubre lo casos en que alguna de las constantes a1 y
a2 , o bien, si alguno de los parámetros σ1 y σ2 es cero. Supongamos entonces que las constantes
a1 , a2 y σ1 , σ2 son distintas de cero. Por el teorema anterior, a1 X1 ∼ N (a1 µ1 , a2 σ 2 ) y a2 X2 ∼
N (a2 µ, a22 σ22 ). Recordemos que la densidad de una suma de dos variables aleatorias absolutamente
continuas independientes es la convolución de las densidades, ası́ que el teorema se sigue directamente
del Teorema 6.
7
Observación 5. Sin la condición de independencia el teorema anterior puede fallar, si σ1 > 0 y
σ2 > 0. Por ejemplo, si X ∼ N (µ, σ 2 ), entonces Y = −X ∼ N (−µ, σ 2 ), pero X + Y = 0. No
obstante, observe que X + Y es una normal degenerada N (0, 0)
Demostración. Basta demostrar que X y −X tienen la misma función de densidad. Para ello,
observamos primero que la densidad fX de una distribución normal estándar es una función par.
Ahora, para toda x ∈ R,
Ejemplo 1. Sea X una v.a. normal estándar y sea W una v.a. Bernoulli indepenediente de X con
valores en {−1, 1} con parámetro 1/2. Definimos Y = W X. Para toddo y ∈ R,