Вы находитесь на странице: 1из 47

Tema 3 Variables aleatorias y principales distribuciones

1. Variables aleatorias

2. Distribuciones de probabilidad de v. a. discretas

3. Distribución de probabilidad de v. a. continuas

4. Propiedades de las variables aleatorias

5. Distribución de Bernoulli

6. Distribución binomial

7. Distribución hipergeométrica

8. Distribución de Poisson

9. Distribución uniforme continua

10.Distribución normal

1
1. Variables aleatorias

Concepto: Una variable aleatoria es una variable que toma valores numéri-
cos determinados por el resultado de un experimento aleatorio. Es la corres-
pondencia que asocia cada elemento del espacio muestral con un número
real.

Así, si el resultado es numérico, los valores asociados a la variable podrán ser


los del propio experimento; sin embargo, si el resultado es cualitativo, habrá
que asignarle un valor real.

Es evidente que la asignación de valores numéricos a los resultados del expe-


rimento no es única, pudiendo definirse distintas variables aleatorias para un
mismo experimento.

Definición: Dado un experimento aleatorio, con espacio muestral asociado


Ω, una variable aleatoria es cualquier función, X,

X: Ω → R
que asocia a cada suceso elemental un número real.

2
1.1 Propiedades

1. Si X es una variable aleatoria definida sobre un espacio muestral y c es


una constante cualquiera, c·X es una variable aleatoria sobre el mismo
espacio.

2. Si X e Y son dos variables aleatorias, su suma X+Y y su producto X·Y


son también variables aleatorias.

3. En general, cualquier función medible de variables aleatorias es también


una variable aleatoria.

3
1.2 Variables aleatorias discretas y continuas

Discretas
variables
aleatorias
Continuas

• Una variable aleatoria es una variable aleatoria discreta si no puede to-


mar más de una cantidad numerable de valores.

• Una variable aleatoria es una variable aleatoria continua si puede to-


mar cualquier valor de un intervalo.

Una variable aleatoria que tome unos valores puntuales con probabilidad da-
da, y el resto de los valores los tome dentro de uno o varios intervalos, se di-
rá que es una variable aleatoria mixta.

4
1.3 Caracterización de las variables aleatorias
La variable aleatoria es una abstracción numérica que se hace de los resulta-
dos de un experimento aleatorio, y puesto que cada suceso tiene una deter-
minada probabilidad de ocurrencia, se traslada dicha probabilidad al valor co-
rrespondiente de la variable aleatoria.

Si la variable aleatoria es discreta y toma pocos valores distintos, es factible


dar todos esos valores con sus probabilidades de una forma explícita. Pero si
la variable es discreta y toma muchos valores diferentes (tal vez infinitos) o si
es continua, lo anterior es poco recomendable o incluso imposible. Por ellos
es necesario apoyarse en una serie de funciones, relacionadas íntimamente
con dichas probabilidades, que permiten resolver el problema.

Estas funciones son la función de probabilidad (de masa en el caso discreto y


de densidad en el continuo) y la de distribución.

f. de masa
Función de
probabilidad f. de densidad
Caracterización de
variables aleatorias
Función de
distribución
5
1.4 Función de distribución de una variable aleatoria

Definición: La función de distribución de una variable aleatoria X es una


función real que a cada número real x le asocia la probabilidad de que la va-
riable tome valores menores o iguales que dicho número, esto es:

F(x) = P(X ≤ x) = P({ω ∈ Ω tales que X(ω) ≤ x})

Propiedades:

1. 0 ≤ F(x) ≤ 1.
2. F es no decreciente (x1 < x2 ⇒ F(x1) ≤ F(x2)).
3. F (+ ∞ ) = 1 (lim F (x ) = 1).
x →∞

4. F (− ∞ ) = 0 (lim F (x ) = 0) .
( )
x → −∞

5. F es continua por la derecha F (x + ) = lim F (x + h) = F (x ) .


+
h →0

6
2. Distribuciones de probabilidad de variables aleatorias
discretas
Una variable aleatoria discreta es aquella que sólo puede tomar valores den-
tro de un conjunto finito o infinito numerable.

2.1 Función de masa de probabilidad de una variable aleatoria


discreta

Definición: Sea X una variable aleatoria discreta que toma los valores xi con
probabilidades pi = P(X = xi), con ∑i pi = 1. Se denomina función de masa
de probabilidad o función de probabilidad de la variable X a la función que
asigna a cada xi su probabilidad pi.

La función de probabilidad sólo toma valores distintos de 0 en puntos discre-


tos x.
Una variable aleatoria queda perfectamente determinada cuando se conoce
su función de masa de probabilidad.

7
2.2 Propiedades que deben satisfacer las funciones de probabili-
dad de variables aleatorias discretas

SeaX una variable aleatoria discreta que tiene una función de probabilidad
P(x). En este caso,
1. 0 ≤ P(x) ≤ 1 para cualquier valor x.

2. Las probabilidades individuales suman 1:


∑ P (x i ) = 1
i

2.3 Función de probabilidad acumulada (función de distribución)

La función de distribución de una variable aleatoria discreta asocia cada nú-


mero x con la probabilidad acumulada hasta ese valor:

F(x) = P(X ≤ x)
La función F(x) es escalonada, no decreciente, con saltos de discontinuidad
en los puntos xi. El valor del salto en xi coincide con la probabilidad, pi, de
dicho valor.
8
2.4 Relación entre la función de probabilidad y la función de pro-
babilidad acumulada

SeaX una variable aleatoria discreta que tiene una función de probabilidad
P(x). En este caso,
F ( x0 ) = ∑ P ( x )
x ≤ x0

donde la notación implica que el sumatorio abarca todos los valores posibles
de x que son menores o iguales a x0.

9
3. Distribuciones de probabilidad de variables aleatorias
continuas
Una variable aleatoria continua es aquella que toma valores en uno o varios
intervalos de la recta real.

3.1 Función de densidad de probabilidad de una variable aleatoria


continua

Concepto

La medida de muchos experimentos es aproximada, pues no se puede


precisar la exactitud mediante un proceso de medición físico. Así, cuando se
recogen datos de una variable estadística, se clasifican los resultados en cla-
ses con sus respectivas frecuencias.

Como puede verse en el gráfico siguiente, al hacer las clases más y más fi-
nas, el histograma de frecuencias se aproxima a cierta curva. De este modo
surge el concepto de función de densidad como la función límite a la cual se
aproxima el histograma.

10
0.00 0.02 0.04 0.06 0.08

10
15
20
25
30
35
11
Para hallar la probabilidad de que una variable aleatoria X esté comprendida
en un intervalo específico, se calcula la diferencia entre la probabilidad acu-
mulada en el extremo superior del intervalo y la probabilidad acumulada en el
extremo inferior del intervalo.

Así, dada una variable aleatoria continua X, la probabilidad de un intervalo


(a,b) será el área limitada por esta función de densidad, las rectas x = a,
x = b y el eje de abscisas.
f(x)

a b x 12
La probabilidad de que la variable aleatoria tome un valor concreto es igual a
cero:

P(X = x0) = 0, para cualquier valor de x0.


Definición: Dada una variable aleatoria continua X, su función de densidad
es la función real de la variable real:
P (x − h ≤ X ≤ x + h )
f (x ) = lim+
h →0 2·h
La función f(x) describe el comportamiento idealizado de la variable aleatoria
continua asociada, reflejando, para cada intervalo real sobre el que tome va-
lores la variable, su densidad de probabilidad.

3.2 Función de distribución

La función de distribución,F(x), de una variable aleatoria continua X expre-


sa la probabilidad de que X no sea mayor que el valor de x, en función de x

dF (x )
F (x ) = P ( X ≤ x ) = ∫−∞ f (t )dt → f (x ) =
x

dx
13
3.3 Propiedades de la función de densidad y de la función de dis-
tribución

Sea X una variable aleatoria continua y x cualquier número situado en el


rango de valores que puede tomar esta variable aleatoria. Sea f(x), su fun-
ción de densidad y F(x) su función de distribución. Se tienen las siguientes
propiedades:

1. f(x) ≥ 0 −∞ < x < ∞.


2. El área situada debajo de la función de densidad de probabilidad, f(x),
cuando se abarcan los valores de la variable aleatoria, X, es igual a 1.

∫ f (x )dx = F (+ ∞ ) = 1

−∞

3. Supongamos que se representa gráficamente esta función de densidad.


Sean a y b dos valores posibles de la variable aleatoria X, siendo
a < b. En ese caso, la probabilidad de que X se encuentre entre a y b
es el área situada debajo de la función de densidad entre estos puntos.

P (a ≤ X ≤ b ) = P (a < X < b ) = ∫a f (t )dt =F (b ) − F (a)


b

14
En el caso de las variables aleatorias continuas, da lo mismo escribir “me-
nor que” o “menor o igual que”, ya que la probabilidad de que X sea exac-
tamente igual a a o a b es 0.
La probabilidad de que una variable aleatoria continua se encuentre entre
dos valores cualesquiera puede expresarse por medio de su función de
distribución acumulada. Por consiguiente, esta función contiene toda la in-
formación sobre la estructura de probabilidad de la variable aleatoria.

4. La función de distribución acumulada, F(x0), es el área situada debajo de


la función de densidad de probabilidad, f(x), hasta x0.

F (x0 ) = P ( X ≤ x0 ) = ∫xm0 f (t )dt


x

donde xm es el valor mínimo de la variable aleatoria X.


5. La probabilidad de que una variable aleatoria continua tome un único valor
es nula.

P ( X = x0 ) = ∫x00 f (t )dt = 0
x

Para ciertas variables continuas de uso frecuente, los valores de F(x) se en-
cuentran tabulados, lo cual facilita el cálculo de probabilidades.
15
4. Propiedades de las variables aleatorias

4.1 Valor esperado de una variable aleatoria: la función esperan-


za matemática

Para tener una medida del punto central de una distribución de probabilidad,
se introduce el concepto de esperanza de una variable aleatoria. El valor es-
perado es la medida correspondiente del punto central de una variable alea-
toria.

El valor esperado de una variable aleatoria también se llama media y se re-


presenta por medio del símbolo µ.

16
4.2 Valor esperado de una variable aleatoria discreta

Supuesto que ∑ x·P (x ) < ∞, el valor esperado, E(X), de una variable alea-
xx
x
toria discreta X se define de la forma siguiente:
E ( X ) = µ = ∑ x·P (x )
x

donde la notación indica que el sumatorio abarca a todos los valores posibles
de x.

4.3 Valor esperado de una variable aleatoria continua

Supongamos que en un experimento aleatorio se obtiene un resultado que


puede representarse por medio de una variable aleatoria continua. Si se reali-
zan N réplicas independientes de este experimento, el valor esperado de la
variable aleatoria es la media de los valores obtenidos, cuando el número de
réplicas tiende a infinito. El valor esperado de una variable se representa por
E(X).
µ = E ( X ) = ∫x x·f (x )dx
17
4.4 Propiedades del valor esperado

1. E(a·X + b) = a·E(X) + b.

2. E(X + Y) = E(X) + E(Y).

3. SiX es una variable aleatoria discreta que toma valores xi con probabili-
dad pi, la media de la variable transformada Y = g(X) es

E (Y ) = E (g ( X )) = ∑ g (x )·P (x )
x

4. Si X es una variable aleatoria continua con función de densidad f(x), la


media de la variable transformada Y = g(X) es

E (Y ) = E (g( X )) = ∫−∞ g (x )·f (x )dx


18
4.5 Varianza de una variable aleatoria

Sea X una variable aleatoria. La esperanza de los cuadrados de las diferen-


cias con respecto a la media, (X − µ)2, se llama varianza, se representa por
medio del símbolo σ 2 y viene dada por:
σ = E (X − µ )
2 2
[ ]
La desviación típica, σ, es la raíz cuadrada positiva de la varianza.
Si la variable aleatoria es discreta:

[ 2
]
σ 2 = E ( X − µ ) = ∑ ( X − µ ) ·P (x )
x
2

Si la variable aleatoria es continua:


[ ]
σ 2 = E ( X − µ ) = ∫x ( X − µ ) ·f (x )dx
2 2

4.6 Propiedades de la varianza

1. Var(a·X + b) = a2·Var(X).

2. [ 2
]
σ 2 = E ( X − µ ) = E (X 2 ) − µ 2 . 19
4.7 Tipificación de una variable aleatoria

Una variable aleatoria se dice que está estandarizada o tipificada, si su media


es 0 y su varianza es 1.

Para transformar una variable X con media µ y desviación típica σ en otra ti-
pificada, basta con aplicar la transformación lineal:

X −µ
Y =
σ

La tipificación es útil para:

1. El cálculo de probabilidades utilizando tablas.

2. Comparar distintas variables medidas en unidades diferentes.

20
4.8 Independencia de variables aleatorias
Dos variables aleatorias definidas en un mismo espacio de probabilidad, se di-
cen independientes si para cualquier B1, B2 ∈ B, donde cualquier B1 y B2
son sus campos de definición, se cumple:

P (( X ∈ B1 ) I (Y ∈ B2 )) = P ( X ∈ B1 )·P (Y ∈ B2 )

Equivalentemente, X e Y son independientes si para cualesquiera x, y ∈ R,


se cumple:

P (( X ≤ x ) I (Y ≤ y )) = P ( X ≤ x )·P (Y ≤ y )

4.9 Propiedades de las variables aleatorias independientes

Si dos variables aleatorias X e Y son independientes, entonces la varianza de


su suma es igual a la suma de sus varianzas:

Var(X + Y) = Var(X) + Var(Y)

21
5. Distribución de Bernoulli
Definición: Una prueba de Bernoulli es un experimento aleatorio cuyos po-
sibles resultados son agrupados en dos conjuntos excluyentes llamados “éxi-
to” (E) y “fracaso” (F), con P(E) = P y P(F) = 1 − P.

Esta división de éxito y fracaso puede ser algo que viene impuesto de manera
natural o una división artificial que interesa realizar.

Definición: Realizamos una prueba de Bernoulli con P(E) = P. La distribu-


ción de Bernoulli es la distribución de la variable aleatoria

1 si se obtiene éxito.
X =
0 si se obtiene fracaso.

La función de probabilidad es:

P(X = 0) = 1 − P
P(X = 1) = P
O bien:

P(X = x) = Px·(1 − P)1 − x para x = 0,1.


22
5.1 Media de una variable aleatoria de Bernoulli

µ = E ( X ) = ∑ x·P (x ) = 0·(1 − P ) + 1·P = P


x

5.2 Varianza de una variable aleatoria de Bernoulli

[ 2
]
σ 2 = E ( X − µ ) = ∑ (x − µ ) ·P (x ) =
x
2

= (0 − P ) ·(1 − P ) + (1 − P ) ·P = P·(1 − P )
2 2

23
6. Distribución Binomial
Concepto
Una importante generalización de la distribución de Bernoulli es el caso en el
que se realiza varias veces un experimento aleatorio con dos resultados posi-
bles y las repeticiones son independientes. En este caso, se puede hallar las
probabilidades utilizando las distribución binomial.

Supongamos que la probabilidad de un éxito en una única prueba es Py que


se realizan n pruebas independientes, por lo que el resultado de cualquiera
de ellas no influye en el resultado de las demás. El número de éxitos X resul-
tantes de estas n pruebas podría ser cualquier número entero comprendido
entre 0 y n. Interesa saber exactamente cuál es la probabilidad de obtener
exactamente X = x éxitos en n pruebas.
El resultado de n pruebas será la obtención de x éxitos y, por consiguiente,
(n − x) fracasos. La probabilidad de éxito en una única prueba es P y la
probabilidad de fracaso (1 − P). Dado que las n pruebas son independien-
tes entre sí, la probabilidad de cualquier secuencia de resultados es, por la
regla del producto de probabilidades, igual al producto de probabilidades de
los resultados individuales.
24
Por lo tanto, la probabilidad de observar cualquier secuencia específica que
x n−x
contenga x éxitos y (n − x) fracasos es P ·(1 − P) .

6.1 La distribución binominal


Definición: Se realizan n pruebas de Bernoulli independientes, con P(E)=P
y P(F) = 1 − P en cada prueba. La distribución binomial B(n;P) es la
distribución de la variable aleatoria X = “número de éxitos obtenidos en n
pruebas”. Su función de probabilidad es:
n  x
P ( X = x ) =  ·P ·(1 − P ) =
n− x

x
n!
·P x ·(1 − P )
n− x
= para x = 0,1,2, K , n
x!·(n − x )!
El hecho de que una variable aleatoria X tenga distribución binomial con n
pruebas y probabilidad de éxito P se representa: X∼B(n;P).

Si X1,…,Xk son variables aleatorias tales que X∼B(n;P), con i = 1,…,k, se


tiene que:
∑ X i ~ B ∑ ni ; P 
k k

i =1  i =1  25
6.2 Media y varianza de una variable aleatoria Binomial

Sea X el número de éxitos en n repeticiones independientes, cada una con


una probabilidad de éxito P, entonces X sigue una distribución binomial de
media
µ = E ( X ) = ∑ x·P (x ) = n·P
x

y varianza

[ 2
]
σ 2 = E ( X − µ ) = ∑ (x − µ ) ·P (x ) = n·P·(1 − P )
x
2

Antes de utilizar la distribución binomial, debe analizarse la situación específi-


ca para ver si:
1. En la aplicación se realizan varias pruebas, cada una de las cuales sólo tie-
ne dos resultados.
2. La probabilidad del resultado es la misma en cada prueba.
3. La probabilidad del resultado de una prueba no afecta a la probabilidad del
resultado de otras pruebas.
26
7. Distribución hipergeométrica

7.1 Distribución binomial vs. Distribución hipergeométrica


La distribución binomial supone que los objetos se seleccionan independien-
temente y que la probabilidad de seleccionar uno es constante. En muchos
problemas aplicados, estos supuestos pueden satisfacerse si se extrae una
pequeña muestra de una gran población.

Cuando no se cumplen los supuestos de la distribución binomial, debe elegir-


se un modelo de probabilidad diferente. Esta distribución de probabilidad es
la distribución de probabilidad hipergeométrica.

Se puede utilizar la distribución binomial en las situaciones de “muestreo con


reposición”. Si la población es grande (N > 10.000) y el tamaño de la
muestra es pequeño (<1%), la variación de la probabilidad después de ca-
da selección es muy pequeña. En estas situaciones, la distribución binomial
es una aproximación muy buena y es la que se utiliza normalmente.

Cuando no se cumplen estas condiciones y tenemos “muestreo sin reposi-


ción”, utilizaremos la distribución hipergeométrica.

27
7.2 Distribución hipergeométrica

Definición: Se considera una población con N elementos, de los cuales, D


son éxitos (es decir, tienen una determinada característica) y N − D son fra-
casos (no tienen esa característica). La distribución hipergeométrica es la
distribución de la variable aleatoria X = “número de éxitos obtenidos en n
observaciones al azar de la población, sin reemplazamiento”.

Su función de probabilidad es:

D N − D
 · 
x n−x 
P (X = x ) =    para max{0, n − (N − D )} ≤ x ≤ min{n, D}
N 
 
n 

Por combinatoria:
D!
·
(N − D )!
C xD·C nN−−xD x!·(D − x )! (n − x )!·(N − D − n + x )!
P (X = x ) = =
C nN N!
n!·(N − n)! 28
Por componentes:

1. El número de formas en que pueden seleccionarse x éxitos en la muestra


de un total de D éxitos contenidos en la población
D!
C =
D

x!·(D − x )!
x

2. El número de formas en que pueden seleccionarse n − x fracasos en la


población que contiene N − D fracasos:

C nN−−xD =
(N − D )!
(n − x )!·(N − D − n + x )!

3. El número total de muestras de tamaño n que pueden obtenerse en una


población de tamaño N:
N!
C nN =
n!·(N − n)!
29
7.3 Propiedades de la distribución hipergeométrica

Observaciones:

1. Normalmente, los valores que puede tomar la variable aleatoria con distri-
bución hipergeométrica son x = 0,1,…,n. Pero esto no es cierto si el
número de éxitos (o el número de fracasos) es menor que el número n de
observaciones.

2. Si las observaciones se realizan con reemplazamiento, la situación sería la


misma que si se estuviera considerando el número de éxitos obtenidos en
n pruebas independientes de Bernoulli con P(éxito) = D/N en cada
prueba, y lo que se obtendría sería la distribución binomial.

Esperanza matemática

n·D
E (X ) =
N
Varianza
N − n D·(N − D )
Var ( X ) = n· ·
N −1 N2
30
8. Distribución de Poisson
Se utiliza la distribución de Poisson para hallar la probabilidad de variables
aleatorias que se caracterizan por ser el número de ocurrencias o de éxitos
de un suceso en un intervalo continuo dado.

En la distribución de Poisson la mayor parte de la masa de probabilidad queda


repartida entre un número relativamente pequeño de valores, siendo posible
que tome otros valores, pero con una probabilidad bastante pequeña. Por
ello, a la distribución de Poisson se le llama distribución de los sucesos raros.

8.1 Supuestos de la distribución de Poisson


Supongamos que un intervalo está dividido en un gran número de intervalos
de manera que la probabilidad de que ocurra un suceso de cualquier subinter-
valo es muy pequeña. Los supuestos de la distribución de Poisson son los si-
guientes:

1. La probabilidad de que ocurra un suceso es constante en todos los subin-


tervalos.

2. No puede haber más de una ocurrencia en cada subintervalo.

3. Las ocurrencias son independientes; es decir, las ocurrencias en intervalos


que no se solapan son independientes entre sí. 31
Se puede formular directamente la ecuación para calcular las probabilidades
de Poisson a partir de la distribución de probabilidad binomial tomando los lí-
mites matemáticos cuando P → 0 y n → ∞. Con estos límites, el paráme-
tro λ = n·P (0 < λ < ∞) es una constante que especifica el número me-
dio de ocurrencias (éxitos) de un determinado tiempo y/o espacio.

8.2 La función de distribución de probabilidad de Poisson

Se dice que la variable aleatoria X sigue la distribución de probabilidad de


Poisson si tiene la función de probabilidad:

n  x e −λ ·λx
P (x ) = lim  ·P ·(1 − P ) =
n− x
para x = 0,1,2, K
P →0 
n →∞ x x!
n·P → λ

donde:

P(x): probabilidad de x éxitos en un tiempo o espacio dados, dado λ.


λ: número esperado de éxitos por unidad de tiempo o espacio; λ >0.
e: La base de los logaritmos naturales; 2,71828.

32
8.3 La media y la varianza de la distribución de probabilidad de
Poisson
La media será igual a:

µ = E (X ) = λ
Y la varianza:

[
σ 2 = E (X − µ ) = λ
2
]
La suma de las variables aleatorias de Poisson también es una variable alea-
toria de Poisson. Por lo tanto, la suma de K variables aleatorias de Poisson,
cada una de media λ, es una variable aleatoria de Poisson de media K·λ.

33
8.4 Aproximación de Poisson de la distribución binomial
La distribución de Poisson puede utilizarse como aproximación de las probabi-
lidades binomiales cuando el número de pruebas, n, es grande y al mismo
tiempo la probabilidad, P, es pequeña (generalmente, tal que n ≥ 30 y
P ≤ 0,1)

Sea X el número de éxitos resultante de n pruebas independientes, cada una


con una probabilidad de éxito P. La distribución del número de éxitos, X, es
binomial de media n·P. Si el número de pruebas, n, es grande y n·P sólo
tiene un tamaño moderado (preferiblemente n·P ≤ 7), es posible utilizar
como aproximación la distribución de Poisson, en la que λ=n·P. La función
de probabilidad de la distribución aproximada es, pues,

e − n·P ·(n·P )
x

P (x ) = para x = 0,1,2, K
x!

34
9. La distribución uniforme continua
Cualquier variable aleatoria uniforme X definida en el rango entre a y b tiene
la siguiente función de densidad de probabilidad:

 1
 si a≤x≤b
f (x ) =  b − a
0 en caso contrario

f(x)

1
b−a

a b x
Esta función de densidad de probabilidad puede utilizarse para hallar la pro-
babilidad de que la variable aleatoria se encuentre dentro de un intervalo es-
pecífico. 35
La función de distribución correspondiente será:

0 si x < a
 x − a
F (x ) =  si a ≤ x ≤ b
b − a
1 si b < x

Para la distribución uniforme definida en el rango a y b, se tienen los siguien-


tes resultados:
a+b
µ = E (X ) =
2

σ2 = E [( X − µ ) ] =
2 (b − a )2

12

36
10.La distribución normal
Razones por las que se utiliza frecuentemente:
1. La distribución normal es una aproximación muy buena de las distribucio-
nes de probabilidad de una amplia variedad de variables aleatorias.
2. Las distribuciones de las medias muestrales siguen una distribución nor-
mal, si el tamaño de muestra es grande.
3. El cálculo de probabilidades es directo.

10.1 Función de densidad de probabilidad de la distribución nor-


mal

La función de densidad de probabilidad de una variable aleatoria X que sigue


una distribución normal X es:
( x − µ )2
1 −
f (x ) = e 2·σ 2

2·π ·σ 2

Donde µ y σ 2 son números tales que −∞ < µ < ∞ y 0 < σ 2 < ∞ y don-
de e y π son constantes físicas, e = 2,71828 y π = 3,14159.
37
La distribución normal representa una gran familia de distribuciones, cada
una con una especificación única de los parámetros µ y σ 2.

10.2 Propiedades de la distribución normal

Supongamos que la variable aleatoria X sigue una distribución normal cuyos


parámetros son µ y σ 2. En ese caso, se cumplen las siguientes propiedades:
1. La media de la variable aleatoria es µ.
E (X ) = µ
2. La varianza de la variable aleatoria es parámetros σ 2:
[
var ( X ) = E ( X − µ ) = σ 2
2
]
3. La forma de la función de densidad de probabilidad es una curva simétrica
en forma de campana centrada en la media, µ.

4. Si conocemos la media y la varianza, se puede definir la distribución nor-


mal utilizando la notación:

X ~ N (µ , σ 2 )
38
La distribución normal tiene algunas características importantes:

1. Es simétrica.

2. Seleccionando distintos valores de µ y σ 2 se pueden definir una gran fa-


milia de funciones de densidad normales.

Sean Xi ∼ N(µi,σi) con i = 1,…,n, variables aleatorias independientes. En-


tonces
n
 n n
2 
∑ X i ~ N  ∑ µi , ∑ σ i 
i =1  i =1 i =1 

10.3 Función de distribución de la distribución normal

Supongamos que X es una variable aleatoria normal de media µ y varianza σ 2.


En ese caso, la función de distribución es: F ( x0 ) = P ( X ≤ x0 ) .
XX
Ésta es el área situada debajo de la función de densidad normal a la izquierda
de x0. Al igual que ocurre en cualquier función de densidad, el área total
situada debajo de la curva es 1. F (∞ ) = 1 .
39
40
f(x)

µ x0 x

El área de color azul es la probabilidad de que X no sea mayor que x0 en el


caso de una variable aleatoria normal.

41
1 ( X − µ )2
1 − ·
F (x ) =
x 2 σ2
·∫−∞ e dx −∞< x <∞
σ · 2π
42
10.4 Probabilidades de intervalos de v. a. normales

SeaX una variable aleatoria normal que tiene una la función de distribución
F(x) y sea a y b dos valores posibles de X, siendo a < b. Entonces,
P(a < X < b) = F(b) – F(a)
La probabilidad es el área situada debajo de la correspondiente función de
densidad entre a y b.

f(x)

a µ b x 43
Es posible hallar cualquier probabilidad a partir de la función de distribución
de probabilidad acumulada.

10.5 La distribución normal estándar

Sea Z una variable aleatoria normal de media 0 y varianza 1; es decir


Z∼ N(0,1)
Decimos que Z sigue una distribución normal estándar.
Se pueden hallar las probabilidades de cualquier variable aleatoria distribuida
normalmente convirtiendo primero la variable aleatoria en la variable aleato-
ria normal estándar, Z. Siempre existe una relación directa entre cualquier
variable distribuida normalmente y Z. Esa relación utiliza la transformación:
X −µ
Z =
σ
Donde X es una variable aleatoria distribuida normalmente:
X∼ N(µ,σ)
44
Este importante resultado permite utilizar la tabla normal estándar para cal-
cular las probabilidades de cualquier variable aleatoria distribuida nor-
malmente.

F (z ) = P (Z ≤ z )

Para hallar la probabilidad acumulada de un valor negativo de Z que se defi-


ne de la forma siguiente,

F (− z ) = P (Z ≤ − z )
se utiliza el complementario de la probabilidad. De la simetría se puede dedu-
cir que

F (− z ) = 1 − P (Z ≤ z ) = 1 − F (z )

45
10.6 Calcular probabilidades de variables aleatorias distribuidas
normalmente

Sea X una variable aleatoria normal de media µ y varianza σ 2. La variable


aleatoria
X −µ
Z =
σ
tiene una distribución normal estándar:

Z∼ N(0,1)
Se deduce que si a y b son dos números tales que a < b, entonces,
a − µ b − µ
P (a < X < b ) = P  <Z< =
 σ σ 
b − µ  a − µ
= F  − F  
 σ   σ 
Donde Z es la variable aleatoria normal estándar y F representa su función
de distribución.
46
10.7 La distribución normal como aproximación de la distribución
binomial
La distribución normal es una buena aproximación de la distribución binomial
cuando n ≥ 30 y 0,1 < P < 0,9.

Para hallar la probabilidad de que el número de éxitos se encuentre entre ay


b, inclusive, se tiene que:
 a − n·P X − n·P b − n·P 
P (a ≤ X ≤ b) = P  ≤ ≤ =
 n·P (1 − P ) n·P (1 − P ) n·P (1 − P ) 
 a − n·P b − n·P 
= P ≤Z≤ 
 n·P (1 − P ) n·P (1 − P ) 

Cuando n es grande, la normal estándar es una buena aproximación de Z.

47

Вам также может понравиться