Академический Документы
Профессиональный Документы
Культура Документы
Variables Aleatorias
Distribuciones de Probabilidad
Índice
1. Variables Aleatorias. 1
1. Variables Aleatorias.
Los resultados de los experimentos aleatorios pueden ser cuantitativos (el lanzamiento de un dado) y
cualitativos (el lanzamiento de una moneda es ”cara” o ”cruz”). En ocasiones, cuando los resultados son
cualitativos, puede interesarnos más unas cantidades asociadas a los resultados que los resultados mismos.
Por ejemplo, al lanzar dos veces una moneda correcta, podemos estar interesados por el número de caras
obtenidas. El número de caras obtenidas es una variable, y como su valor depende del azar, se denomina
variable aleatoria.
Consideremos el caso de una persona que se presta a participar en el siguiente juego: Se lanzará tres veces
una moneda. Si sale cara en la primera tirada, cobrará 3 e ; si la primera cara sale en la segunda tirada,
cobrará 1,2 e ; perderá 1,2 e si la primera cara sale en la tercera tirada, y perderá 3 e si siempre sale cruz.
En este ejemplo, dicha persona está interesada en el beneficio (o pérdida) que le reportará el resultado,
más que en el resultado mismo. Es decir, está interesada en la variable aleatoria ”beneficio”. Surgirán
entonces preguntas como las siguientes: ¿qué probabilidad tiene de ganar 3 e ?, ¿qué probabilidad tiene
de no perder dinero?, ¿es ”justo” el juego en el que participa?.
Tema 3. Variables aleatorias. Distribuciones de probabilidad 2
Ası́ pues, una variable aleatoria asocia a cada resultado de un experimento aleatorio un número real.
Cuando en el último ejemplo, nos plantemos calcular la probabilidad de ganar 3 e en el juego, podemos
razonar de la siguiente forma: El espacio muestral del experimento se puede definir por el conjunto
Ω = {ccc, ccx, cxc, xcc, cxx, xcx, xxc, xxx},
en el que consideramos equiprobables los posibles resultados obtenidos, de manera que la probabilidad
de un suceso cualquiera está determinada según la definición clásica. Como ganar 3 e en el juego supone
que ocurra el suceso
A = {ccc, ccx, cxc, cxx},
entonces diremos que la probabilidad de ganar 3 e es la probabilidad del suceso A, esto es, 0, 5.
De esta manera, teniendo definida una función de probabilidad para un experimento aleatorio, y con-
siderando asociada a él una variable aleatoria, podemos hablar de la probabilidad de los sucesos de la
variable aleatoria. En la siguiente tabla se muestran los valores de la variable de este ejemplo con sus
correspondientes probabilidades.
Consideremos otro caso de mucha importancia en la ciencia y en la técnica: Cualquier medida de una
magnitud fı́sica está sujeta a un error cuyo valor es, dentro de ciertos márgenes, imprevisible (si cono-
ciéramos el error, bastarı́a con sumarlo o restarlo a la medida y obtendrı́amos siempre el valor exacto de
la magnitud). Por eso, un proceso de medida se puede considerar como un experimento aleatorio, y la
propia medida como una variable aleatoria.
A continuación introducimos las primeras definiciones.
Definición 1.1 Sea Ω un espacio muestral sobre el que hay definida una función de probabilidad. Toda
función X : Ω −→ R, que a cada resultado de Ω le asocia un número real, se dice que es una variable
aleatoria.
Definición 1.2 Se dice que una variable aleatoria es discreta cuando el conjunto de valores que puede
tomar es finito o infinito numerable (esto es, los valores que toma pueden disponerse en una secuencia
que corresponde con los enteros positivos).
Definición 1.3 Se dice que una variable aleatoria es continua cuando el conjunto de valores que puede
tomar es un intervalo de números reales.
Ejemplos:
1.– Son variables aleatorias discretas las que representan ”el número de clientes que llega a una tienda en
un periodo de una hora”, ”el número de llamadas telefónicas que recibe un commutador en un intervalo
de cinco minutos”...
2.– Son variables aleatorias continuas las que representan ”la magnitud de la desviación, a partir de un
valor prescrito del peso neto de ciertos recipientes que se llenan mediante una máquina”, ”la duración en
minutos de una llamada de negocios”...
Hablando en términos generales, cuando una variable aleatoria es una magnitud fı́sica (un tiempo, un
peso, una longitud, una temperatura, una resistencia eléctrica, etc.) es una variable aleatoria continua, y
si es un número entero (número de caras al lanzar tres monedas, número de aciertos en un test, número
de piezas defectuosas en una partida, etc.), es una variable aleatoria discreta.
Cuando los resultados de un experimento aleatorio son de tipo cuantitativo, para su estudio siempre se
puede considerar la variable aleatoria ”función identidad”. Esto es, la que a cada resultado le asocia su
propio valor.
Tema 3. Variables aleatorias. Distribuciones de probabilidad 3
A partir de esta definición, es inmediato comprobar que toda función de probabilidad tiene las siguientes
propiedades:
1. Para todo valor x de la variable se tiene 0 6 f (x) 6 1.
X
2. f (x) = 1.
x∈X(Ω)
Observemos que conociendo cualquiera de estas dos funciones asociadas a la variable aleatoria se puede
obtener la otra: X
F (x) = f (xi ), f (xi ) = F (xi ) − F (xi−1 ),
xi 6x
por lo que podemos decir que cualquiera de estas funciones permite determinar la probabilidad de cual-
quier suceso relativo a la variable aleatoria X.
El conjunto formado por una variable aleatoria, y sus funciones de probabilidad y distribución se denomina
distribución de probabilidad.
Ejemplo: Una moneda está cargada y la probabilidad de obtener cara es 3/4. Vamos a hallar la función
de probabilidad y la función de distribución de la variable aleatoria: número de caras menos número de
cruces que se obtienen al realizar 3 tiradas de dicha moneda.
Como el espacio muestral asociado al experimento es
entonces la variable aleatoria X puede tomar los valores −3, −1, 1, 3. En la siguiente tabla damos su
función de probabilidad.
Definición 2.3 Se llama valor esperado o media de la variable aleatoria discreta X, que tiene función
de probabilidad f, al número determinado por la siguiente expresión
X
µ = E(X) = xf (x).
x∈X(Ω)
El sı́mbolo debajo del sumatorio, indica que la suma está extendida al conjunto de valores x que toma
la variable aleatoria, es decir X(Ω). Cuando este conjunto es infinito se deberá verificar que la serie
correspondiente es absolutamente convergente, cosa que sucede casi siempre en las aplicaciones. En los
casos que se presentarán en lo sucesivo, siempre ocurre.
Definición 2.4 Se llama varianza de la variable aleatoria discreta X, que tiene función de probabilidad
f, al número dado por la expresión
X
σ 2 = V ar(X) = (x − µ)2 f (x).
x∈X(Ω)
El concepto de media de una variable aleatoria está ligado en sus orı́genes a los juegos de azar, para los
que la media se puede interpretar como la cantidad de dinero promedio que el jugador puede ganar o
perder después de un número muy grandes de apuestas. En general, la media se puede considerar como
una cantidad numérica alrededor de la cual los valores de la variable aleatoria tienden a agruparse. Por
otro lado, la varianza es una medida de la dispersión o de la variabilidad que presentan dichos valores.
El siguiente ejemplo puede servir de comprobación de los comentarios anteriores.
Ejemplo: Sean X, Y dos variables aleatorias cuyas funciones de probabilidad se describen en las siguientes
tablas:
x 1 2 3 4 y −1 0 4 5 6
f (x) 1/8 2/8 3/8 2/8 f (y) 1/8 2/8 3/8 1/8 1/8
Se presenta con cierta frecuencia la necesidad de calcular la media de una variable aleatoria Y cuya
función de probabilidad fY no se conoce, pero que está relacionada a través de una función dada h, con
otra variable aleatoria X cuya función de probabilidad fX sı́ se conoce. Aunque es posible en tales casos
hallar fY en términos de h y de fX , suele resultar trabajoso. Es más sencillo usar fX sin calcular fY . La
forma en que se lleva esto a cabo, viene dada en la siguiente proposición:
Proposición 2.1 Sean X e Y variables aleatorias definidas sobre el mismo espacio muestral Ω. La
función de probabilidad de X es fX , y h : X(Ω) −→ R donde h X(Ω) = Y (Ω) es una función. Entonces
X
E(Y ) = h(x)fX (x).
x∈X(Ω)
el conjunto de valores distintos (que supondremos en orden creciente, es decir, x1 < x2 < . . . < xk ), de
una variable aleatoria X con distribución uniforme, entonces, la función de probabilidad de X es
1
f (xi ; k) = ∀ xi ∈ X(Ω),
k
y la función de distribución
0 si x < x1 ,
F (x; k) = i/k si xi 6 x < xi+1 , i = 1, 2, . . . , k − 1.
1 si xk 6 x,
y decimos que X tiene distribución binomial. Cada resultado del experimento puede describirse como
una sucesión de x exitos y n − x fracasos, donde x puede tomar los valores 0, 1, 2, 3, . . . , n. Por lo tanto,
la variable aleatoria puede tomar los valores 0, 1, 2, 3, . . . , n.
Para determinar la probabilidad de que la variable aleatoria tome el valor x, bastará
sumar
las proba-
n
bilidades de todos los resultados que tienen exactamente x éxitos, que son en total elementos del
x
espacio muestral. Como en las condiciones dadas, se tiene que
x n−x
z }| {z }| { h ih i
P E ∩ E ∩ . . . ∩ E F ∩ F ∩ . . . ∩ F = P (E)P (E) . . . P (E) P (F )P (F ) . . . P (F ) = px (1 − p)n−x ,
ya que los ensayos son independientes, entonces la función de probabilidad binomial es la siguiente:
n x n−x
f (x) = P (X = x) = p (1 − p) , x = 0, 1, 2, . . . , n.
x
Nótese que la distribución anterior queda determinada por los números n y p, que son los parámetros
de la distribución. Suele utilizarse la notación b(x; n, p) en lugar de f (x).
Tema 3. Variables aleatorias. Distribuciones de probabilidad 7
n
Obsérvese además que los valores de f (x) son los sumandos del desarrollo del binomio p + (1 − p) , y
es esto lo que justifica el nombre de dicha distribución.
Ejemplo: Consideremos la variable aleatoria ”número de veces que se obtiene 3 al lanzar cinco veces un
dado correcto”. La distribución de probabilidad de esta variable aleatoria es una binomial de parámetros
n = 5, p = 1/6, y de ahı́ que su función de probabilidad es la que se muestra en la siguiente tabla:
x 0 1 2 3 4 5
5 4 2 3 3 2 4 5
5 1 5 1 5 1 5 1 5 1
f (x)
6 6 6 6 6 6 6 6 6 6
Teorema 3.2 La media y la varianza de una variable aleatoria con distribución binomial b(x; n, p) son
µ = np y σ 2 = np(1 − p).
La distribución que sigue está estrechamente relacionada con la binomial, y algunas de las ideas expuestas
antes son de aplicación ahora.
El nombre que se le da a esta distribución se debe al hecho de que los valores de la función de probabilidad
constituyen una progresión geométrica de razón 1 − p. Por lo tanto, si x ∈ R pero x > 1, la función de
distribución será:
G(x; p) = P (X 6 x) = P (X = 1) + P (X = 2) + P (X = 3) + . . . + P (X = [x]) =
p(1 − p)[x]−1 (1 − p) − p
= p + p(1 − p) + p(1 − p)2 + . . . + p(1 − p)[x]−1 = = 1 − (1 − p)[x] ,
1−p−1
donde [x] es la parte entera de x. En el otro caso, x < 1, tenemos G(x; p) = 0, de modo que la función de
distribución de una variable aleatoria geométrica es
0 si x < 1,
G(x; p) = [x]
1 − (1 − p) si 1 6 x.
Teorema 3.5 La media y la varianza de una distribución de Poisson de parámetro λ coinciden con el
valor de dicho parámetro: µ = σ 2 = λ.
Veremos a continuación que la distribución de Poisson ofrece una aproximación a la función de probabi-
lidad binomial b(x; n, p) cuando n es grande y p es pequeño, de manera que el número medio de éxitos,
np, permanezca constante.
Cuando el valor de n es grande y el de p es pequeño, los valores de la función de probabilidad binomial
son tediosos de calcular.
λ
Llamemos λ = np (constante), entonces p = . Esto significa que la probabilidad del suceso E (éxito) es
n
tanto más pequeña cuanto mayor es n. Si escribimos la función de probabilidad de Bernoulli:
x n−x
n x 1−x n λ λ
p (1 − p) = 1− =
x x n n
x n−x
n(n − 1)(n − 2) . . . (n − (x − 1)) λ λ
= 1− =
x! n n
n x −x
λ λ 1 2 λ
= 1− 1− 1− ... 1 − .
n x! n n n
Si tomamos ahora lı́mites para n → ∞, tenemos que el primer factor tiende a e−λ , el segundo es constante
y los demás tienden a 1 con lo cual:
λx
n x
lı́m p (1 − p)1−x = e−λ .
n→∞ x x!
La aproximación se puede considerar que es bastante buena cuando se verifican las siguientes condiciones:
n > 25, p < 0,1, np = λ 6 5.
Por último, podemos observar que:
∞ ∞
X λx X λx
e−λ = e−λ = e−λ eλ = 1.
x=0
x! x=0
x!
P (X 6 3) = 1, P (X 6 2) = 2/3, P (X 6 1) = 1/3,
y en general que
0 si x < 0,
P (X 6 x) = x/3 si 0 6 x 6 3,
1 si 3 < x,
expresión que nos determina, análogamente al caso discreto, la función de probabilidad acumulativa o
función de distribución de dicha variable aleatoria continua.
Tema 3. Variables aleatorias. Distribuciones de probabilidad 10
Ası́ pues, los comentarios anteriores nos indican que para las variables aleatorias continuas, aunque pierde
interés la noción de función de probabilidad que utilizamos en el caso discreto, aún podemos hablar de
la función de distribución, manteniendo la misma definición:
Definición 4.1 Se llama función de distribución de la variable aleatoria continua X a la función
Teorema 4.1 La función de distribución de una variable aleatoria continua X, es una función continua
en R, si y sólo si P (X = x) = 0 ∀ x ∈ R.
Es importante distinguir entre las dos acepciones de la palabra continua que aparecen en este teorema.
Decir que la variable aleatoria X es continua, es lo mismo que decir que su recorrido X(Ω) es no numerable.
Decir que la función de distribución F es continua en R, significa que lı́m F (x) = F (x0 ) para todo x0 ∈ R.
x→x0
Como puede verse, no tiene nada que ver una acepción con la otra.
En todos los casos que trataremos en lo sucesivo, la función de distribución puede representarse por la
integral de otra función, y en tal caso, tenemos la siguiente definición:
Definición 4.2 Sea X una variable aleatoria continua con función de distribución F . Una función no
negativa f : (−∞, x) −→ R ∀ x ∈ R se llama función de densidad de probabilidad de X si es
integrable en (−∞, x) para todo x ∈ R y verifica
Z x
F (x) = f (t) dt.
−∞
Obsérvese además, que si una variable aleatoria tiene función de densidad, entonces su función de distri-
bución es continua, y por tanto P (X = x) = 0 ∀ x ∈ R como se ha visto antes, luego:
Z b
P (X 6 b) = P (X < b) + P (X = b) = P (X < b) = F (b) = f (t) dt,
−∞
Z a Z −∞
P (a 6 X) = 1 − P (X < a) = 1 − P (X 6 a) = 1 − F (a) = 1 − f (t) dt = f (t) dt.
−∞ a
Por otro lado, como los sucesos a 6 X 6 b, X < a, b < X son mutuamente excluyentes y su unión es el
suceso seguro, tendremos:
P (a 6 X 6 b) + P (X < a) + P (b < X) = 1,
luego despejando:
La función de distribución de una variable aleatoria discreta tiene las siguientes propiedades análogas a
las de una variable discreta:
Tema 3. Variables aleatorias. Distribuciones de probabilidad 11
Además, derivando en la igualdad que define la función de densidad de probabilidad (definición (4.2)),
tenemos: Z x
0 d
F (x) = f (t) dt = f (x). (2)
dx −∞
Tal como hemos señalado antes, en lo sucesivo sólo consideraremos distribuciones que posean función de
densidad de probabilidad. Por otra parte, al igual que en las variables aleatorias discretas, al conjunto
formado por una variable aleatoria continua, y sus funciones de densidad de probabilidad y distribución
se denomina distribución de probabilidad.
Definición 4.3 Se llama valor esperado, media o esperanza matemática de la variable aleatoria
continua X, que tiene función de densidad de probabilidad f, al número determinado por la siguiente
expresión Z ∞
µ = E(X) = xf (x) dx.
−∞
Definición 4.4 Se llama varianza de la variable aleatoria discreta X, que tiene función de densidad
de probabilidad f, al número dado por la expresión
Z ∞
2
σ = V ar(X) = (x − µ)2 f (x) dx.
−∞
Definición 4.5 Se llama desviación tı́pica de la variable aleatoria X, a la raı́z cuadrada positiva, σ,
de la varianza de X, y se designa por σ = DT (X).
Nota: Obsérvese que si la variable aleatoria es una variable dimensional (una longitud, una temperatura
etc.), la media y la desviación tı́pica tienen las mismas dimensiones que la variable aleatoria. No ası́ la
varianza cuyas dimensiones son el cuadrado de la variable aleatoria.
La media y la varianza de una variable aleatoria continua tienen las mismas propiedades, dadas en la
proposición (2.2), que la media y la varianza de una variable discreta.
1
si a 6 x 6 b,
f (x; a, b) = b−a
0 en otro caso.
Los números a y b son los parámetros de la distribución. La media y la varianza vienen dadas en el
siguiente teorema
Teorema 5.1 La media y la varianza de una variable aleatoria uniforme son
a+b (b − a)2
µ= y σ2 = .
2 12
Tema 3. Variables aleatorias. Distribuciones de probabilidad 12
Figura 1:
tienen el mismo aspecto, pero están desplazadas | µ | unidades hacia la derecha (hacia la izquierda). Se
puede observar en la figura 2 que cuanto menor es σ 2 más alto es el máximo en x = µ, y más pronunciados
son los descensos a ambos lados de este punto.
Figura 2:
Teorema 5.2 Los números µ y σ son, respectivamente, la media y la desviación tı́pica de una variable
aleatoria continua X que tiene distribución normal N (µ, σ).
La función de distribución de una variable aleatoria X distribuida normalmente con media µ y desviación
tı́pica σ es
2
Z x −1 t − µ
1
F (x; µ, σ) = √ e 2 σ dt,
σ 2π −∞
Tema 3. Variables aleatorias. Distribuciones de probabilidad 13
de modo que F (x; µ, σ) = P (X 6 x) es el área de la región delimitada por la curva N (x; µ, σ) y el eje de
abcisas, que está situada a la izquierda de la recta X = x. Esta integral no puede evaluarse por métodos
t−µ
elementales, pero el cambio de variable u = la transforma en
σ
1
(x−µ)/σ − u2
Z
1
F (x; µ, σ) = √ e 2 du.
2π −∞
x−µ
Observamos que el segundo miembro resulta ser el valor en z = de la función de distribución
σ
F (z; 0, 1) de la variable Z que sigue la distribución N (0, 1). Según esto, la probabilidad de cualquier
suceso relativo a la variable X puede calcularse haciendo uso de la función de distribución de la variable
normalizada Z. Los valores de esta función se encuentran tabulados. El paso de la variable X a la variable
Z que consiste en restar a X su media µ y dividir por su desviación tı́pica σ, se llama tipificar o normalizar.
Nota: Es costumbre designar a la función de distribución de la variable normal de media 0 y desviación
tı́pica 1, por Φ(x), es decir: Z x
Φ(x) = F (x; 0, 1) = N (t, 0, 1) dt.
−∞
Ejemplos:
1.− Si Z es normal N (0, 1), las siguientes probabilidades las calculamos directamente de la tabla:
2.− Si X es normal N (0, 8, 2), las siguientes probabilidades las calculamos normalizando dicha variable
y después utilizando la tabla:
X −µ 2, 44 − 0, 8
P (X 6 2, 44) = P 6 = P (Z 6 0, 82) = Φ(0, 82) = 0, 7939,
σ 2
X −µ −1, 16 − 0, 8
P (X 6 −1, 16) = P 6 = P (Z 6 −0, 98) = 1 − Φ(0, 98) = 1 − 0, 8365 = 0, 1635,
σ 2
X −µ 1 − 0, 8
P (X > 1) = P > = P (Z > 0, 1) = 1 − Φ(0, 1) = 1 − 0, 5398 = 0, 4602,
σ 2
2 − 0, 8 X −µ 10 − 0, 8
P (2 6 X 6 10) = P 6 6 = P (0, 6 6 Z 6 4, 6) = Φ(4, 6) − Φ(0, 6) ≈ 1 − 0, 7257 = 0, 2743.
2 σ 2
Teorema 5.3 Si X es una variable aleatoria discreta con distribución binomial b(x; n, p), entonces la
X − np
variable aleatoria tipificada Z = p tiene una función de densidad de probabilidad f (z; n, p) que
np(1 − p)
cumple
lı́m f (z; n, p) = N (z; 0, 1).
n→∞
Aparte de su interés teórico, este teorema permite aproximar la distribución binomial por la distribución
normal. En efecto, si n es grande, de acuerdo con el teorema, las funciones de probabilidad f (z; n, p) y de
densidad N (z; 0, 1) son aproximadamente iguales sea cual sea el valor de la variable aleatoria discreta Z1
es decir, que para valores grandes de n, la variable Z está distribuida de forma aproximadamente normal
con media 0 y desviación tı́pica 1, por lo tanto, la variable binomial X también estará distribuida de
s
np n(1 − p)
r
1 Obsérvese que los n + 1 valores que puede tomar Z están comprendidos entre − y , y que
1−p p
únicamente para esos valores son aproximadamente iguales la función de probabilidad f (z; n, p) y la función de densidad
N (z; 0, 1), ya que para otros, f (z; n, p) no está definida.
Tema 3. Variables aleatorias. Distribuciones de probabilidad 14
p
forma aproximadamente normal, pero con media np y desviación tı́pica np(1 − p), lo que nos permite
escribir p
b(x; n, p) ≈ N x; np, np(1 − p) , x = 0, 1, 2, . . . , n, (n grande).
La igualdad evidente
P (X = x) = b(x; n, p) = x + 0, 5 − (x − 0, 5) b(x; n, p),
Figura 3:
esa figura, podemos aproximar el área del rectángulo mediante el área del trapecio curvilı́neo ABCD,
que expresamos como una integral, de modo que la probabilidad en cuestión queda
Z x+0,5 p
P (X = x) = b(x; n, p) ≈ N t; np, np(1 − p) dt.
x−0,5
La utilidad de esto estriba en que podemos evitar el cálculo, posiblemente tedioso debido a la presencia
del número combinatorio, de la función de probabilidad binomial b(x; n, p), hallando en su lugar el valor
de la integral, tarea muy sencilla, pues una vez tipificada la variable X, basta con consultar la tabla de
áreas bajo la curva normal.
En general, se considera buena la aproximación cuando se verifican n > 30, np > 5 y n(1 − p) > 5.
Ejemplo: Sea X una variable aleatoria binomial de parámetros n = 800 y p = 0,2. Si queremos calcular
800
la probabilidad P (X = 160) exactamente, tenemos que obtener el valor de 0, 2160 (1 − 0, 2)800−160 ,
160
lo que no es posible manualmente, pero tampoco con una calculadora ordinaria. Sin embargo, si hacemos
uso de la aproximación comentada, tenemos
!
160 − 0, 5 − 800 × 0, 2 160 + 0, 5 − 800 × 0, 2
P (X = 160) = P p 6Z6 p ≈
800 × 0, 2 × (1 − 0, 2) 800 × 0, 2 × (1 − 0, 2)
≈ P (−0, 044 6 Z 6 0, 044) = Φ(0, 044) − Φ(−0, 044) = 2Φ(0, 044) − 1 = 2 × 0, 5176 − 1 = 0, 0352.
El primero de los dos signos de igualdad aproximada, se debe al redondeo, y el segundo a la aproximación
de la binomial por la normal. El valor exacto, calculado con SPSS y redondeado a siete cifras decimales
es 0,0352427.
Resumiendo: si X ∼ b(n, p) entonces
! !
a+0,5
a + 0, 5 − np a − 0, 5 − np
Z
P (X = a) ≈ N (z; 0, 1) dz = Φ p −Φ p ,
a−0,5 np(1 − p) np(1 − p)
Tema 3. Variables aleatorias. Distribuciones de probabilidad 15
Figura 4:
En general, se considera buena la aproximación cuando λ > 25. Aquı́ también es conveniente, para mejorar
la aproximación, el empleo de la corrección de continuidad en la variable de Poisson.
Otra propiedad interesante de la distribución normal es la que nos dice el resultado siguiente:
Teorema 5.5 Si X e Y son dos variables aleatorias independientes con distribución normal N (µX , σX )
y N (µY , σY ) respectivamente, entonces la variable aleatoria aX + bY tiene una distribución normal de
parámetros p
µ = aµX + bµY y σ = a2 σX 2 + b2 σY 2 .
P (X > x) = e−vx ,
F (x) = P (X 6 x) = 1 − e−vx .
Si ahora derivamos, de acuerdo con (2), para obtener la función de densidad de probabilidad, resulta
f (x) = v evx .
1
Llamando v = , podemos definir
β
Definición 5.1 Una variable aleatoria continua X cuya función de densidad de probabilidad sea de la
forma
1 −x/β
e si x > 0
f (x; β) = β β > 0,
0 en otro caso
se dice que tiene distribución exponencial.
Nota: Algunos textos se refieren a esta distribución como exponencial negativa debido al signo menos
que aparece en el exponente. El calificativo es superfluo, ya que la exponencial positiva no es una función
de densidad de probabilidad ya que no verifica (1).
1
Observación: Dado que v es el número medio de eventos por unidad de tiempo, de la relación v = se
β
deduce que β es el tiempo medio que transcurre hasta que se produce el primer evento. En el siguiente
teorema se enuncia esta afirmación.
Teorema 5.6 Si X es una variable aleatoria con distribución exponencial, se verifica
E(X) = β, V ar(X) = β 2 .
Tema 3. Variables aleatorias. Distribuciones de probabilidad 17
Una de las propiedades más interesantes de la distribución exponencial, que la hace adecuada para el
estudio de la fiabilidad en el funcionamiento de los dispositivos y sistemas, es la carencia de memoria, igual
que la del mismo nombre que posee la distribución geométrica. Tal propiedad es el objeto del siguiente
teorema.
Teorema 5.7 (Carencia de Memoria). Sea X una variable aleatoria con distribución exponencial.
Entonces se verifican:
donde 0 6 y < x.
Las situaciones descritas en los dos apartados de este teorema pueden entenderse mejor observando la
Figura 5. El apartado a) afirma que suponiendo que hasta el instante x no se ha producido ningún evento,
Figura 5:
la probabilidad de que tampoco se produzca ninguno durante el intervalo [y, x + y] es la misma que si el
intervalo fuera [0, y], es decir, tal probabilidad no depende del instante en que comienza el intervalo, sino
de la duración de éste.
Análogamente, el apartado b) afirma que suponiendo que hasta el instante x no se ha producido ningún
evento, la probabilidad de que el primero se produzca durante el intervalo [y, x + y] es la misma que si
el intervalo fuera [0, y], luego esa probabilidad no depende, como antes, de cuándo comienza el intervalo,
sino de su duración.
Se justifica de ese modo, la denominanción de carencia de memoria empleada. A continuación resumimos
tal propiedad: