Вы находитесь на странице: 1из 19

TEMA 1. Variables aleatorias: discretas y continuas.

A. Discretas
La manera lógica de organizar datos es crear categorías y luego asignar las
observaciones a una categoría. Pero nuestra capacidad de categorizar está limitada
por la naturaleza de las variables que usamos. Además, no todas las variables se
pueden categorizar con la misma facilidad. En términos estadísticos, las variables que
interesa medir pueden ser:

a) discretas o,

b) continuas.

Una variable discreta es una variable que no puede tomar algunos valores dentro de un
mínimo conjunto numerable, quiere decir, no acepta cualquier valor, únicamente
aquellos que pertenecen al conjunto. En estas variables se dan de modo coherente
separaciones entre valores observables sucesivos. Dicho con más rigor, se determina
una variable discreta como la variable que hay entre dos valores observables
(potencialmente), hay por lo menos un valor no observable (potencialmente).

Ejemplo 1.

El número de vacas de una granja, porque sólo son enteros, no podemos decir que en
la granja hay 7 vacas y media.

Ejemplo 2.

El número de trabajadores de una empresa que son ingenieros, ya que es un dato que
tú requieres para realizar la nómina y además, necesitas datos reales y contables.

Ejemplo 3.

El número de alumnos del grupo 2202, porque si se desconoce este dato, podrían
seguir aceptándose alumnos y ya no cabrían en las sillas, habría personas paradas.
Tampoco podemos decir que tenemos 60 alumnos y ¼ porque no es posible y no
quedaría claro cuántas bancas están siendo ocupadas.

B. Continuas
Una variable continua puede tomar un valor fijo dentro de un intervalo determinado. Y
siempre entre dos valores observables va a existir un tercer valor intermedio que
también podría tomar la variable continua. Una variable continua toma valores a lo
largo de un continuo, esto es, en todo un intervalo de valores. Un atributo esencial de
una variable continua es que, a diferencia de una variable discreta, nunca puede ser
medida con exactitud; el valor observado depende en gran medida de la precisión de
los instrumentos de medición. Con una variable continua hay inevitablemente un error
de medida.

Ejemplo 1.

La estatura de los habitantes de un país es un ejemplo de variable continua, así como


el ingreso de las familias en dicho país, ya que podemos manejar decimales que nos
son muy efectivas cuando necesitamos demasiada exactitud y precisión.

Ejemplo 2.

Un buen ejemplo en el área de la educación son las “calificaciones de pruebas”, que


sólo se pueden agrupar arbitrariamente creando ‘intervalos’ artificiales, como por
ejemplo 1-20, 21-40, etc. Note que los intervalos también podrían ser 1-10, 11-20, 21-
30, etc, o cualquier otro intervalo que se prefiera, ya que la variable no se ajusta
naturalmente a categorías predeterminadas como en el caso de las variables discretas.

Ejemplo 3.

Los pesos de los alumnos del equipo de gimnasia porque al igual que la estatura y los
ingresos, éstas se manejan con los decimales que sean necesarios para llevar un
control previamente establecido.

CONCLUSIÓN TEMA 1.

Como todo debe partir de un punto clave, nos debe ser de gran importancia partir
desde las etiquetas de los datos que manejamos, como lo es, nombrarlos “variables
discretas” y “variables continuas” para saber con qué tipo de datos estamos trabajando.
Así mismo, su importancia de las variables radica en la exactitud que deseemos
obtener y saber de qué manera agrupar los datos para su posterior análisis estadístico.

TEMA 2. Distribución de una Probabilidad de una Variable Aleatoria


Discreta.
En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable
aleatoria es una función que asigna a cada suceso definido sobre la variable la
probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida
sobre el conjunto de todos los sucesos y cada uno de los sucesos es el rango de
valores de la variable aleatoria. También puede decirse que tiene una relación estrecha
con las distribuciones de frecuencia. De hecho, una distribución de probabilidades
puede comprenderse como una frecuencia teórica, ya que describe cómo se espera
que varíen los resultados.

Si la variable es una variable discreta (valores enteros), corresponderá una distribución


discreta, de las cuales existen:

a) Distribución binomial (eventos independientes).

b) Distribución de Poisson (eventos independientes).

c) Distribución hipergeométrica (eventos dependientes).

Dada una variable aleatoria X, su función de distribución, F X ( x ) es:

F X ( x ) =Prob ( X ≤ x ) =μp { ωϵΩ∨ X (ω) ≤ x }

Donde la fórmula anterior:

Prob: es la probabilidad definida sobre un espacio de probabilidad y una medida


unitaria sobre el espacio muestral.

μp: es la medida sobre la σ-álgebra de conjuntos asociada al espacio de probabilidad.

Ω: es el espacio muestral, o conjunto de todos los posibles sucesos aleatorios, sobre el


que se define el espacio de probabilidad en cuestión.

X :Ω → R es la variable aleatoria en cuestión, es decir, una función definida sobre el


espacio muestral a los números reales.

Como consecuencia casi inmediata de la definición, la función de distribución:

 Es una función continua por la derecha.


 Es una función monótona no decreciente.

Para dos números reales cualesquiera a y b tal que (a< b), los sucesos ( X ≤ a ) y
(a< X ≤b) son mutuamente excluyentes y su unión es el suceso ( X ≤ b), por lo que
tenemos entonces que:
P ( X ≤b )=P ( X ≤ a ) + P(a< X ≤ b)

P ( a< X ≤ b ) =P ( X ≤ b ) −P(X ≤ a)

Y finalmente

P ( a< X ≤ b ) =F ( b ) −F (a)

Por lo tanto, una vez conocida la función de distribución F (x) para todos los valores
dde la variable aleatoria x se obtendrá completamente la función de probabilidad de la
variable. Para realizar cálculos es más cómodo conocer la distribución de probabilidad,
y sin embargo para ver una representación gráfica de la probabilidad es más práctico el
uso de la función de densidad.

Se denomina distribución de variable discreta a aquella cuya función de probabilidad


solo toma valores positivos en un conjunto de valores de X finito o infinito numerable. A
dicha función se le llama función de masa de probabilidad. En este caso la distribución
de probabilidad es la suma de la función de masa, por lo que tenemos entonces que:
x
F ( x )=P ( X ≤ x ) = ∑ f (k )
k=−∞

Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión


representa la suma de todas las probabilidades desde -∞ hasta el valor x.

La distribución de probabilidad está completamente especificada por la función de


distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria
sea menor o igual que x. Una variable aleatoria se llama discreta si se puede contar su
conjunto de resultados posibles. Las variables aleatorias discretas son variables
aleatorias cuyo intervalo de valores es finito o contablemente infinito.

Con una distribución de probabilidad discreta, cada valor posible de la variable aleatoria
discreta puede estar asociado con una probabilidad distinta de cero. Por lo tanto, una
distribución de probabilidad discreta suele representarse en forma tabular.

Tipos de distribuciones de variable discreta.

Definidas sobre un dominio finito

 La distribución binomial, que describe el


número de aciertos en una serie de n
experimentos independientes con posibles
resultados binarios, es decir, de "sí" o "no", todos ellos con probabilidad de
acierto p y probabilidad de fallo q = 1 − p.
 La distribución de Bernoulli, la clásica binomial, que toma valores "1", con
probabilidad p, o "0", con probabilidad q = 1 − p (ensayo de Bernoulli).
 La distribución de Rademacher, que toma valores "1" o "-1" con probabilidad
1/2 cada uno.
 La distribución beta-binomial, que describe el número de aciertos en una serie
de n experimentos independientes con posibles resultados "sí" o "no", cada uno
de ellos con una probabilidad de acierto variable definida por una beta.
 La distribución degenerada en x0, en la que X toma el valor x0 con
probabilidad 1. A pesar de que no parece una variable aleatoria, la distribución
satisface todos los requisitos para ser considerada como tal.
 La distribución uniforme discreta, que recoge un conjunto finito de valores
que son resultan ser todos igualmente probables. Esta distribución describe, por
ejemplo, el comportamiento aleatorio de una moneda, un dado, o una ruleta de
casino equilibrado -sin sesgo-.
 La distribución hipergeométrica, que mide la probabilidad de obtener x (0 ≤ x
≤ d) elementos de una determinada clase formada por d elementos
pertenecientes a una población de N elementos, tomando una muestra de n
elementos de la población sin reemplazo.
 La distribución hipergeométrica no central de Fisher.
 La distribución hipergeométrica no central de Wallenius.
 La ley de Benford, que describe la frecuencia del primer dígito de un conjunto
de números en notación decimal.

Definidas sobre un dominio infinito

 La distribución binomial negativa o distribución de Pascal, que describe el


número de ensayos de Bernoulli independientes necesaria para conseguir n
aciertos, dada una probabilidad individual de éxito p constante.
 La distribución geométrica, que describe el número de intentos necesarios
hasta conseguir el primer acierto.
 La distribución beta-binomial negativa, que describe el número de
experimentos del tipo "si/no" necesarios para conseguir n aciertos, cuando la
probabilidad de éxito de cada uno de los intentos está distribuida de acuerdo con
una beta.
 La distribución binomial negativa extendida.
 La distribución de Boltzmann, importante en mecánica estadística, que
describe la ocupación de los niveles de energía discretos en un sistema en
equilibrio térmico. Varios casos especiales son:
 La distribución de Gibbs.
 La distribución de Maxwell–Boltzmann.
 La distribución elíptica asimétrica.
 La distribución fractal parabolica.
 La distribución hipergeométrica extendida.
 La distribución logarítmica.
 La distribución logarítmica generalizada.
 La distribución de Poisson, que describe el número de eventos individuales
que ocurren en un periodo de tiempo. Existen diversas variantes como la
distribución de Poisson desplazada, la hiperdistribución de Poisson, la
distribución binomial de Poisson y la distribución de Conway–Maxwell–Poisson,
entre otras.
 La distribución de Polya-Eggenberger.
 La distribución Skellam, que describe la diferencia de dos variables aleatorias
independientes con distribuciones de Poisson de distinto valor esperado.
 La distribución de Yule–Simon.
 La distribución zeta, que utiliza la función zeta de Riemman para asignar una
probabilidad a cada número natural.
 La ley de Zipf, que describe la frecuencia de utilización de las palabras de una
lengua.
 La ley de Zipf–Mandelbrot es una versión más precisa de la anterior.

TEMA 5. Distribución de Poisson.

La distribución de Poisson es una distribución de probabilidad discreta que se aplica a


las ocurrencias de algún suceso durante un intervalo determinado. La variable aleatoria
x representará el número de ocurrencias de un suceso en un intervalo determinado, el
cual podrá ser tiempo, distancia, área, volumen o alguna otra unidad similar o derivada
de éstas.

La probabilidad de la variable aleatoria X viene dada por la siguiente expresión:

μ x∗e− μ
P x=
( )
x!
Dónde:

 La variable aleatoria discreta puede tomar los valores: x=0,1,2,3…


 μ donde es la media del número de sucesos en el intervalo que estemos
tomando, ya sea de tiempo, distancia, volumen, etc. Es importante entender que
este valor es una media en el sentido estrictamente estadístico de la palabra y
como tal se calculará mediante dicha expresión y no debe calcularse nunca con
una regla de proporcionalidad o regla de tres.

 Se debe cumplir la condición de normalización ∑ P ( x )=1
x=0

 La desviación típica es σ =√ μ
 Cuando realizamos un experimento contando sucesos y obtenemos un valor x,
su error vendrá determinado por la raíz de x. x ± √ x

La distribución de Poisson debe de cumplir los siguientes requisitos:

 La variable discreta x es el número de ocurrencias de un suceso durante un


intervalo (esto es la propia definición que hemos dado anteriormente).
 Las ocurrencias deben ser aleatorias y no contener ningún vicio que favorezca
unas ocurrencias en favor de otras.
 Las ocurrencias deben estar uniformemente distribuidas dentro del intervalo que
se emplee.

La distribución de Poisson es particularmente importante ya que tiene muchos casos de


uso. Podemos poner como ejemplos de uso: la disminución de una muestra
radioactiva, la llegada de pasajeros de un aeropuerto o estación de trenes o autobuses,
los usuarios que se conectan a una web determinada por hora (es un caso
particularmente interesante que usa Googlee en sus métricas predictivas de visitantes
únicos a una web).

Como caso realmente interesante cabe mencionar que la distribución de poisson fue
utilizada para determinar si durante la segunda guerra mundial los alemanes al
bombardear Londres desde Calais (Francia) con los protomisiles V1 y V2 apuntaban o
simplemente disparaban al azar. Era un hecho realmente importante determinar ese
punto pues si los objetivos alcanzados con estos primitivos misiles eran los blancos que
los alemanes habían seleccionado, implicaba que éstos disponían de una tecnología
balística muy superior a la sospechada.

Distribución de Poisson como aproximación a la Distribución Binomial

La distribución de Poisson se usa en ocasiones para aproximar la distribución binomial.


Existe un consenso en poder realizar esta aproximación cuando se satisfagan las
siguientes condiciones:
1. n ≥ 100

2. np ≤ 10

En el caso de que se haga la aproximación porque se cumplan ambas condiciones, se


va a necesitar el valor de μ que se calcula mediante la siguiente expresión:

μ=np

También suele usarse a menudo una aproximación de la distribución de Poisson a una


distribución Gaussiana, aunque ésta última es una distribución continua.

Ejemplo 1.

La cantidad de errores de transmisión de datos en una hora es 5 en promedio.


Suponiendo que es una variable con distribución de Poisson, determine la probabilidad
que:

a) En cualquier hora ocurra solamente 1 error.


b) En cualquier hora ocurran al menos 3 errores.
c) En dos horas cualesquiera ocurran no más de 2 errores.

Solución:

Sea X: Variable aleatoria discreta (cantidad de errores por hora)


= 5 (promedio de errores de transmisión en 1 hora)
e−5∗5 1
a) P ( X=1 ) =f ( 1 )= =0.0337
1!

b) P ( X ≥3 )=1−P ( X ≤ 2 )=1−( f ( 0 ) + f ( 1 ) + f (2 )) =1−0.1247=0.8743

c) Sea X: Variable aleatoria discreta (cantidad de errores en 2 horas)


= 10 (promedio de errores de transmisión en 2 horas)

e−10∗100 e−10∗101 e−10∗102


P ( X ≤2 ) =f ( 0 ) + f (1 )+ f ( 2 )= + + =0.0028
0! 1! 2!

Conclusión:

La distribución de Poisson es un modelo que se emplea para calcular la probabilidad


correspondiente al número de éxitos en una región o intervalo de tiempo, si se conoce
el número promedio de los mismos. Es decir, que este modelo cumple con las
siguientes suposiciones:
a) El número de “éxitos” que ocurren en la región o intervalo es independiente de lo
que ocurren en la otra región o intervalo.
b) La probabilidad de que un resultado ocurra en una región o intervalo muy
pequeño, es igual que todos los intervalos o regiones de igual tamaño yes
proporcional al tamaño de la región o intervalo.
c) La probabilidad de que más de un resultado ocurra en una región o intervalo
muy pequeño no es significativa.

TEMA 6. Distribución De Probabilidad De Una Variable Aleatoria


Continua
En teoría de la probabilidad una distribución de probabilidad se llama continua si su
función de distribución es continua. Puesto que la función de distribución de una
variable aleatoria X viene dada por F X ( x ) =P(X ≤ x )la definición implica que en una
distribución de probabilidad continua X se cumple P[X = a] = 0 para todo número real a,
esto es, la probabilidad de que X tome el valor a es cero para cualquier valor de a. Si la
distribución de X es continua, se llama a X variable aleatoria continua.

Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos
valores existentes dentro de un intervalo. En el caso de variable continua la distribución
de probabilidad es la integral de la función de densidad, por lo que tenemos entonces
que:
x
F ( x )=P ( X ≤ x ) =∫ f ( t ) dt
−∞

Mientras que en una distribución de probabilidad discreta un suceso con probabilidad


cero es imposible, no se da el caso en una variable aleatoria continua. Por ejemplo, si
se mide lo largo de una hoja de roble, el resultado 3,5 cm no es posible, pero tiene
probabilidad uno porque hay infinitos valores posibles entre 3 cm y 4 cm. Cada uno de
esos valores individuales tiene probabilidad cero, aunque la probabilidad de ese
intervalo no lo es. Esta aparente paradoja no se resuelve por el hecho de que la
probabilidad de que X tome algún valor en un conjunto infinito como un intervalo, no
puede calcularse mediante la adición simple de probabilidades de valores individuales.
Formalmente, cada valor tiene una probabilidad infinitesimal que estadísticamente
equivale a cero.

Para una variable continua hay infinitos valores posibles de la variable y entre cada dos
de ellos se pueden definir infinitos valores más. En estas condiciones no es posible
deducir la probabilidad de un valor puntual de la variable; como se puede hacer en el
caso de variables discretas, pero es posible calcular la probabilidad acumulada hasta
un cierto valor (función de distribución de probabilidad), y se puede analizar cómo
cambia la probabilidad acumulada en cada punto (estos cambios no son probabilidades
sino otro concepto: la función de densidad.

En el caso de variable continua la distribución de probabilidad es la integral de la


función de densidad, por lo que tenemos entonces que:
x
F ( x )=P ( X ≤ x ) =∫ f ( t ) dt
−∞

Sea X una variable continua, una distribución de probabilidad o función de densidad de


probabilidad (FDP) de X es una función f (x) tal que, para cualesquiera dos números
a y b siendo a ≤ b .
b
P ( a ≤ X ≤ b )=∫ f ( x ) dx
a

La gráfica de f (x) se conoce a veces como curva de densidad, la probabilidad de que X


tome un valor en el intervalo [a, b] es el área balo la curva de la función de densidad
así, la función mide concentración de probabilidad alrededor de los valores de una
variable aleatoria continua.

P ( a ≤ X ≤ b )=¿ área bajo la curva de f (x) entre a y b.

Para que f ( x ) sea una FDP ¿ legítima, debe satisfacer las siguientes 2 condiciones:

1. f (x) ≥ 0 para toda x.


2. ∫ f ( x ) dx=1
−∞

Ya que la probabilidad es siempre un número positivo, la FDP es una función no


decreciente que cumple:

1. lim
x→ ∞
F ( x )=1. Es decir, la probabilidad de todo el espacio muestral es 1.

2. lim
x→ ∞
F ( x )=0. Es decir, la probabilidad del sucedo nulo es cero.

Algunas FDP están declaradas en rangos de -∞ a ∞, como la de la distribución normal.


Tipos de distribuciones de
variable continua.

Distribuciones definidas en un
intervalo acotado

 La distribución
arcoseno, definida en el
intervalo [a,b].
 La distribución beta,
definida en el intervalo
[0, 1], que es útil a la
hora de estimar
probabilidades.
 La distribución del coseno alzado, sobre el intervalo [\mu-s,\mu+s].
 La distribución degenerada en x0, en la que X toma el valor x0 con
probabilidad 1. Puede ser considerada tanto una distribución discreta como
continua.
 La distribución de Irwin-Hall o distribución de la suma uniforme, es la
distribución correspondiente a la suma de n variables aleatorias i.i.d. ~ U(0, 1).
 La distribución de Kent, definida sobre la superficie de una esfera unitaria.
 La distribución de Kumaraswamy, tan versátil como la beta, pero con FDC y
FDP más simples.
 La distribución logarítmica continua.
 La distribución logit-normal en (0, 1).
 La distribución normal truncada, sobre el intervalo [a, b].
 La distribución recíproca, un tipo de distribución inversa.
 La distribución triangular, definida en [a, b], de la cual un caso particular es la
distribución de la suma de dos variables independientes uniformemente
distribuidas (la convolución de dos distribuciones uniformes).
 La distribución uniforme continua definida en el intervalo cerrado [a, b], en el
que la densidad de probabilidad es constante.
 La distribución rectangular es el caso particular en el intervalo [-1/2, 1/2].
 La distribución U-cuadrática, definida en [a, b], utilizada para modelar
procesos bimodales simétricos.
 La distribución von Mises, también llamada distribución normal circular o
distribución Tikhonov, definida sobre el círculo unitario.
 La distribución von Mises-Fisher, generalización de la anterior a una esfera N-
dimensional.
 La distribución semicircular de Wigner, importante en el estudio de las
matrices aleatorias.

Definidas en un intervalo semi-infinito, usualmente [0,∞)

 La distribución beta prima.


 La distribución de Birnbaum–Saunders, también llamada distribución de
resistencia a la fatiga de materiales, utilizada para modelar tiempos de fallo.
 La distribución chi.
 La distribución chi no central.
 La distribución χ² o distribución de Pearson, que es la suma de cuadrados de
n variables aleatorias independientes gaussianas. Es un caso especial de la
gamma, utilizada en problemas de bondad de ajuste.
 La distribución chi-cuadrada inversa.
 La distribución chi-cuadrada inversa escalada.
 La distribución chi-cuadrada no central.
 La distribución de Dagum.
 La distribución exponencial, que describe el tiempo entre dos eventos
consecutivos en un proceso sin memoria.
2 2
 La distribución F, que es la razón entre dos variables X n y X m independientes.
Se utiliza, entre otros usos, para realizar análisis de varianza por medio del test
F.
 La distribución F no central.
 La distribución de Fréchet.
 La distribución gamma, que describe el tiempo necesario para que sucedan n
repeticiones de un evento en un proceso sin memoria.
 La distribución de Erlang, caso especial de la gamma con un parámetro k
entero, desarrollada para predecir tiempos de espera en sistemas de líneas de
espera.
 La distribución gamma inversa.
 La distribución gamma-Gompertz, que se utiliza en modelos para estimar la
esperanza de vida.
 La distribución de Gompertz.
 La distribución de Gompertz desplazada.
 La distribución de Gumbel tipo-2.
 La distribución de Lévy.
Distribuciones en las que el logaritmo de una variable aleatoria está distribuido
conforme a una distribución estándar:

 La distribución log-Cauchy.
 La distribución log-gamma.
 La distribución log-Laplace.
 La distribución log-logistic.
 La distribución log-normal.
 La distribución de Mittag–Leffler.
 La distribución de Nakagami.

Variantes de la distribución normal o de Gauss:

 La distribución normal pleglada.


 La distribución semi normal.
 La distribución de Gauss inversa, también conocida como distribución de
Wald.
 La distribución de Pareto y la distribución de Pareto generalizada.
 La distribución tipo III de Pearson.
 La distribución por fases bi-exponencial, comúnmente usada en
farmacocinética.
 La distribución por fases bi-Weibull.
 La distribución de Rayleigh.
 La distribución de mezcla de Rayleigh.
 La distribución de Rice.
 La distribución T² de Hotelling.
 La distribución de Weibull o distribución de Rosin-Rammler, para describir
la distribución de tamaños de determinadas partículas.
 La distribución Z de Fisher.

Definidas en la recta real completa

 La distribución de Behrens–Fisher, que surge en el problema de Behrens–


Fisher.
 La distribución de Cauchy, un ejemplo de distribución que no tiene expectativa
ni varianza. En física se le llama función de Lorentz, y se asocia a varios
procesos.
 La distribución de Chernoff.
 La distribución estable o distribución asimétrica alfa-estable de Lévy, es
una familia de distribuciones usadas e multitud de campos. Las distribuciones
normal, de Cauchy, de Holtsmark, de Landau y de Lévy pertenecen a esta
familia.
 La distribución estable geométrica.
 La distribución de Fisher–Tippett o distribución del valor extremo
generalizada.
 La distribución de Gumbel o log-Weibull, caso especial de la Fisher–
Tippett.
 La distribución de Gumbel tipo-1.
 La distribución de Holtsmark, ejemplo de una distribución con expectativa
finita pero varianza infinita.
 La distribución hiperbólica.
 La distribución secante hiperbólica.
 La distribución SU de Johnson.
 La distribución de Landau.
 La distribución de Laplace.
 La distribución de Linnik.
 La distribución logística, descrita por la función logística.
 La distribución logística generalizada.
 La distribución map-Airy.
 La distribución normal, también llamada distribución gaussiana o campana de
Gauss. Está muy presente en multitud de fenómenos naturales debido al
teorema del límite central: toda variable aleatoria que se pueda modelar como la
suma de varias variables independientes e idénticamente distribuidas con
expectativa y varianza finita, es aproximadamente normal.
 La distribución normal generalizada.
 La distribución normal asimétrica.
 La distribución gaussiana exponencialmente modificada, la convolución de
una normal con una exponencial.
 La distribución normal-exponencial-gamma.
 La distribución gaussiana menos exponencial es la convolución de una
distribución normal con una distribución exponencial (negativa).
 La distribución de Voigt, o perfil de Voigt, es la convolución de una
distribución normal y una Cauchy. Se utiliza principalmente en espectroscopía.
 La distribución tipo IV de Pearson.
 La distribución t de Student, útil para estimar medias desconocidas de una
población gaussiana.
 La distribución t no central.
Definidas en un dominio variable

 La distribución de Fisher–Tippett o distribución del valor extremo


generalizada, puede estar definida en la recta real completa o en un intervalo
acotado, dependiendo de sus parámetros.
 La distribución de Pareto generalizada está definida en un dominio que puede
estar acotado inferiormente o acotado por ambos extremos.
 La distribución lambda de Tukey, puede estar definida en la recta real
completa o en un intervalo acotado, dependiendo de sus parámetros.
 La distribución de Wakeby.

Distribuciones mixtas discreta/continua

 La distribución gaussiana rectificada, es una distribución normal en la que los


valores negativos son sustituidos por un valor discreto en cero.

Distribuciones multivariables

 La distribución de Dirichlet, generalización de la distribución beta.


 La fórmula de muestreo de Ewens o distribución multivariante de Ewens,
es la distribución de probabilidad del conjunto de todas las particiones de un
entero n, utilizada en el análisis genético de poblaciones.
 El modelo de Balding–Nichols, utilizado en el análisis genético de poblaciones.
 La distribución multinomial, generalización de la distribución binomial.
 La distribución normal multivariante, generalización de la distribución normal.
 La distribución multinomial negativa, generalización de la distribución
binomial negativa.
 La distribución log-gamma generalizada multivariante.

Distribuciones matriciales

 La distribución de Wishart.
 La distribución de Wishart inversa.
 La distribución normal matricial.
 La distribución t matricial.

Distribuciones no numéricas

 La distribución categórica.

Distribuciones misceláneas

 Distribución de Cantor.
 Distribución de tipo fase.

Ejemplo 1.

Suponga que el tiempo de atención de cada cliente en una estación de servicio es


una variable aleatoria continua con la siguiente función de densidad de probabilidad:

Ejemplo 2.
Sea X una variable aleatoria cuya función de densidad viene dada por f (X), calcula su
función de distribución:

Calculamos la función de distribución, obteniendo

por tanto, la función de distribución será:

Conclusión:
Como base e tiene que la función de distribución va a describir el comportamiento
probabilístico de una variable aleatoria X y al ser continua verifica las siguientes
propiedades:

TEMA 7. Distribución Normal. Regla Empírica.

Es la descripción de la proporción de observaciones que se encuentran alrededor de la


media, en unidades de desviaciones estándar, siempre que la distribución de
frecuencias sea aproximadamente simétrica.

La regla empírica es el resultado de la experiencia práctica de investigadores en


muchas disciplinas, que han observado muy diferentes tipos de conjuntos de datos de
la vida real.

La regla empírica, a la que también se le conoce como la regla 68,5-95-99,7, constituye


una manera útil de analizar datos estadísticos. Sin embargo, solo funciona para una
distribución normal (la campana de Gauss) y solo es posible producir estimaciones.
En una distribución normal (forma de campana), si tomamos una desviación estándar
por ambos sentidos respecto del valor medio cubriríamos un espacio 68% de
probabilidad de que ocurra un evento, por otro lado con 2 desviaciones estándar por
ambos sentidos respecto a este valor medio tendríamos un espacio cubierto del 95 %
finalmente con 3 desviaciones estándar tenemos un espacio que cubre un 99% de que
ocurra un evento. La curva normal es asintótica lo que significa que no toca el eje de
los x; se pierden centésimas hacia infinito y –infinito. Esto es la regla empírica, es decir,
un valor medio más menos una desviación estándar cubriremos un 68 de probabilidad
en una curva normal, un valor medio más menos 2 veces la desviación estándar cubrirá
el 95% de esta curva y el valor medio más menos 3 veces la desviación estándar cubre
casi 100 %de probabilidad en una curva normal. Finalmente para facilitar los cálculos
cualquier valor real se puede convertir en la escala z donde se tienen una media de 0,
se cubren los valores de -3 a 3.

Una de las ventajas del teorema de de Chebyshev es que se aplica a cualquier


conjunto de datos, sin importar en que forma estén distribuidos; pero se ha visto en la
práctica que si un conjunto de datos se distribuye, aproximadamente, en forma de
campana es posible aplicar en ellos la llamada regla empirica de la desviación
estándar. Eesta regla permite encontrar el porcentaje de datos que debe estar dentro
de determinadas desviaciones estándar respecto a la media. A continuación se
determinan estos porcentajes:

1) Aproximadamente el 68% de los datos están a menos de una desviación


estándar de la media.

2) Aproximadamente el 95% de los datos están a menos de dos desviaciones


estándar de la media.

3) Casi todos los datos de la muestra están a tres desviaciones de la media.

El teorema de Chebyshev es muy importante, ya que permite determinar los límites de


las probabilidades de variables aleatorias discretas o continuas sin tener que
especificar sus funciones de probabilidad. Este teorema asegura que la probabilidad de
que una variable aleatoria se aleje de la media no más de k desviaciones estándar, es
menor o igual a 1/k2 para algún valor de k >1. Aunque la garantía no siempre es muy
precisa, la ventaja sobre este teorema es su gran generalidad por cuanto es aplicable a
cualquier variable aleatoria con cualquier distribución de probabilidad, ya sea discreta o
continua. La regla empírica ayuda a medir como se distribuyen los valores por encima y
debajo de la media. Implica que, en las distribuciones con forma de campana,
aproximadamente uno de cada 20 valores estará alejado de la media más allá de dos
desviaciones estándar en cualquier dirección.

Ejemplo 1.
Mesografía
anónimo. (22 de diciembre de 2018). Wikipedia. Recuperado el 26 de abril de 2019, de
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_probabilidad

anónimo. (14 de diciembre de 2018). Wikipedia. Recuperado el 26 de abril de 2019, de


https://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_probabilidad_continua

anónimo. (s.f.). glosario.servidor-alicante.com. Recuperado el 26 de abril de 2019, de


https://glosarios.servidor-alicante.com/terminos-estadistica/regla-empirica

anónimo. (s.f.). www.cca.org.mx. Recuperado el 24 de abril de 2019, de


http://www.cca.org.mx/cca/cursos/estadistica/html/m7/var_discretas_continuas.htm

Íglez, S. (1 de junio de 2014). es.slideshare.net. Recuperado el 22 de abril de 2019, de


https://es.slideshare.net/ScarletIglez/variables-aleatorias-35366180

Márquez, F. (2016). fisicaymates.com. Recuperado el 26 de abril de 2019, de


https://fisicaymates.com/distribucion-de-poisson/

Вам также может понравиться