Вы находитесь на странице: 1из 3

Variable discreta

Las variables discretas son variables numéricas que tienen un número contable de valores entre dos valores
cualesquiera. Una variable discreta siempre es numérica. Por ejemplo, el número de quejas de los clientes o el
número de fallas o defectos.

Variable continua
Las variables continuas son variables numéricas que tienen un número infinito de valores entre dos valores
cualesquiera. Una variable continua puede ser numérica o de fecha/hora. Por ejemplo, la longitud de una pieza o
la fecha y hora en que se recibe un pago.

Distribuciones de variable discreta


Distribución binomial
La distribución de probabilidad binomial es uno de los modelos matemáticos (expresión matemática para
representar una variable) que se utiliza cuando la variable aleatoria discreta es el número de éxitos en una
muestra compuesta por n observaciones.
- La muestra se compone de un número fijo de observaciones n
- Cada observación se clasifica en una de dos categorías, mutuamente excluyentes (los eventos no pueden
ocurrir de manera simultánea. Ejemplo: Una persona no puede ser de ambos sexos) y colectivamente
exhaustivos (uno de los eventos debe ocurrir. Ejemplo: Al lanzar una moneda, si no ocurre cruz, entonces
ocurre cara). A estas categorías se las denomina éxito y fracaso.
- La probabilidad de que una observación se clasifique como éxito, p, es constante de una observación o
otra. De la misma forma, la probabilidad de que una observación se clasifique como fracaso, 1-p, es
constante en todas las observaciones.
- La variable aleatoria binomial tiene un rango de 0 a n
Distribución de Poisson
En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de
probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad de que
ocurra un determinado número de eventos durante cierto período de tiempo. Concretamente, se especializa
en la probabilidad de ocurrencia de sucesos con probabilidades muy pequeñas, o sucesos "raros".
Propiedades
La función de densidad de probabilidad de la distribución de Poisson es

donde

 k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento
suceda precisamente k veces).
 λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno
durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por
minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10
minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40.
 e es la base de los logaritmos naturales (e = 2,71828...)
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a
λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una
interpretación combinatoria. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces
según la fórmula de Dobinski, el n-ésimo momento iguala al número de particiones de tamaño n.

La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a , el mayor

de los enteros menores que λ (los símbolos representan la función parte entera). Cuando λ es un entero
positivo, las modas son λ y λ − 1.
La función generadora de momentos de la distribución de Poisson con valor esperado λ

Distribución hipergeométrica

En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada


con muestreos aleatorios y sin reemplazo. Suponga que se tiene una población de N elementos de los
cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de
obtener x elementos de la categoría A en una muestra sin reemplazo de n elementos de la población original.

Distribuciones de variable continuas


Distribución normal (, )
La importancia de la distribución normal queda totalmente consolidada por ser la distribución límite de
numerosas variables aleatorias, discretas y continuas, como se demuestra a través de los teoremas centrales
del límite. Las consecuencias de estos teoremas implican la casi universal presencia de la distribución
normal en todos los campos de las ciencias empíricas: biología, medicina, psicología, física, economía, etc.
En particular, muchas medidas de datos continuos en medicina y en biología (talla, presión arterial, etc.) se
aproximan a la distribución normal.
La distribución normal queda totalmente definida mediante dos parámetros: la media () y la desviación
estándar o desviación típica (). Su función de densidad es simétrica respecto a la media y la desviación
estándar nos indica el mayor o menor grado de apertura de la curva que, por su aspecto, se suele llamar
campana de Gauss. Esta distribución se denota por N(,).
Distribución beta (p,q)
La distribución beta es adecuada para variables aleatorias continuas que toman valores en el intervalo (0,1),
lo que la hace muy apropiada para modelar proporciones. En la inferencia bayesiana, por ejemplo, es muy
utilizada como distribución a priori cuando las observaciones tienen una distribución binomial. Uno de los
principales recursos de esta distribución es el ajuste a una gran variedad de distribuciones empíricas, pues
adopta formas muy diversas dependiendo de cuáles sean los valores de los parámetros de forma p y q,
mediante los que viene definida la distribución, denotada por Beta(p,q).
Distribución gamma (a,p)
La distribución gamma se puede caracterizar del modo siguiente: si se está interesado en la ocurrencia de
un evento generado por un proceso de Poisson de media , la variable que mide el tiempo transcurrido hasta
obtener n ocurrencias del evento sigue una distribución gamma con parámetros a = n (escala) y p = n
(forma). Se denota por Gamma(a,p). Por ejemplo, la distribución gamma aparece cuando se realiza el
estudio de la duración de elementos físicos (tiempo de vida).
Según los valores que tome el parámetro de forma, p, la función de densidad presenta perfiles muy diversos.
Con valores de p menores o iguales que 1, la función de densidad muestra un perfil decreciente; en cambio,
si p es mayor que la unidad, la función de densidad crece hasta el valor x= (p-1)/a y decrece a partir de este
valor.

Probabilidad condicionada

La probabilidad condicionada mide la probabilidad de un determinado suceso conociendo información


previa sobre otro suceso.

Por ejemplo, si queremos calcular la probabilidad de que al tirar un dado salga un 6, sabemos por la regla de
Laplace, que la probabilidad es de 1/6.
Sin embargo, si disponemos de la información de que el resultado ha sido un número par, entonces tan sólo
hay tres posibilidades: 2,4 y 6, por lo que la probabilidad pasa a ser más alta, de 1/3.
Dados dos sucesos A y B, tales que 𝑃(𝐵) ≠ 0, se denomina probabilidad de A condicionada a B, que
escribimos 𝑃(𝐴/𝐵), a:
𝐴 𝑃(𝐴 ∩ 𝐵)
𝑃( ) =
𝐵 𝑃(𝐵)
De la fórmula de la probabilidad condicionada podemos derivar una expresión que nos resultará muy útil:
𝐴
𝑃(𝐴 ∩ 𝐵) = 𝑃 ( ) ∗ 𝑃(𝐵)
𝐵
Esta expresión se conoce como principio de la probabilidad compuesta.

Teorema de Bayes

El teorema de Bayes es utilizado para calcular la probabilidad de un suceso, teniendo información de


antemano sobre ese suceso.

Podemos calcular la probabilidad de un suceso A, sabiendo además que ese A cumple cierta característica
que condiciona su probabilidad. El teorema de Bayes entiende la probabilidad de forma inversa al teorema
de la probabilidad total. El teorema de la probabilidad total hace inferencia sobre un suceso B, a partir de los
resultados de los sucesos A. Por su parte, Bayes calcula la probabilidad de A condicionado a B.

El teorema de Bayes ha sido muy cuestionado. Lo cual se ha debido, principalmente, a su mala aplicación.
Ya que, mientras se cumplan los supuestos de sucesos disjuntos y exhaustivos, el teorema es totalmente
válido.

Вам также может понравиться