Вы находитесь на странице: 1из 26

Repblica Bolivariana de Venezuela Ministerio del Poder Popular Para la Educacin Universidad Rafael Urdaneta Ctedra: Estadstica

Distribuciones De Probabilidad.

INTEGRANTES:

Carlos Finol CI: 23.451.606 Julio Freites CI: 24.413.641 Giancarlo Lo Iacono CI: 23.894.785 Mara Martnez CI: 21.752.480 Ricardo Tizn CI: 23.883.629

Maracaibo, 06 de noviembre de 2012

Introduccin
En la mayora de los problemas de estadstica nos interesan uno o varios nmeros, que estn relacionados con los resultados de experimentos. En la inspeccin de un producto industrializado pueden importarnos solo el nmero de artculos defectuosos; al analizar una prueba en carretera puede preocuparnos solamente la velocidad promedio y el consumo promedio de combustible y, al estudiar un interruptor rotatorio, quizs queramos conocer solamente su lubricacin, la corriente y la humedad. Todos estos nmeros estn asociados a situaciones en que interviene un elemento de azar, en otras palabras, los valores de variable aleatorias. Al estudiar variables aleatorias generalmente nos interesan sus llamadas distribuciones de probabilidad, es decir, los diversos valores de probabilidad que toman en su rango. Toda distribucin de probabilidad es generada por una variable aleatoria x, la que puede ser de dos tipos: -Variable aleatoria discreta (x). Se le denomina variable porque puede tomar diferentes valores: aleatoria, porque el valor tomado es totalmente al azar y discreta porque solo puede tomar valores enteros y un nmero finito de ellos. Ejemplos: x Variable que nos define el nmero de burbujas por envase de vidrio que son generadas en un proceso dado. x0, 1, 2, 3, 4, 5, etc. burbujas por envase. x Variable que nos define el nmero de productos defectuosos en un lote de 25 productos. x0, 1, 2, 3,....,25 productos defectuosos en el lote. x Variable que nos define el nmero de alumnos aprobados en la materia de probabilidad en un grupo de 40 alumnos. x0, 1, 2, 3, 4, 5,....,40 alumnos aprobados en probabilidad. Con los ejemplos anteriores nos damos cuenta claramente que los valores de la variable x siempre sern enteros, nunca fraccionarios. -Variable aleatoria continua (x). Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque los valores que toma son totalmente al azar y

continua porque puede tomar tanto valores enteros como fraccionarios y un nmero infinito de ellos. Ejemplos: x Variable que nos define el dimetro de un engrane en pulgadas x5.0, 4.99, 4.98, 5.0, 5.01, 5.0, 4.96 x Variable que nos define la longitud de un cable o circuito utilizado en un arns de auto x20.5 cm, 20.1, 20.0, 19.8, 20,6, 20.0, 20.0 x Variable que nos define la concentracin en gramos de plata de algunas muestras de mineral x14.8gramos, 12.0, 10.0, 42.3, 15.0, 18.4, 19.0, 21.0, 20.8 Como se observa en los ejemplos anteriores, una variable continua puede tomar cualquier valor, entero o fraccionario, una forma de distinguir cuando se trata de una variable continua es que esta variable nos permite medirla o evaluarla, mientras que una variable discreta no es medible, es una variable de tipo atributo, cuando se inspecciona un producto este puede ser defectuoso o no, blanco o negro, cumple con las especificaciones o no cumple, etc. Las variables discretas anteriormente nos generan una distribucin de probabilidad, las que pueden ser. 1. Distribucin de probabilidad discreta. 2. Distribucin de probabilidad contina.

Distribuciones de Probabilidad de una variable aleatoria discretas.

Distribucin uniforme

La distribucin uniforme es la que corresponde a una variable que toma todos sus valores, x1, x2..., xk, con igual probabilidad; el espacio muestral debe ser finito. Si la variable tiene k posibles valores, su funcin de probabilidad sera:

Donde k es el parmetro de la distribucin (un parmetro es un valor que sirve para determinar la funcin de probabilidad o densidad de una variable aleatoria)

La media y la varianza de la variable uniforme se calculan por las expresiones:

El histograma de la funcin toma el aspecto de un rectngulo, por ello, a la distribucin uniforme se le suele llamar distribucin rectangular.

Distribucin binomial

La distribucin binomial es tpica de las variables que proceden de un experimento que cumple las siguientes condiciones: 1. El experimento est compuesto de n pruebas iguales, siendo n un nmero natural fijo. 2. Cada prueba resulta en un suceso que cumple las propiedades de la variable binmica o de Bernoulli, es decir, slo existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como xito y fracaso. 3. La probabilidad del xito (o del fracaso) es constante en todas las pruebas. P(xito) = p ; P(fracaso) = 1 - p = q. 4. Las pruebas son estadsticamente independientes. En estas condiciones, la variable aleatoria X, que cuenta el nmero de xitos en las n pruebas, se llama variable binomial. Evidentemente, el espacio muestral debe estar compuesto por los nmeros enteros del 0 al n. Se suele decir que una variable binmica cuenta objetos de un tipo determinado en un muestreo de n elementos con reemplazamiento. La funcin de probabilidad de la variable binomial se representa como b(x,n,p) siendo n el nmero de pruebas y p la probabilidad del xito. n y p son los parmetros de la distribucin.

La manera ms fcil de calcular el valor de nmeros combinatorios, como los incluidos en la expresin anterior, es utilizando el tringulo de Pascal o tringulo de Tartaglia

La media y la varianza de la variable binomial se calculan como: Media: = n p Varianza: 2 = n p q

Grficamente el aspecto de la distribucin depende de que sea o no simtrica. Por ejemplo, el caso en que n = 4:

Distribucin multinomial

La distribucin multinomial es esencialmente igual a la binomial con la nica diferencia de que cada prueba tiene ms de dos posibles resultados mutuamente excluyentes.

Si tenemos K resultados posibles (Ei, i = 1,..., K) con probabilidades fijas (pi, i = 1,..., K), la variable que expresa el nmero de resultados de cada tipo obtenidos en n pruebas independientes tiene distribucin multinomial.

La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc; se representa como:

Los parmetros de la distribucin son p1,..., pK y n Distribucin hipergeomtrica

Una variable tiene distribucin hipergeomtrica si procede de un experimento que cumple las siguientes condiciones: 1. Se toma una muestra de tamao n, sin reemplazamiento, de un conjunto finito de N objetos. 2. K de los N objetos se pueden clasificar como xitos y N - K como fracasos. X cuenta el nmero de xitos obtenidos en la muestra. El espacio muestral es el conjunto de los nmeros enteros de 0 a n, de 0 a K si K < n. En este caso, la probabilidad del xito en pruebas sucesivas no es constante pues depende del resultado de las pruebas anteriores. Por tanto, las pruebas no son independientes entre s. La funcin de probabilidad de la variable hipergeomtrica es:

Los parmetros de la distribucin son n, N y K. Los valores de la media y la varianza se calculan segn las ecuaciones:

Si n es pequeo, con relacin a N (n << N), la probabilidad de un xito va a variar muy poco de una prueba a otra, as pues, la variable, en este caso, es esencialmente binomial; en esta situacin, N suele ser muy grande y los nmeros combinatorios se vuelven prcticamente inmanejables, as pues, la probabilidades se calculan ms cmodamente aproximando por las ecuaciones de una binomial con p = K / N. La media de la variable aproximada ( = n p = n (K / N)) es la misma que la de la variable antes de la aproximacin; sin embargo, la varianza de la variable binomial es ligeramente superior a la de la hipergeomtrica.

El factor por el que difieren ser siempre menor que 1 y tan prximo a 1 como cierto sea que n << N. El aspecto de la distribucin es bastante similar al de la binomial. Como ejemplo, mostramos los casos anlogos a los de las binomiales del apartado anterior (p inicial=0,25 y n=4)

Distribucin multihipergeomtrica

Este variable se define igual que la hipergeomtrica con la nica diferencia de que se supone que el conjunto de objetos sobre el que se muestrea se divide en R grupos de A1, A2,..., AR objetos y la variable describe el nmero de objetos de cada tipo que se han obtenido (x1, x2,..., xR)

Esta situacin es anloga a la planteada en el caso de la distribucin multinomial. La funcin de probabilidad es:

Distribucin de Poisson

Una variable de tipo Poisson cuenta xitos (es decir, objetos de un tipo determinado) que ocurren en una regin del espacio o del tiempo. El experimento que la genera debe cumplir las siguientes condiciones: 1. El nmero de xitos que ocurren en cada regin del tiempo o del espacio es independiente de lo que ocurra en cualquier otro tiempo o espacio disjunto del anterior. 2. La probabilidad de un xito en un tiempo o espacio pequeo es proporcional al tamao de este y no depende de lo que ocurra fuera de l. 3. La probabilidad de encontrar uno o ms xitos en una regin del tiempo o del espacio tiende a cero a medida que se reducen las dimensiones de la regin en estudio. Como consecuencia de estas condiciones, las variables Poisson tpicas son variables en las que se cuentan sucesos raros. La funcin de probabilidad de una variable Poisson es:

El parmetro de la distribucin es que es igual a la media y a la varianza de la variable.

Esta caracterstica puede servirnos para identificar a una variable Poisson en casos en que se presenten serias dificultades para verificar los postulados de definicin. La distribucin de Poisson se puede considerar como el lmite al que tiende la distribucin binomial cuando n tiende a y p tiende a 0, siendo np constante (y menor que 7); en esta situacin sera difcil calcular probabilidades en una variable binomial y, por tanto, se utiliza una aproximacin a travs de una variable Poisson con media l=n.p. La varianza de la variable aproximada es ligeramente superior a la de la variable binomial.

Las variables Poisson cumplen la propiedad de que la suma de variables Poisson independientes es otra Poisson con media igual a la suma de las medias. El aspecto de la distribucin depende muchsimo de la magnitud de la media. Como ejemplo, mostramos tres casos con = 0,5 (abajo a la izquierda), = 1,5 (abajo a la derecha) y = 5 (siguiente pagina). Obsrvese que la asimetra de la distribucin disminuye al crecer y que, en paralelo, la grfica empieza a tener un aspecto acampanado.

Distribucin binomial negativa

En estadstica la distribucin binomial es una distribucin de probabilidad discreta que incluye a la distribucin de Pascal. El nmero de experimentos de Bernoulli de parmetro independientes realizados hasta la consecucin del k-simo xito es una variable aleatoria que tiene una distribucin binomial negativa con parmetros k y . La distribucin geomtrica es el caso concreto de la binomial negativa cuando k = 1. Propiedades Su funcin de probabilidad es:

Para enteros x mayores o iguales que k, donde

. Su media es:

Su varianza es:

Ejemplos: Si la probabilidad de que un nio expuesto a una enfermedad contagiosa la contraiga es 0,40, Cul es la probabilidad de que el dcimo nio expuesto a la enfermedad sea el tercero en contraerla? En este caso, X es el nmero de nios expuestos la enfermedad y La solucin es:

En un proceso de manufactura se sabe que un promedio de 1 en cada 10 productos es defectuoso, cul es la probabilidad que el quinto (5) articulo examinado sea el primero (1) en estar defectuoso? La solucin es: X= artculos defectuosos P= 1/10 = 0,1 q= 1- 0,1 = 0,9 x= 5 ensayos K= 1 b*(5;1,0.1)=(5-1\1-1)(0.1)^1*(0.9)^5-1= b*(5; 1,0.1)= 6.6% de probabilidad que el quinto elemento extrado sea el primero en estar defectuoso. Distribucin geomtrica

En teora de probabilidad y estadstica, la distribucin geomtrica es cualquiera de las dos distribuciones de probabilidad discretas siguientes: 1. La distribucin de probabilidad del nmero X del ensayo de Bernoulli necesaria

para obtener un xito contenido en el conjunto { 1, 2, 3,...} o 2. La distribucin de probabilidad del nmero Y = X 1 de fallos antes del primer xito contenido en el conjunto { 0, 1, 2, 3,... }. Cul de stas es la que uno llama "la" distribucin geomtrica, es una cuestin de convencin y conveniencia.

Propiedades Si la probabilidad de xito en cada ensayo es p, entonces la probabilidad de que x ensayos sean necesarios para obtener un xito es:

Para x = 1, 2, 3,.... Equivalentemente, la probabilidad de que haya x fallos antes del primer xito es:

Para x = 0, 1, 2, 3,.... En ambos casos, la secuencia de probabilidades es una progresin geomtrica. El valor esperado de una variable aleatoria X distribuida geomtricamente es

Y dado que Y = X-1,

En ambos casos, la varianza es

Las funciones generatrices de probabilidad de X y la de Y son, respectivamente,

Como su anloga continua, la distribucin exponencial, la distribucin geomtrica carece de memoria. Esto significa que si intentamos repetir el experimento hasta el primer xito, entonces, dado que el primer xito todava no ha ocurrido, la distribucin de probabilidad condicional del nmero de ensayos adicionales no depende de cuantos fallos se hayan observado. El dado o la moneda que uno lanza no tienen "memoria" de estos fallos. La distribucin geomtrica es de hecho la nica distribucin discreta sin memoria. De todas estas distribuciones de probabilidad contenidas en {1, 2, 3,...} con un valor esperado dado , la distribucin geomtrica X con parmetro p = 1/ es la de mayor entropa. La distribucin geomtrica del nmero y de fallos antes del primer xito es infinitamente divisible, esto es, para cualquier entero positivo n, existen variables aleatorias independientes Y 1,, Yn distribuidas idnticamente la suma de las cuales tiene la misma distribucin que tiene Y. Estas no sern geomtricamente distribuidas a menos que n = 1.

Distribucin de Bernoulli

En teora de probabilidad y estadstica, la distribucin de Bernoulli (o distribucin dicotmica), nombrada as por el matemtico y cientfico suizo Jakob Bernoulli, es una distribucin de probabilidad discreta, que toma valor 1 para la probabilidad de xito ( ) y valor 0 para la probabilidad de fracaso ( ). Si es una variable aleatoria que mide "nmero de xitos", y se realiza un nico experimento con dos posibles resultados (xito o fracaso), se dice que la variable aleatoria se distribuye como una Bernoulli de parmetro .

La frmula ser:

Su funcin de distribucin viene definida por:

Un experimento al cual se aplica la distribucin de Bernoulli se conoce como ensayo de Bernoulli o simplemente ensayo, y la serie de esos experimentos como ensayos repetidos. Ejemplo "Lanzar una moneda, probabilidad de conseguir que salga cruz". Se trata de un solo experimento, con dos resultados posibles: el xito (p) se considerar sacar cruz. Valdr 0,5. El fracaso (q) que saliera cara, que vale (1 - p) = 1 0,5 = 0,5. La variable aleatoria X medir "nmero de cruces que salen en un lanzamiento", y slo existirn dos resultados posibles: 0 (ninguna cruz, es decir, salir cara) y 1 (una cruz). Por tanto:

Distribuciones de Probabilidad de una variable aleatoria contina


Distribucin normal o de Gauss

La distribucin normal fue definida por De Moivre en 1733 y es la distribucin de mayor importancia en el campo de la estadstica. Una variable es normal cuando se ajusta a la ley de los grandes nmeros, es decir, cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal. Las variables normales tienen una funcin de densidad con forma de campana a la que se llama campana de Gauss. Su funcin de densidad es la siguiente:

Los parmetros de la distribucin son la media y la desviacin tpica, y , respectivamente. Como consecuencia, en una variable normal, media y desviacin tpica no deben estar correlacionadas en ningn caso (como desgraciadamente ocurre en la inmensa mayora de las variables aleatorias reales que se asemejan a la normal. La curva normal cumple las siguientes propiedades: I. II. III. El mximo de la curva coincide con la media. Es perfectamente simtrica respecto a la media (g1 = 0). La curva tiene dos puntos de inflexin situados a una desviacin tpica de la media. Es convexa entre ambos puntos de inflexin y cncava en ambas colas.

Sus colas son asintticas al eje X.

Para calcular probabilidades en intervalos de valores de la variable, habra que integrar la funcin de densidad entre los extremos del intervalo. por desgracia (o por suerte), la funcin de densidad normal no tiene primitiva, es decir, no se puede integrar. Por ello la nica solucin es referirse a tablas de la funcin de distribucin de la variable (calculadas por integracin numrica) Estas tablas tendran que ser de triple entrada (, , valor) y el asunto tendra una complejidad enorme. Afortunadamente, cualquier que sea la variable normal, X, se puede establecer una correspondencia de sus valores con los de otra variable con distribucin normal, media 0 y varianza 1, a la que se llama variable normal tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la ecuacin:

La funcin de distribucin de la variable normal tipificada est tabulada y, simplemente, consultando en las tablas se pueden calcular probabilidades en cualquier intervalo que nos interese. De forma anloga a lo pasaba con las variables Poisson, la suma de variables normales independientes es otra normal.

Histograma de una normal idealizada

Histograma de una muestra de una variable normal

Distribucin Gamma ()

La distribucin gamma se define a partir de la funcin gamma, cuya ecuacin es:

La funcin de densidad de la distribucin gamma es:

y son los parmetros de la distribucin.

La media y la varianza de la variable gamma son:

Distribucin exponencial

Es un caso particular de la distribucin gamma cuando = 1. Su funcin de densidad es:

Su parmetro es . La media y la varianza de la distribucin exponencial son:

A continuacin se muestra la grafica de una distribucin exponencial

Distribucin Chi-cuadrado (c2)

Es otro caso particular de la distribucin gamma para el caso = 2 y = n / 2, siendo n un nmero natural. Su funcin de densidad es:

El parmetro respectivamente:

de

la

distribucin c2 es n y su

media

y su

varianza

son,

Otra forma de definir la distribucin c2 es la siguiente: Supongamos que tenemos n variables aleatorias normales independientes, X1,..., Xn, con media i y varianza (i=1... n), la variable definida como:

Tiene distribucin c2 con n grados de libertad y se le denomina c2n.

Variables chi-cuadrado con valores de

progresivamente mayores son cada vez menos asimtricas.

Distribucin T de Student

Supongamos dos variables aleatorias independientes, una normal tipificada, Z, y otra con distribucin c2 con n grados de libertad. La variable definida segn la ecuacin:

Tiene distribucin t con n grados de libertad. La funcin de densidad de la distribucin t es:

El parmetro de la distribucin t es n, su nmero de grados de libertad. Esta distribucin es simtrica respecto al eje Y y sus colas se aproximan asintticamente al eje X. Es similar a la distribucin Z salvo que es platicrtica y, por tanto, ms aplanada. Cuando n tiende a infinito, t tiende asintticamente a Z y se pueden considerar prcticamente iguales para valores de n mayores o iguales que 30.

Variables T con valores de n progresivamente mayores son cada vez menos platicrticas

Comparacin entre la variable T y la normal tipificada.

Distribucin F de Snedecor

Sean U y V dos variables aleatorias independientes con distribucin c2 con n1 y n2 grados de libertad, respectivamente. La variable definida segn la ecuacin:

Tiene distribucin F con n1, n2 grados de libertad. La funcin de densidad de la distribucin F es:

Los parmetros de la variable F son sus grados de libertad n1 y n2. Las distribuciones F tienen una propiedad que se utiliza en la construccin de tablas que es la siguiente:

Llamemos fa,n1,n2 al valor de una distribucin F con n1 y n2 grados de libertad que cumple la condicin, P(F > fa,n1,n2) = ; llamemosf1-a,n1,n2 al valor de una distribucin F con n1 y n2 grados de libertad que cumple la condicin, P(F > f1-a,n1,n2) = 1- . Ambos valores estn relacionados de modo que uno es el inverso del otro.

Variables F con distintos valores de

1,

Distribucin de pascal.

La distribucin de pascal se desprende de la distribucin geomtrica ya que es una extensin de la misma. En una secuencia de ensayos Bernoulli, el nmero de ensayos hasta e incluyendo el m-simo xito tiene distribucin de Pascal. La distribucin de pascal es un modelo adecuado para tratar aquellos procesos en los que se repite un determinado ensayo o prueba hasta conseguir un nmero determinado de resultados favorables (por vez primera).Es por tanto de gran utilidad para modelar el nmero de intentos para obtener cierto nmero de xitos. Si el nmero de resultados favorables buscados fuera 1 estaramos en el caso de la distribucin geomtrica. Est implicada tambin la existencia de una dicotoma de resultados posibles en cada prueba y la independencia de cada prueba o ensayo, o la reposicin de los individuos muestreados. Supongamos que un experimento se contina hasta que un suceso particular A ocurra por r-sima vez. Si P(A)=p, P (A)=1-p=q

En cada una de las repeticiones, definimos la variable aleatoria como sigue. Y es el nmero de repeticiones necesarias a fin que A ocurra exactamente r veces. Esta distribucin o modelo puede hacerse derivar de un proceso experimental puro o de Bernoulli. Ahora Y=k si y slo si A ocurre en la k-sima repeticin y precisamente A ocurri (r-1) veces en las (k-1) repeticiones previas. La probabilidad de este suceso es simplemente ( ) puesto que lo que sucede en las primeras (k-1) repeticiones es

independiente de lo que sucede en la k-sima repeticin. Luego

(1)

Una variable aleatoria que tenga una distribucin de probabilidades dada por la ecuacin anterior tiene una distribucin de pascal. Si Y tiene una distribucin de pascal dada por la ecuacin (1), entonces: ( ) ( ) Ejemplo: Los empleados de una empresa que fabrica aisladores son examinados para detectar la presencia de asbesto en sus pulmones. La empresa debe enviar tres empleados con pruebas positivas de asbesto a un centro mdico para realizarles ms exmenes. Si el 40% de los empleados tienen pruebas positivas de asbesto en sus pulmones, encontrar la probabilidad de que se tenga que examinar 10 empleados para encontrar tres con asbesto en sus pulmones. Resolucin Sea X la variable aleatoria que representa el nmero de empleados que deben examinarse para encontrar al tercero con asbesto en sus pulmones, entonces: ( ( ) ( )( ) ( ) )

Relacin entre las distribuciones binomial y de pascal.

Sea X una distribucin binomial con parmetros n y p. (Es decir, X=numero de xitos en n ensayos de Bernoulli con P (xito)=p). Sean Y una distribucin de pascal con parmetros r y p. (Es decir, Y=numero de ensayos de Bernoulli necesarios para obtener r xitos con P (xito)=p.) por lo tanto se establece la siguiente relacin entre ambas distribuciones. (a) P(Yn)= P(Xr), (b) P(Y>n) =P(X<r).

En base a (a) podemos decir que si hay r o mas xitos en los primeros n ensayos, entonces son necesarios n o menos ensayos para obtener los primeros r xitos. Mientras que (b) nos expone que si hay menos que r xitos en los primeros n ensayos, entonces se necesitan mas de n ensayos para obtener r xitos.

Estas propiedades hacen posible el empleo de la distribucin binomial tabulada para evaluar probabilidades asociadas con la distribucin de Pascal.

Comparando las distribuciones binomial y de Pascal desde el punto de vista los ensayos repetidos de Bernoulli. La distribucin binomial aparece cuando consideramos un numero fijo (digamos n) de tales ensayos y estamos interesados en el numero de xitos que ocurren; mientras que la distribucin de Pascal se encuentra cuando prefijamos el numero de xitos que debemos obtener y luego anotamos el numero de ensayos de Bernoulli necesarios.

Referencias bibliogrficas.

HINES, William W. Probability and statistics in engineering and management science. 2th. Ed. New York: Ronald Press, 1972. WALPOLE, Ronald E. Probabilidad y estadstica para ingenieros. 2a. ed. Mxico: Nueva Editorial Interamericana, 1982.

MEYER, Paul L. Probabilidad y aplicaciones estadsticas. 2a ed. Mxico: Fondo Educativo Interamericano, 1973.

SPIEGEL, Murray R. Estadstica. 2 ed. Espaa: McGraw-Hill, 1991.

http://dcb.fi-c.unam.mx/users/nayellimg/htm/Grupo03/docs/PyE_t4.pdf

http://exa.unne.edu.ar/informatica/evalua/Sitio%20Oficial%20ESPDTemas%20Adicionales/distribuciones_estadisticas.PDF

Вам также может понравиться