Академический Документы
Профессиональный Документы
Культура Документы
Integrantes:
Mota, Adrian C.I. 27.225.919
Yarves, José C.I. 26.440.202
i
INDICE
Contenido
INTRODUCCIÓN ........................................................................................................ 1
ii
4.4.2 Relaciones con otras distribuciones. ........................................................... 12
4.4.3 Aplicaciones................................................................................................ 13
iii
4.20 Esperanza. ........................................................................................................ 33
CONCLUSIÓN ........................................................................................................... 40
iv
INTRODUCCIÓN
1
En la siguiente investigación estaremos realizando un paseo por las diferentes
vertientes de ambas ciencias, esperando ser lo suficientemente amplios para su
comprensión.
2
UNIDAD 3. VARIABLES ALEATORIAS BIDIMENSIONALES
3
3.1.2 Caso discreto
Una variable aleatoria es discreta cuando su campo de variación (dominio de
definición) está constituido por un conjunto finito o infinito numerables de valores
posible. Cada suceso de W se corresponde con un valor.
Si la variable aleatoria es discreta, cada valor de los pertenecientes al campo de
variación se corresponderá con un sucesos del algebra de sucesos. (Los que permitirá
después asignar probabilidades a cada valor).
Una variable aleatoria discreta es el modelo teórico de una variable estadística
discreta (con valores sin agrupar). Es aquella función de distribución es escalonada.
Ejemplo:
Ante el experimento: lanzar un dado diez veces se aleatoriza de forma que la
variable aleatoria X= n° de ases que se obtengan: X= {0,1,2,3,4,5,6,7,8,9,10}
(v.a discreta de orden finito).
Ante el experimento: contemplar los coches que pasen por un tramo de
carretera se aleatoriza de forma que la variable aleatoria X= n° de coches que
pasen: X= {0, 1, 2, 3,…} (X = N) (v. a. discreta de orden infinito).
4
Y (Y) = f(x,y) dx para -“<x<”
3.2.1 Características
La distribución marginal de X es simplemente la función de probabilidad de x,
pero la palabra marginal sirve para distinguirla de la distribución conjunta de X e Y.
Una distribución marginal nos da la idea de la forma como depende una probabilidad
con respecto a una sola variable.
3.2.2 Usos
Es usada para hallar las diferentes distribuciones de probabilidad estadísticas
de las variables individuales, con esta función podemos asignar diferentes valores a
las variables conjuntas sin tener que relacionarlas, por ello se amplía las
probabilidades de cada una de las variables.
3.2.3 Ventajas
La distribución marginal de dos variables aleatorias se pueden obtener a partir
de su distribución conjunta.
Para una variable aleatoria se puede especificar probabilidades para dicha
variable sin tener en cuenta los valores de cuales quiera otras variables
aleatorias.
3.2.4 Desventajas
No es posible reconstruir la distribución conjunta de dos variables aleatorias a
partir de sus distribuciones marginales sin información adicional.
La f.d.p marginal representada en grafica no proporcionan información
acercar de la relación entre las variables aleatorias conjuntas.
5
incorporar información adicional del mismo y actualizar el cálculo de probabilidades.
Otro de los conceptos clave en el lenguaje moderno de la teoría de la probabilidad es
el de variable aleatoria. Una variable aleatoria es simplemente una función X: Ω → R
tal que para cualquier intervalo abierto (a, b) de R, la imagen inversa X−1(a, b) es un
elemento de la σ-´algebra A, dominio de definición de la medida de probabilidad P.
La medida de probabilidad P se traslada entonces a los intervalos abiertos de R
mediante la siguiente regla. La probabilidad asignada al intervalo (a, b) es
simplemente el número P (X−1(a, b)). Ahora, dada una variable aleatoria X, uno
puede calcular ciertos números asociados a X. Estos números son los llamados
momentos que se denotan y calculan como sigue. Para cada número natural n.
6
en Kg probablemente estarán relacionadas, los valores de una influirán en los valores
de la otra. Intentar determinar la naturaleza exacta.
De la relación entre ambas es lo que en estadística conocemos como un
problema de regresión.
Si queremos una definición algo más formal, basta con que recordemos que
dos sucesos son independientes si la probabilidad de la intersección es igual al
producto de probabilidades, aplicando esta definición a sucesos del
tipo X ≤ a tenemos la definición siguiente:
Diremos que dos variables aleatorias X e Y son independientes si y sólo si
P(X ≤ a ∩ Y ≤ b) = P(X ≤ a) · P (Y ≤ b) = FX(a) · FY (b)
A la función F(x, y) = P(X ≤ a ∩ Y ≤ b) se la conoce como la función de
distribución conjunta de X e Y.
Como consecuencia inmediata de la independencia de X e Y, se cumple lo
siguiente: P(a < X ≤ c ∩ b < Y ≤ d) = P(a < X ≤ c) · P (b < Y ≤ d)
7
Donde el sumatorio se efectúa para todo valor que pertenece al recorrido de X.
En caso de que el recorrido sea infinito la esperanza existe si la serie resultante es
absolutamente convergente, condición que no siempre se cumple. La definición se
corresponde con un promedio ponderado según su probabilidad de los valores del
recorrido y, por tanto, se corresponde con la idea de un valor medio teórico.
8
de clientes en un día. Supongamos que el número promedio de quejas por día es 10 y
usted desea saber la probabilidad de recibir 5, 10, y 15 quejas de clientes en un día.
X P (X = x)
5 0.037833
10 0.12511
15 .034718
9
Ejemplo: Supongamos que se lanza un dado (con 6 caras) 51 veces y queremos
conocer la probabilidad de que el numero 3 salga 20 veces. En este caso tenemos una
X~ (51, 1/6) y la probabilidad seria P(X=20).
Se utiliza la distribución binomial para calcular la probabilidad de que 3 o más
elementos defectuosos se encuentren en una muestra de 25 elementos si la
probabilidad de un elemento defectuoso en cada ensayo es 0,02. El número de
elementos defectuosos (X) sigue una distribución binomial con n= 25 y p= 0,02.
El número de eventos (X) en n ensayos sigue una distribución binomial si se
cumple las condiciones:
El número de ensayos es fijo.
Cada ensayo es independiente de otros ensayos.
Cada ensayo tiene 1 de 2 resultados: evento o no evento.
La probabilidad de un evento es igual para cada ensayo.
10
4.4 Distribución de Poisson.
La distribución de Poisson se emplea para describir varios procesos, entre
otros la distribución de las llamadas telefónicas que llegan a un computador, la
demanda (necesidades) de servicios en una institución asistencial por partes de los
pacientes, los arribos de los camiones y automóviles a la caseta de cobro y el número
de accidentes en un cruce. Los ejemplos citados tiene un elemento en común, puede
ser discreto por una variable aleatoria discreta que asume valores enteros (0, 1, 2,
3, 4, 5 y así sucesivamente).
La distribución de Poisson se llama así en honor a Simeón Dennis Poisson
(1781-1840), francés que desarrollo esta distribución basándose en estudios
efectuados en la última parte de su vida.
El número de enfermos que llegan a un consultorio en cierto intervalo de
tiempo será de 0, 1, 2,3, 4, 5 o algún otro numero entero. De manera análoga, si se
cuenta el número de automóviles que llegan a una caseta de cobro durante un periodo
de 10 minutos, el número será entero.
4.4.1 Propiedades
El campo de variación de la variable, al tratarse de un modelo discreto, es el
conjunto de los números naturales, incluido también el cero.
Sea x el número de veces que se repite el evento estudiado, y λ un número
positivo que nos indica el número de veces que se repite dicho evento durante un
intervalo de tiempo o espacio dado; donde λ será nuestro parámetro. Entonces, la
función de probabilidad de la distribución de Poisson es:
El valor de la media o esperanza y el de la varianza coinciden y son iguales al
parámetro λ: E[x]=Var[x]= λ.
11
La función generatriz es
12
Distribución exponencial: Cuando el número de eventos de un fenómeno
estudiado sigue una distribución de Poisson, entonces los tiempos discurridos
entre dos eventos seguidos diremos que sigue una distribución exponencial.
4.4.3 Aplicaciones.
Esta distribución puede ser encontrada en varias ocasiones de la vida
cotidiana, sobre todo en fenómenos relacionados con la naturaleza, es decir, con los
fenómenos que se dan 0, 1, 2….veces en un intervalo de tiempo o espacio. Algunos
ejemplos de estos fenómenos que podemos modelar con una distribución de Poisson
son:
El número de peces muertos encontrados por unidad de superficie en una
determinada área.
El número de vehículos que pasan por un radar fijo durante un intervalo de
tiempo concreto.
Número de llamadas telefónicas recibidas en una central por minuto.
El número de inventos llevados a cabo por una persona a lo largo de su
carrera. Y así podríamos continuar de forma infinita….
13
La probabilidad de que dos o más vehículos lleguen en un intervalo de un
segundo es tan reducida que podemos asignarle un valor cero.
El número de vehículos que llegan en determinado intervalo de un segundo es
independiente del momento en que el intervalo de un segundo ocurre durante
la hora de gran tráfico.
El número de llegadas en cualquier intervalo de un segundo no depende del
número de arribos de cualquier otro intervalo de un segundo.
Ahora bien, podemos generalizar partiendo de las cuatro condiciones que
hemos descrito en este ejemplo, si estas condiciones se cumplen nos apoyaremos en
una distribución de probabilidad de Poisson para describirlos.
14
El numero de estrellas en un determinado volumen de espacio.
La distribución de receptores visuales en la retina del ojo humano.
La inventiva de un inventor a lo largo de su carrera.
La distribución de la riqueza humana.
15
P (0) = 0,00674
P (1) = 0,03370
P (2) = 0,8425
P (3)= 0,14042
P (3 o menos) = 0,26511
Dado que la probabilidad de que haya 3 o menos accidentes es de 0,26511
entonces más de tres debe ser = 1-0,26511 = 0,73489.
La distribución de Poisson como una aproximación a la distribución binomial.
Algunas veces, si se desea evitar el tedioso trabajo de calcular las distribuciones
binominales, se puede usar a cambio la de Poisson, pero debe cumplir con ciertas
condiciones como:
n=>20
p=<0,05
En los casos en que se satisfacen tales condiciones, podemos sustituir la media de la
distribución binomial en lugar de la medida de la distribución de Poisson de modo
que la formula quedaría así:
P (x) = (np) X * e-np /x1!
16
4.6.1 Características
El proceso consta de un número no definido de pruebas o experimentos
separados o separables. El proceso concluirá cuando se obtenga por primera
vez el resultado deseado
(Éxitos).
Cada prueba puede dar dos resultados mutuamente excluyentes: A y no A.
La probabilidad de obtener un resultado A en cada prueba es p y la de
obtener un resultado no A es q siendo (p + q = 1). Las probabilidades p y q
son constante en todas las pruebas, por lo tanto, las pruebas son independiente
(si se trata de un proceso de “extracción” este se llevara a, cabo con
devolución del individuo extraído).
Derivación de la distribución. Si en estas circunstancia aleatorizamos de
forma que tomemos como variable aleatoria X = el número de pruebas
necesarias para obtener por primera vez un éxito o resultado A, esta variable
se distribuirá con una distribución geométrica de parámetro p.
4.6.2 Propiedades
Si la probabilidad de éxitos en cada ensayo es p, entonces la probabilidad de
que x ensayos sean necesarios para obtener un éxito es:
P(X = X)= (1-p) x-1p
Para x = 1, 2, 3,… equivalentemente, la probabilidad de que haya x fallos antes del
primer éxito es:
P (X = X) = (1 –p) xp
para x = 0, 1, 2, 3,…
En ambos casos, la secuencia de probabilidad es una progresión geométrica. El valor
esperado de una variable aleatoria X distribuida geométricamente es:
E (X) = 1/p
Y dado que Y = X-1
En ambos casos. La varianza es:
17
var (Y) = var (X) (1/p) /p2
Las funciones generatrices de probabilidad de X y la de Y son, respectivamente.
18
Y cabe destacar que 3,5 no es un valor posible al tirar el dado. En este caso, en
el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media
aritmética.
Una aplicación común de la esperanza matemática es en las apuestas o los
juegos de azar. Por ejemplo, la ruleta francesa tiene 37 casillas equiprobables. La
ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir,
cobramos 35 veces lo que hemos apostado). Por tanto, considerando los 37 posibles
resultados, la esperanza matemática del beneficio para apostar a un solo número es:
19
Siendo (p + q = 1).
Las probabilidades p y q son constantes en todas las pruebas, por tanto, las
pruebas, son independientes (si se trata de un proceso de "extracción" éste se llevará a
cabo con devolución del individuo extraído) .
(Derivación de la distribución). Si en estas circunstancias aleatorizamos de forma que
tomemos como variable aleatoria X = el número de pruebas necesarias para obtener
por primera vez un éxito o resultado A, esta variable se distribuirá con una
distribución geométrica de parámetro p.
20
4.8 Distribución hipergeometrica.
La distribución hipergeométrica es una distribución discreta que modela el
número de eventos en una muestra de tamaño fijo cuando usted conoce el número
total de elementos en la población de la cual proviene la muestra. Cada elemento de
la muestra tiene dos resultados posibles (es un evento o un no evento). Las muestras
no tienen reemplazo, por lo que cada elemento de la muestra es diferente. Cuando se
elige un elemento de la población, no se puede volver a elegir. Por lo tanto, la
probabilidad de que un elemento sea seleccionado aumenta con cada ensayo,
presuponiendo que aún no haya sido seleccionado.
Utilice la distribución hipergeométrica para muestras obtenidas de
poblaciones relativamente pequeñas, sin reemplazo. Por ejemplo, la distribución
hipergeométrica se utiliza en la prueba exacta de Fisher para probar la diferencia
entre dos proporciones y en muestreos de aceptación por atributos cuando se toman
muestras de un lote aislado de tamaño finito.
La distribución hipergeométrica se define por 3 parámetros: tamaño de la
población, conteo de eventos en la población y tamaño de la muestra.
Por ejemplo, usted recibe un envío de pedido especial de 500 etiquetas.
Supongamos que el 2% de las etiquetas es defectuoso. El conteo de eventos en la
población es de 10 (0.02 * 500). Usted toma una muestra de 40 etiquetas y desea
determinar la probabilidad de que haya 3 o más etiquetas defectuosas en esa muestra.
21
La probabilidad de que haya 3 o más etiquetas defectuosas en la muestra es de
0.0384.
22
Es bien sabido que la media de la suma de variables aleatorias (sean éstas
independientes o no) es la suma de las medias y por tanto la media de una
distribución hipergeométrica será, como en el caso de la binomial:
En cambio si las variables sumando no son independientes la varianza de la
variable suma no será la suma de las varianzas.
Si se evalúa el valor de la varianza para nuestro caso se obtiene que la varianza de
23
Esto es, la probabilidad de que X tome un valor en el intervalo [a, b] es el área bajo la
gráfica de la función de densidad, como lo ilustra la figura. La gráfica de f(x), se
conoce a veces como curva de densidad.
Gráficamente:
24
La función de distribución se obtiene integrando la función de densidad y
viene dada por:
Gráficamente:
25
Su función de densidad es de la forma:
Como vemos este modelo depende de un único parámetro α que debe ser
positivo: α > 0. A continuación se muestra un programa que nos permite ver cómo
cambia la forma de la función de densidad según el parámetro α.
La función de distribución se obtiene integrando la de densidad y es de la
forma:
26
Como vemos, este modelo depende de dos parámetros positivos: α y p. La
función Γ(p) es la denominada función Gamma de Euler que representa la siguiente
integral:
que verifica Γ(p + 1) = pΓ(p), con lo que, si p es un número entero positivo, Γ(p + 1)
= p!
El siguiente programa permite visualizar la forma de la función de densidad
de este modelo (para simplificar, se ha restringido al caso en que p es un número
entero).
27
4.17 Distribución normal.
En estadística y probabilidad se llama distribución normal, distribución de
Gauss, distribución gaussiana o distribución de Laplace-Gauss, a una de las
distribuciones de probabilidad de variable continua que con más frecuencia aparece
en estadística y en la teoría de probabilidades.
La gráfica de su función de densidad tiene una forma acampanada y es
simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce
como campana de Gauss y es el gráfico de una función gaussiana.
La importancia de esta distribución radica en que permite modelar numerosos
fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme
cantidad de variables incontrolables que en ellos intervienen, el uso del modelo
normal puede justificarse asumiendo que cada observación se obtiene como la suma
de unas pocas causas independientes.
De hecho, la estadística descriptiva sólo permite describir un fenómeno, sin
explicación alguna. Para la explicación causal es preciso el diseño experimental, de
ahí que al uso de la estadística en psicología y sociología sea conocido como método
correlacional.
La distribución normal también es importante por su relación con la
estimación por mínimos cuadrados, uno de los métodos de estimación más simples y
antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el
modelo de la normal son:
Caracteres morfológicos de individuos como la estatura;
Caracteres fisiológicos como el efecto de un fármaco;
Caracteres sociológicos como el consumo de cierto producto por un mismo grupo de
individuos;
Caracteres psicológicos como el cociente intelectual;
Nivel de ruido en telecomunicaciones;
Errores cometidos al medir ciertas magnitudes; etc.
28
La distribución normal también aparece en muchas áreas de la propia
estadística. Por ejemplo, la distribución muestral de las medias muestrales es
aproximadamente normal, cuando la distribución de la población de la cual se extrae
la muestra no es normal. Además, la distribución normal maximiza la entropía entre
todas las distribuciones con media y varianza conocidas, lo cual la convierte en la
elección natural de la distribución subyacente a una lista de datos resumidos en
términos de media muestral y varianza. La distribución normal es la más extendida en
estadística y muchos tests estadísticos están basados en una "normalidad" más o
menos justificada de la variable aleatoria bajo estudio.
que, como vemos, depende de dos parámetros μ (que puede ser cualquier valor real) y
σ (que ha de ser positiva). Por esta razón, a partir de ahora indicaremos de forma
abreviada que una variable X sigue el modelo Normal así: X ~ N(μ, σ). Por ejemplo,
si nos referimos a una distribución Normal con μ = 0 y σ = 1 lo abreviaremos N(0, 1).
A continuación presentamos la gráfica de esta función de densidad (donde se pueden
cambiar los parámetros):
Como se puede ver, la función de densidad del modelo Normal tiene forma de
campana, la que habitualmente se denomina campana de Gauss. De hecho, a este
modelo, también se le conoce con el nombre de distribución gaussiana.
29
Su varianza es σ2 y, por tanto, su desviación típica es σ.
Es simétrica respecto a su media μ, como puede apreciarse en la
representación anterior.
Media, moda y mediana coinciden (μ).
Cualquier transformación lineal de una variable con distribución Normal
seguirá también el modelo Normal. Si X ~ N(μ, σ) y definimos Y = aX + b (con a ≠
0), entonces Y ~ N(aμ + b, |a|σ).Es decir, la esperanza de Y será aμ + b y su
desviación típica, |a|σ.
Cualquier combinación lineal de variables normales independientes sigue
también una distribución Normal. Es decir, dadas n variables aleatorias
independientes con distribución Xi ~ N(μi, σi) para i = 1, 2, ..., n la combinación
lineal: Y = anXn + an−1Xn−1+ ... + a1X1 + a0 sigue también el modelo Normal:
30
Dado que la es la suma de n normales tipificadas al cuadrado podemos
afirmar, por el motivo de ser precisamente cuadrados, que el campo de actuación-
variación de la variable así distribuida será siempre positivo .La forma de la función
de densidad y distribución variarán según los grados de libertad, siendo su forma
habitual la campaniforme, así
31
Como hemos dicho, la representación gráfica de la distribución (su forma)
varía según los valores que tome su parámetro n (grados de libertad); así y como
puede observarse en el gráfico animado, para grados de libertad bajos (sobre todo
para un g.l.) El conjunto de la probabilidad queda muy próxima al valor cero de la
variable; de esta característica surge, para algunos tipos de contrastes que utilizan la
Chi2, la corrección de Yates
varianza
La distribución JHI-2 (chi 2) cumple el teorema de adición para su parámetro
n (grados de libertad), así la suma de dos chi2 con n y m grados de libertad
respectivamente, no será otra cosa que una chi2 con (n+m) grados de libertad. Es
lógico pensar que si una chi2 con n grados de libertad es la suma de n normales
tipificadas (independientes) al cuadrado; y que una chi2 con m grados de libertad es
la suma de m normales tipificadas (independientes) al cuadrado, la suma de ambas
será, obviamente, la suma de (m+n) normales tipificadas (independientes) al
cuadrado: es decir, una chi2 con (n+m) grados de libertad.
32
4.20 Esperanza.
La esperanza matemática es la suma de la probabilidad de cada posible
suceso multiplicado por la frecuencia de dicho proceso, es decir si tenemos una
variable cuantitativa discreta con posibles sucesos y probabilidades la esperanza
matemática es:
Ejemplo:
Cuatro personas apuestan € a que saldrá un número en un dado, cada uno a un
número diferente. Entonces por cada euro apostado si se gana recibes euros más.
¿Saldrá a cuenta apostar en este juego?
La probabilidad de perder € es, ya que perderemos si no sale el número elegido.
En cambio la probabilidad de ganar € es de.
Así la esperanza es: Por tanto por cada euro apostado podemos perder 0.33 céntimos.
Se dice que este es un juego de esperanza negativa.
Decimos que un juego es equitativo cuando la esperanza de beneficio es.
Si tenemos un juego con esperanza de beneficio positiva se dice que es un juego de
esperanza positiva.
33
K = Numero de desviaciones típicas
Partiendo de esta expresión general y desarrollando la parte que queda dentro
del valor absoluto tendríamos lo siguiente:
Si prestamos atención a la expresión anterior, se aprecia que la parte de la
izquierda no es mas es un intervalo de confianza. Este nos ofrece tanto una cota
inferior, como una superior para el valor estimado. Por lo tanto, la desigualdad de
Chebyshev nos dice la probabilidad mínima, de que el parámetro poblacional se
encuentre dentro de una determinada cantidad de desviaciones típicas por encima. O
dicho de otra manera, nos da la probabilidad de que el parámetro poblacional se
encuentre dentro de ese intervalo de confianza.
La desigualdad de Chebyshev proporciona cotas aproximadas para el valor
estimado. A pesar de tener cierto grado de imprecisión, es un teorema bastante útil
dado que se puede aplicar a un amplio abanico de variables aleatorias
independientemente de sus distribuciones. La única restricción para poder utilizar esta
desigualdad es que K tiene que ser mayor que 1 (k>1).
34
Sustituyendo el valor de K: 1-1/3^2 = 0,889 = 88,9%
Hay un 83,5% de los datos que están a una distancia de 2,46 desviaciones
típicas de la medida y un 88,9% que están a 3 desviaciones típicas de la medida
Utilizando la desigualdad de Chebyshev, es sencillo deducir que a mayor valor de K
(mayor desviación del valor sobre su medida) mayor probabilidad de que la variable
aleatoria se encuentra dentro del intervalo acotado.
35
primera vez por Jacob Bernouilli. Le llevo más de 20 años desarrollar una prueba
matemática suficientemente rigurosa que fue publicada en sus Ars Conjectandi [El
arte de la conjetura] en 1713. Bernouilli le llamo su << Teorema dorado>>, pero
llego a ser conocido generalmente como <<Teorema de Bernouilli>>. Este no debe
confundirse con el principio físico de igual nombre, del sobrino de Jacob, Daniel
Bernouilli. En 1873, S.D Poisson describió con más detalle bajo el nombre de <<la
loi des grands nombres>> (la ley de los grandes números). A partir de entonces, se
conoce con ambos nombres, pero se utiliza con mayor frecuencia la << ley de los
grandes números>>.
Después de que Bernouilli y Poisson publicasen sus esfuerzos, otros
matemáticos también contribuyeron al refinamiento de la ley, como Chebyshev,
Markov, Borel, Cantelli, Kolmogorov y Khinchin, que finalmente proporciono una
prueba completa de la ley d los grandes números: una se llama la ley “débil” y la otra
la ley “fuerte”, en referencia a dos modos diferentes de convergencia de la muestra
acumulada significa el valor esperado; en particular, como se explica a continuación,
la forma fuerte implica la débil.
Ley débil
La ley débil de los grandes números establece que si X1, X2, X3,… es una
sucesión infinita de variables aleatorias independientes que tienen el mismo valor
36
Ley fuerte
La ley fuerte de los grandes números establece que si X1, X2, X3,… es una
sucesión infinita de variables aleatorias independientes e idénticamente distribuidas
que cumplen E (|Xi|) < ∞ y tiene el valor esperado µ, entonces,
37
prefiere el nombre “teorema del límite central” (“central” califica al límite,
más que al teorema).
Este teorema, perteneciente a la teoría de la probabilidad, encuentra aplicación
en muchos campos relacionados, tales como la inferencia estadística o la
teoría de renovación.
38
39
CONCLUSIÓN
40
CONSULTAS BIBLIOGRÁFICAS
https://matematica.laguia2000.com/general/distribucion-de-poisson
https://groups.google.com/forum/#!topic/estadisticai/Nc56o9Vvio0
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t
9.htm
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t
14.htm
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-
distributions-and-random-data/supporting-topics/basics/continuous-and-discrete-
probability-distributions/
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t
12.htm
https://economipedia.com/definiciones/desigualdad-chebyshev-teorema.html
https://es.m.wikipedia.org/wiki/Teoremadell%C3%ADmitecentral
https://economipedia.com/definiciones/teorema-central-del-limite.html
https://es.m.wikipedia.org/wiki/leydelosgrandesn%C3%BAmeros#citenoteFOOTNO
TESeneta2013-6
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t
14.htm
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t
12.htm
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-
distributions-and-random-data/supporting-topics/distributions/hypergeometric-
distribution/
https://es.wikipedia.org/wiki/Distribución_geométrica
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/B0C4m1t
1.htm
41
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/B0C4m1t
3.htm
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/B0C4m1t
7.htm
https://www.uv.es/ceaces/normaMu/chi2/chi2.htm
https://www.sangakoo.com/es/temas/esperanza-matematica
42