Вы находитесь на странице: 1из 14

Unidad 1

Definicion
La estadística es una ciencia con base matemática referente a la recolección, análisis e
interpretación de datos, que busca explicar condiciones regulares en fenómenos de tipo aleatorio.
Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias sociales, desde
las ciencias de la salud hasta el control de calidad, y es usada para la toma de decisiones en áreas
de negocios e instituciones gubernamentales.

Fenómenos o sucesos
Llamamos fenómenos o sucesos aquellos cuyos resultados no pueden predecirse antes de la
realización. Son experimentos que no dan siempre el mismo resultado al repetirlos en las mismas
condiciones. Un suceso elemental en el resultado de cada una de las realizaciones del experimento
aleatorio.
Cualquier suceso al conjunto vacío se llama suceso imposible y por tanto, será un suceso que no se
produce nunca. Cualquier proceso que sea igual al espacio muestral se llama suceso seguro, es el
que ocurre siempre.

Universo o Población y Muestra


Al recoger datos relativos a las características de un grupo de individuos u objetos, sean alturas y
pesos de estudiantes de una universidad o tuercas defectuosas producidas en una fábrica, suele
ser imposible o nada práctico observar todo el grupo, en especial si es muy grande. En vez de
examinar el grupo entero, llamado población o universo, se examina una pequeña parte del grupo,
llamada muestra.
Una población puede ser finita o infinita. Por ejemplo, la población consistente en todas las tuercas
producidas por una fábrica un cierto día es finita, mientras que la determinada por todos los
posibles resultados (caras, cruces) de sucesivas tiradas de una moneda, es infinita.
Si una muestra es representativa de una población, es posible inferir importantes conclusiones
sobre las poblaciones a partir del análisis de la muestra. La fase de la estadística que trata con las
condiciones bajo las cuales tal diferencia es válida se llama estadística inductiva o inferencia
estadística. Ya que dicha inferencia no es del todo exacta, el lenguaje de las probabilidades
aparecerá al establecer nuestras conclusiones.
La parte de la estadística que sólo se ocupa de describir y analizar un grupo dado, sin sacar
conclusiones sobre un grupo mayor, se llama estadística descriptiva o deductiva.

Escalas de medición

1. Nominales: se utilizan nombres para establecer las categorías (sano,


enfermo;”1”,”2”;”rojo”,”verde”)
2. Ordinales: además de mostrar un ordenamiento, existe una relación “mayor o menor que”
en las categorías (“Pte., Vice Pte.”;”Primario, Secundario”)
3. De Intervalo: se mide de modo numérico. Los números permiten establecer “distancias”
entre dos individuos, y son realizables las suma y la resta, pero no multiplicación y división.
El “0” es un valor que no indica ausencia de la característica medida, y es colocado
arbitrariamente. (temperatura)
4. De Razón: usa un sistema numérico en que el “0” es un valor que indica ausencia de lo que
se está midiendo. El producto y la división adquieren significación. (Algo que pesa 6kg pesa
el doble que algo de 3kg)

USOS Y ABUSOS
Uso:

1. Conocer el porcentaje de la población que necesita agua.


2. Conocer el porcentaje de población que tiene diabetes.

3. Conocer el porcentaje de personas que utilizan tomate para preparar sus


comidas
4. Conocer el porcentaje de personas mexicanas que consumen tortilla.

Abuso:

1. Aprovechar dicho resultado para el aumento de precio.


2. Aprovechar el resultado para el aumento del precio de las medicinas.

3. Conocer el resultado de dicho estudio y aumentarles el $.

4. Conocer el resultado de dicho y aumentar el precio.


Unidad 2

Tabla de entrada de datos


1,1,2,3,5,5,7,7,7,8,9,10,10
Tabla de Frecuencia

X F
1 2
2 1
3 1
5 2
7 3
8 1
9 1
10 2

Gráfico de líneas

X(horas) Xm F
300-400 350 2
400-500 450 6
500-600 550 10
600-700 650 8
700-800 750 4
S 30

 Diagramas de barras: nombre que recibe el diagrama utilizado para representar


gráficamente distribuciones discretas de frecuencias no agrupadas. Se llama así
porque las frecuencias de cada categoría de la distribución se hacen figurar por
trazos o columnas de longitud proporcional, separados unos de otros. Existen tres
principales clases de gráficos de barras:
 Barra simple: se emplean para graficar hechos únicos

 Barras múltiples: es muy recomendable para comprar una serie estadística con
otra, para ello emplea barras simples se distinto color o tramado en un mismo
plano cartesiano, una al lado de la otra
 Barras compuestas: en este método de graficacion las barras de la segunda serie se
colocan encima de las barras de la primera serie en forma respectiva.
CIUDAD TEMPERATURA
A 12
B 18
C 24

Medidas de tendencia central


Media: sumatoria de n elementos / n
Mediana: el elemento central, o la media de los 2 centrales. Si la media y la mediana son
iguales, la distribución de la variable es simétrica.
Moda: el que más se repite.

Cuartiles y Percentiles
Cuartiles, Deciles y Percentiles:
Si un conjunto de datos está ordenado por magnitud, el valor central (o la media de los
dos centrales) que divide al conjunto en dos mitades iguales, es la mediana. Extendiendo
esa idea, podemos pensar en aquellos valores que dividen al conjunto de datos en cuatro
partes iguales. Esos valores denotados Q1, Q2, y Q3, se llaman primer cuartíl, segundo
cuartíl y tercer cuartíl, respectivamente. EL Q2 coincide con la mediana.
Análogamente, los valores que dividen a los datos en 10 partes iguales se llaman deciles, y
se le denotan D1, D2,...,D9, mientras que los valores que lodividen en 100 partes iguales se
llaman percentiles, denotados por P1, P2,...,P99. El 5º decil y el 50º percentil coinciden con
la mediana. Los 25º y 75º percentiles coinciden con el primer y tercer cuartiles.
Colectivamente, cuartiles, deciles y percentiles se denominan cuantiles.
Cuando los datos se distribuyen de forma simétrica (y ya hemos dicho que esto ocurre
cuando los valores de su media y mediana están próximos), se usan para describir esa
variable su media y desviación típica. En el caso de distribuciones asimétricas, la mediana y
la amplitud son medidas más adecuadas. En este caso, se suelen utilizar además los
cuartiles y percentiles.

Rango
Situación de un dato respecto de una distribución.

Desviación media
Diferencia entre un valor y otro valor medio o típico.

ESTADISTICA
Una vez que se han recogido los valores que toman las variables de nuestro estudio
(datos), procederemos al análisis descriptivo de los mismos. Para variables categóricas,
como el sexo o el estadiaje, se quiere conocer el número de casos en cada una de las
categorías, reflejando habitualmente el porcentaje que representan del total, y
expresándolo en una tabla de frecuencias.
Para variables numéricas, en las que puede haber un gran número de valores observados
distintos, se ha de optar por un método de análisis distinto, respondiendo a las siguientes
preguntas:
a. ¿Alrededor de qué valor se agrupan los datos?
b. Supuesto que se agrupan alrededor de un número, ¿cómo lo hacen? ¿muy
concentrados? ¿muy dispersos?

a. Medidas de tendencia central


Las medidas de centralización vienen a responder a la primera pregunta. La medida más
evidente que podemos calcular para describir un conjunto de observaciones numéricas es
su valor medio. La media no es más que la suma de todos los valores de una variable
dividida entre el número total de datos de los que se dispone.
Como ejemplo, consideremos 10 pacientes de edades 21 años, 32, 15, 59, 60, 61, 64, 60,
71, y 80. La media de edad de estos sujetos será de:

Más formalmente, si denotamos por (X1, X2,...,Xn) los n datos que tenemos recogidos de la
variable en cuestión, el valor medio vendrá dado por:

Otra medida de tendencia central que se utiliza habitualmente es la mediana. Es la


observación equidistante de los extremos.
La mediana del ejemplo anterior sería el valor que deja a la mitad de los datos por encima
de dicho valor y a la otra mitad por debajo. Si ordenamos los datos de mayor a menor
observamos la secuencia:
15, 21, 32, 59, 60, 60,61, 64, 71, 80.
Como quiera que en este ejemplo el número de observaciones es par (10 individuos), los
dos valores que se encuentran en el medio son 60 y 60. Si realizamos el cálculo de la
media de estos dos valores nos dará a su vez 60, que es el valor de la mediana.
Si la media y la mediana son iguales, la distribución de la variable es simétrica. La media es
muy sensible a la variación de las puntuaciones. Sin embargo, la mediana es menos
sensible a dichos cambios.
Por último, otra medida de tendencia central, no tan usual como las anteriores, es la
moda, siendo éste el valor de la variable que presenta una mayor frecuencia.
En el ejemplo anterior el valor que más se repite es 60, que es la moda
b. Medidas de dispersión
Tal y como se adelantaba antes, otro aspecto a tener en cuenta al describir datos
continuos es la dispersión de los mismos. Existen distintas formas de cuantificar esa
variabilidad. De todas ellas, la varianza (S2) de los datos es la más utilizada. Es la media de
los cuadrados de las diferencias entre cada valor de la variable y la media aritmética de la
distribución.

Esta varianza muestral se obtiene como la suma de las de las diferencias de cuadrados y
por tanto tiene como unidades de medida el cuadrado de las unidades de medida en que
se mide la variable estudiada.
En el ejemplo anterior la varianza sería:

Sx2=

La desviación típica (S) es la raíz cuadrada de la varianza. Expresa la dispersión de la


distribución y se expresa en las mismas unidades de medida de la variable. La desviación
típica es la medida de dispersión más utilizada en estadística.
Aunque esta fórmula de la desviación típica muestral es correcta, en la práctica, la
estadística nos interesa para realizar inferencias poblacionales, por lo que en el
denominador se utiliza, en lugar de n, el valor n-1.
Por tanto, la medida que se utiliza es la cuasidesviación típica, dada por:

Aunque en muchos contextos se utiliza el término de desviación típica para referirse a


ambas expresiones.
En los cálculos del ejercicio previo, la desviación típica muestral, que tiene como
denominador n, el valor sería 20.678. A efectos de cálculo lo haremos como n-1 y el
resultado seria 21,79.
El haber cambiado el denominador de n por n-1 está en relación al hecho de que esta
segunda fórmula es una estimación más precisa de la desviación estándar verdadera de la
población y posee las propiedades que necesitamos para realizar inferencias a la
población.
Cuando se quieren señalar valores extremos en una distribución de datos, se suele utilizar
la amplitud como medida de dispersión. La amplitud es la diferencia entre el valor mayor y
el menor de la distribución.
Por ejemplo, utilizando los datos del ejemplo previo tendremos 80-15 =65.
Como medidas de variabilidad más importantes, conviene destacar algunas características
de la varianza y desviación típica:

 Son índices que describen la variabilidad o dispersión y por tanto cuando los datos
están muy alejados de la media, el numerador de sus fórmulas será grande y la
varianza y la desviación típica lo serán.
 Al aumentar el tamaño de la muestra, disminuye la varianza y la desviación típica.
Para reducir a la mitad la desviación típica, la muestra se tiene que multiplicar por
4.

 Cuando todos los datos de la distribución son iguales, la varianza y la desviación


típica son iguales a 0.

 Para su cálculo se utilizan todos los datos de la distribución; por tanto, cualquier
cambio de valor será detectado.

Otra medida que se suele utilizar es el coeficiente de variación (CV). Es una medida de
dispersión relativa de los datos y se calcula dividiendo la desviación típica muestral por la media y
multiplicando el cociente por 100. Su utilidad estriba en que nos permite comparar la dispersión o
variabilidad de dos o más grupos. Así, por ejemplo, si tenemos el peso de 5 pacientes (70, 60, 56,
83 y 79 Kg) cuya media es de 69,6 kg. y su desviación típica (s) = 10,44 y la TAS de los mismos (150,
170, 135, 180 y 195 mmHg) cuya media es de 166 mmHg y su desviación típica de 21,3. La
pregunta sería: ¿qué distribución es más dispersa, el peso o la tensión arterial? Si comparamos las
desviaciones típicas observamos que la desviación típica de la tensión arterial es mucho mayor; sin
embargo, no podemos comparar dos variables que tienen escalas de medidas diferentes, por lo
que calculamos los coeficientes de variación:

CV de la variable peso =

CV de la variable TAS =

A la vista de los resultados, observamos que la variable peso tiene mayor dispersión.
Cuando los datos se distribuyen de forma simétrica (y ya hemos dicho que esto ocurre
cuando los valores de su media y mediana están próximos), se usan para describir esa
variable su media y desviación típica. En el caso de distribuciones asimétricas, la mediana y
la amplitud son medidas más adecuadas. En este caso, se suelen utilizar además los
cuartiles y percentiles.
Los cuartiles y percentiles no son medidas de tendencia central sino medidas de posición.
El percentil es el valor de la variable que indica el porcentaje de una distribución que es
igual o menor a esa cifra.
Así, por ejemplo, el percentil 80 es el valor de la variable que es igual o deja por debajo de
sí al 80% del total de las puntuaciones. Los cuartiles son los valores de la variable que
dejan por debajo de sí el 25%, 50% y el 75% del total de las puntuaciones y así tenemos
por tanto el primer cuartil (Q1), el segundo (Q2) y el tercer cuartil (Q3).

EJEMPLOS
1. VARIANZA
Esta medida nos permite identificar la diferencia promedio que hay entre cada uno de los
valores respecto a su punto central (Media ). Este promedio es calculado, elevando cada
una de las diferencias al cuadrado (Con el fin de eliminar los signos negativos), y
calculando su promedio o media; es decir, sumado todos los cuadrados de las diferencias
de cada valor respecto a la media y dividiendo este resultado por el número de
observaciones que se tengan. Si la varianza es calculada a una población (Total de
componentes de un conjunto), la ecuación sería:

Ecuación 5-6

Donde ( ) representa la varianza, (Xi) representa cada uno de los valores, ( ) representa
la media poblacional y (N) es el número de observaciones ó tamaño de la población. En el
caso que estemos trabajando con una muestra la ecuación que se debe emplear es:

Ecuación 5-7

Donde (S2) representa la varianza, (Xi) representa cada uno de los valores, ( ) representa
la media de la muestra y (n) es el número de observaciones ó tamaño de la muestra. Si nos
fijamos en la ecuación, notaremos que se le resta uno al tamaño de la muestra; esto se
hace con el objetivo de aplicar una pequeña medida de corrección a la varianza,
intentando hacerla más representativa para la población. Es necesario resaltar que la
varianza nos da como resultado el promedio de la desviación, pero este valor se encuentra
elevado al cuadrado.

2. Desviación estándar o Típica


Esta medida nos permite determinar el promedio aritmético de fluctuación de los datos
respecto a su punto central o media. La desviación estándar nos da como resultado un
valor numérico que representa el promedio de diferencia que hay entre los datos y la
media. Para calcular la desviación estándar basta con hallar la raíz cuadrada de la varianza,
por lo tanto su ecuación sería:

Ecuación 5-8

Para comprender el concepto de las medidas de distribución vamos a suponer que el


gerente de una empresa de alimentos desea saber que tanto varían los pesos de los
empaques (en gramos), de uno de sus productos; por lo que opta por seleccionar al azar
cinco unidades de ellos para pesarlos. Los productos tienen los siguientes pesos (490, 500,
510, 515 y 520) gramos respectivamente.

Por lo que su media es:


La varianza sería:

Por lo tanto la desviación estándar sería:

Con lo que concluiríamos que el peso promedio de los empaques es de 507 gramos, con
una tendencia a variar por debajo o por encima de dicho peso en 12 gramos. Esta
información le permite al gerente determinar cuanto es el promedio de perdidas causado
por el exceso de peso en los empaques y le da las bases para tomar los correctivos
necesarios en el proceso de empacado.
Unidad 3 “Probabilidad”

Definición
La probabilidad mide la frecuencia con la que ocurre un resultado en un experimento bajo
condiciones suficientemente estables.
Definición 2: Dado un experimento aleatorio con un espacio de n sucesos elementales , la
probabilidad del suceso A, que designamos mediante P(A), es la razón entre la cantidad de casos
favorables para la ocurrencia de A y la de casos posibles. En otros términos

donde nA es la cantidad de casos favorables de A.


Espacio Muestral
Espacio muestral es el conjunto formado por todos los posibles resultados de un experimento
aleatorio.
Evento o suceso

Cuando se tiene un espacio muestral llamamos, formalmente evento o suceso a cualquier


subconjunto del espacio muestral.
Decimos que un suceso se realiza, cuando el resultado del experimento aleatorio es uno
de los sucesos posibles.

El experimento tiene que ser aleatorio, es decir, que pueden presentarse diversos
resultados, dentro de un conjunto posible de soluciones, y esto aún realizando el
experimento en las mismas condiciones. Por lo tanto, a priori no se conoce cual de los
resultados se va a presentar:
Ejemplo: lanzamos una moneda al aire: el resultado puede ser cara o cruz, pero no
sabemos de antemano cual de ellos va a salir.
Hay experimentos que no son aleatorios y por lo tanto no se les puede aplicar las reglas
de la probabilidad.
Ejemplo: en lugar de tirar la moneda al aire, directamente selccionamos la cara. Aquí no
podemos hablar de probabilidades, sino que ha sido un resultado determinado por uno
mismo.

Reglas de la Adición
La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos sucesos
A y B es igual a:
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente
P(A o B) = P(A) + P(B) – P(A y B) si A y B son no excluyentes
Siendo: P(A) = probabilidad de ocurrencia del evento A
P(B) = probabilidad de ocurrencia del evento B
P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B
Eventos Independientes
Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento
no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso
típico de eventos independiente es el muestreo con reposición, es decir, una vez tomada la
muestra se regresa de nuevo a la población donde se obtuvo.
Ejemplo:
lanzar al aire dos veces una moneda son eventos independientes por que el resultado del
primer evento no afecta sobre las probabilidades efectivas de que ocurra cara o sello, en el
segundo lanzamiento.
Eventos dependientes
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de
ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso,
empleamos entonces, el concepto de probabilidad condicional para denominar la
probabilidad del evento relacionado. La expresión P(A|B) indica la probabilidad de
ocurrencia del evento A sí el evento B ya ocurrió.
Se debe tener claro que A|B no es una fracción.
P(A|B) = P(A y B)/P(B) o P(B|A) = P(A y B)/P(A)
Reglas de Multiplicación
Se relacionan con la determinación de la ocurrencia de conjunta de dos o más eventos. Es
decir la intersección entre los conjuntos de los posibles valores de A y los valores de B, esto
quiere decir que la probabilidad de que ocurran conjuntamente los eventos A y B es:
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes
P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes

Ejemplos
Regla de la Suma

Si A y B son dos eventos que no son mutuamente excluyentes, entonces


P(A o B) se calcula con la siguiente fórmula:
P(A o B) = P(A) + P(B) - P(A y B)

Diagrama de Venn que ilustra esta regla

Ejemplo
En una muestra de 500 estudiantes, 320 dijeron tener un estéreo,
175 dijeron tener una TV y 100 dijeron tener ambos:

Si un estudiante es seleccionado aleatoriamente,


¿cuál es la probabilidad de que tenga sólo un estéreo, sólo una TV y uno de cada
uno?
P(S) = 320 /500 = .64.
P(T) = 175 /500 = .35.
P(S y T) = 100 /500 = .20.

Si un estudiante es seleccionado aleatoriamente,


¿cuál es la probabilidad de que tenga un estéreo o una TV en su habitación?
P(S o T) = P(S) + P(T) - P(S y T)
= .64 +.35 - .20 = .79.

Regla especial de la multiplicación

La regla especial de multiplicación requiere que dos eventos A y B sean


independientes.
Dos eventos A y B son independientes si la ocurrencia de una no afecta la
probabililidad de ocurrencia del otro.
La regla especial se escribe: P(A y B) = P(A) * P(B).
Ejemplo
Chris posee dos inventarios independientes uno de otro.
La probabilidad de que el inventario A aumente su valor el próximo año es .5. La
probabilidad de que el B aumente el suyo es .7.
¿Cuál es la probabilidad de que ambos aumenten su valor el próximo año?
P(A y B) = (.5)(.7) = .35.

¿Cuál es la probabilidad de que al menos uno aumente su valor el próximo año


(esto implica que cualquiera de los dos o ambos aumenten)?
Así, P(al menos uno) = (.5)(.3) + (.5)(.7) + (.7)(.5) = .85.

Regla general de multiplicación

La regla general de multiplicación se utiliza para determina la probabilidad


conjunta de que ocurran dos eventos y establece:
para dos eventos A y B, la probabilidad conjunta que ambos ocurran se encuentra
multiplicando la probabilidad de A por la probabilidad condicional de B dado que A
ocurrió.
La probabilidad conjunta, P(A y B) está dada por la siguiente fórmula:
P(A y B) = P(A) * P(B|A)
o
P(A y B) = P(B) * P(A|B)

Ejemplo
La directora de la escuela de administración en Miami recolectó la siguiente
información acerca de los estudiantes de licenciatura del colegio:

Si un estudiante se selecciona al azar, ¿cuál es la probabilidad de que el estudiante


sea mujer del área de contabilidad?
P(A y F) = 110 / 1000.
Dado que la estudiante es mujer, ¿cuál es la probabilidad que esté en el área de
contabilidad?
P(A|F) = [P(A y F)] / [P(F)] = [110 / 1000] /[400 / 1000] = .275.
Unidad 4 “Distribuciones de Probabilidad”

Variable aleatoria

Una variable aleatoria es un valor numérico determinado por el resultado de un


experimento.
Ejemplo: considere un experimento aleatorio en el que se lanza tres veces una moneda.
Sea X el número de caras. Sea H el resultado de obtener una cara y T el de obtener una
cruz.

Distribución de probabilidades

Una distribución probabilística es la enumeración de todos los resultados de un


experimento junto con las probabilidades asociadas.
Para el Ejemplo anterior,
Números de caras Probabilidad de los resultados
0 1/8 = 0.125
1 3/8 = 0.375
2 3/8 = 0.375
3 1/8 = 0.125
total 8/8 = 1

La probabilidad de un resultado siempre debe estar entre 0 y 1.


La suma de todos los resultados mutuamente excluyentes siempre es 1.

Variable aleatoria discreta

Una variable aleatoria discreta es una variable que puede tomar sólo ciertos valores
diferentes que son el resultado de la cuenta de alguna característica de interés.
EJEMPLO 2: sea X el número de caras obtenidas al lanzar 3 veces una moneda. Aquí los
valores de X son x = 0, 1, 2, 3

Variable aleatoria continua

Variable que toma un valor infinito de valores no numerables. Una variable aleatoria es continua si
su conjunto de posibles valores es todo un intervalo de números; esto es, si para algún a < b,
cualquier número x entre a y b es posible.

Distribuciones de variable discreta

Se denomina distribución de variable discreta a aquella cuya


función de probabilidad sólo toma valores positivos en un
conjunto de valores de X finito o infinito numerable. A dicha
función se la llama función de masa de probabilidad.

Distribuciones de variable continua

Se denomina variable continua a aquella que puede tomar


cualquiera de los infinitos valores existentes dentro de un intervalo.

Distribución binomial
En estadística, la distribución binomial es una distribución de probabilidad discreta, mide
el número de éxitos en una secuencia de n ensayos independientes de Bernoulli , con una
probabilidad fija θ de ocurrencia del éxito entre los ensayos.
La distribución binomial es una generalización de la distribución de Bernoulli, a la que
puede llegarse nuevamente haciendo n = 1.
Su función de masa de probabilidad está dada por:

para , siendo las combinaciones de en (


elementos tomados de en )

Por ejemplo, la distribución binomial se puede usar para calcular la probabilidad de sacar 5
caras y 7 cruces en 12 lanzamientos de una moneda. En realidad solo se calcula la
probabilidad de sacar 5 caras, pero como es lógico si en 12 lanzamientos de una moneda
sacamos 5 caras el resto deben ser cruces, 7 en este caso.
Por lo tanto debemos definir la variable "X: Número de caras obtenidas en 12
lanzamientos de moneda". En este caso se tiene que y resulta:

Observese que para el caso concreto de la moneda al ser la probabilidad de éxito θ = 0,5 la

función de masa de probabilidad solo depende del número combinatorio ya que:


0,5x(1 − 0,5)n − x = 0,5x0,5n − x = 0,5n − x + x = 0,5n que es constante para un n fijo.
Su media y su varianza son:

Experimento binomial

La variable aleatoria binomial y su distribución están basadas en un experimento que


satisface las siguientes condiciones:

 El experimento consiste en una secuencia de n ensayos, donde n se fija antes del


experimento.
 Los ensayos se realizan bajo idénticas condiciones, y cada uno de ellos tiene unicamente
dos posibles resultados, que se denotan a conveniencia por éxito (E) o fracaso (F) (p(E)
+p(F)=1).

 Los ensayos son independientes, por lo que el resultado de cualquier ensayos en particular
no influye sobre el resultado de cualquier otro intento.

 La probabilidad de éxito es idéntica para todos los ensayos.

Siguiendo estas premisas, la variable aleatoria binomial X está definida como


X = el número de E entre los n intentos.

Distribución de Poisson

En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de


probabilidad discreta. Expresa la probabilidad de un número k de eventos ocurriendo en un tiempo
fijo si estos eventos ocurren con una tasa media conocida, y son independientes del tiempo desde
el último evento.

Ocurrencia

La distribución Poisson, Se aplica a varios fenómenos discretos de la naturaleza (esto es,


aquellos fenómenos que ocurren 0, 1, 2, 3, ... veces durante un periodo definido de
tiempo o en una área determinada) cuando la probabilidad de ocurrencia del fenómeno es
constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados
por la distribución Poisson incluyen:

 El número de autos que pasan a través de un cierto punto en una ruta


(suficientemente distantes de los semáforos) durante un periodo definido de tiempo.
 El número de errores de ortografía que uno comete al escribir una única página.
 El número de llamadas telefónicas en una central telefónica por minuto.
 El número de servidores web accedidos por minuto.

Distribución normal

La distribución normal, también llamada distribución de Gauss o distribución gaussiana,


es la distribución de probabilidad que con más frecuencia aparece en estadística y teoría
de probabilidades. Esto se debe a dos razones fundamentalmente:

 Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación


como modelo a gran número de variables estadísticas.

 Es, además, límite de otras distribuciones y aparece relacionada con multitud de


resultados ligados a la teoría de las probabilidades gracias a sus propiedades matemáticas.

La función de densidad está dada por:

donde (mu) es la media y (sigma)


es la desviación estándar ( es la
varianza).
Muchas variables aleatorias continuas
presentan una función de densidad
cuya gráfica tiene forma de campana.
La importancia de la distribución
normal se debe principalmente a que
hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal:

 Caracteres morfológicos de individuos


 Caracteres fisiológicos como el efecto de un fármaco
 Caracteres sociológicos como el consumo de cierto producto por un mismo grupo de
individuos
 Caracteres psicológicos como el cociente intelectual
 Nivel de ruido en Telecomunicaciones
 Errores cometidos al medir ciertas magnitudes
 Valores estadísticos muestrales como la media

Вам также может понравиться