Вы находитесь на странице: 1из 17

INSTITUTO TECNOLOGICO

SUPERIOR DE ACAYUCAN

ALUMNO: ANDRES DOMINGUEZ


RODRIGUEZ
GRUPO: 304 F
GRADO: 3ER SEMESTRE
SISTEMA: DOMINICAL
MATERIA: ESTADISTICA INFERENCIAL 1
DOCENTE: HENRY IZQUIERDO RAMIREZ
ACTIVIDAD: INVESTIGACION UNIDAD 1
ACAYUCAN VER, A 15 DE NOVIEMBRE DE
2019

1
INTRODUCCION

La estadística inferencial se dedica a la generación de los modelos, inferencias y


predicciones asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad
de las observaciones. Se usa para modelar patrones en los datos y extraer inferencias
acerca de la población bajo estudio. Estas inferencias pueden tomar la forma de
respuestas o preguntas, estimaciones de unas características numéricas.

La estadística inferencial se centra es tomar una pequeña muestra representativa de la


población y a partir de esta, infiere que el respeto de la población tiene el mismo
comportamiento.
En el siguiente trabajo se especificaran los siguientes puntos.

 1. Estimación.
 1.1. Características de un estimador.
 1.2. Estimación puntual.
 1.3. Estimación por intervalos.
 1.3.1. Intervalo de confianza para la media.
 1.3.2. Intervalo de confianza para la diferencia de medias.
 1.3.3. Intervalos de confianza para la proporción.
 1.3.4. intervalos de confianza para la diferencia de proporciones.
 1.3.5. Intervalos de confianza para la varianza.
 1.3.6. Intervalos de confianza para la relación de varianzas.
 1.4. Determinación del tamaño de muestra.
 1.4.1. Basado en la media de la población.
 1.4.2. Basado en la proporción de la población.

La estadística inferencial aporta metodología para conseguir este objetivo mediante


técnicas de estimación para asignar valores a un parámetro desconocido. Las
estimaciones puntuales no son una buena opción cuando constituyen el centro del
objetivo, aunque solucionan problemas de procedimiento por lo que son absolutamente
necesarias.

2
1. Estimación

Se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un


parámetro de una población a partir de los datos proporcionados por una muestra. Por
ejemplo, una estimación de la medida de una determinada característica de una población
de tamaño N podría ser la medida de esa misma característica para una muestra de
tamaño.
1.1 Características de un estimador

1) Sesgo. Se dice que un estimador es insesgado si la Media de la distribución del


estimador es igual al parámetro.

Estimadores insesgados son la Media muestral (estimador de la Media de la población) y


la Varianza (estimador de la Varianza de la población):

Ejemplo

En una población de 500 puntuaciones cuya Media (m) es igual a 5.09 han hecho un
muestreo aleatorio (número de muestras= 10000, tamaño de las muestras= 100) y hallan
que la Media de las Medias muestrales es igual a 5.09, (la media poblacional y la media
de las medias muestrales coinciden). En cambio, la Mediana de la población es igual a 5 y
la Media de las Medianas es igual a 5.1 esto es, hay diferencia ya que la Mediana es un
estimador sesgado.

La Varianza es un estimador sesgado. Ejemplo: La Media de las Varianzas obtenidas con


la Varianza

En un muestreo de 1000 muestras (n=25) en que la Varianza de la población es igual


a 9.56 ha resultado igual a 9.12, esto es, no coinciden. En cambio, al utilizar la
Cuasivarianza

La Media de las Varianzas muestrales es igual a 9.5, esto es, coincide con la Varianza de
la población ya que la Cuasivarianza es un estimador insesgado.

3
2) Consistencia. Un estimador es consistente si aproxima el valor del parámetro cuanto
mayor es n (tamaño de la muestra).
Algunos estimadores consistentes son:

Ejemplo

En una población de 500 puntuaciones cuya Media (m) es igual a 4.9 han hecho tres
muestreos aleatorios (número de muestras= 100) con los siguientes resultados:

Vemos que el muestreo en que n=100 la Media de las Medias muestrales toma el mismo
valor que la Media de la población.

3) Eficiencia. Diremos que un estimador es más eficiente que otro si la Varianza de la


distribución muestral del estimador es menor a la del otro estimador. Cuanto menor es la
eficiencia, menor es la confianza de que el estadístico obtenido en la muestra aproxime al
parámetro poblacional.
Ejemplo

La Varianza de la distribución muestral de la Media en un muestreo aleatorio (número de


muestras: 1000, n=25) ha resultado igual a 0.4. La Varianza de la distribución de Medianas
ha resultado, en el mismo muestreo, igual a 1.12, (este resultado muestra que la Media es
un estimador más eficiente que la Mediana).

4
1.2 Estimación puntual

Una estimación es puntual cuando se usa un solo valor extraído de la muestra para
estimar el parámetro desconocido de la población. Al valor usado se le llama estimador.

La media de la población se puede estimar puntualmente mediante la media de la muestra:

La proporción de la población se puede estimar puntualmente mediante la proporción de


la muestra:

La desviación típica de la población se puede estimar puntualmente mediante la


desviación típica de la muestra, aunque hay mejores estimadores:

Cuando estimamos un parámetro de forma puntual, podemos saber con certeza, cuál es
ese valor. Imaginemos una población de 30 personas de las que seleccionamos una
muestra de 20 para las que conocemos sus edades. Estimar de forma puntual la media
de edad, sería tan sencillo como sumar esos 20 datos y dividirlos entre el total de
la muestra estadística.

Pensemos ahora en que queremos estimar la altura media de esa muestra. Al contrario
que antes, no tenemos el valor de la altura de cada persona. En este caso no podríamos
realizar una estimación puntual, es decir, no podríamos hallar un valor concreto de esa
altura media. En este caso tendríamos que realizar una estimación por intervalos, es decir,
podríamos acotar el valor más alto y más bajo de las alturas de las personas con cierta
seguridad o lo que en estadística se conoce como cierto nivel de confianza.

Las propiedades deseables de un estimador son las siguientes:

 Insesgadez: Un estimador es insesgado cuando la esperanza matemática del este es


igual al parámetro que se desea estimar. Por tanto, la diferencia entre el parámetro a
estimar y la esperanza de nuestro estimador tendría que ser 0.

 Eficiente: Un estimador es más eficiente o tiene la capacidad de estimar de forma precisa


cuando su varianza es reducida. Por lo tanto ante 2 estimadores, siempre elegiremos el
que tenga una varianza menor.

 Consistencia: Un estimador consistente es aquel que a medida que la medida que la


muestra crece se aproxima cada vez más al valor real del parámetro. Por lo tanto, cuantos
más y valores entran en la muestra, el parámetro estimado será más preciso.

5
1.3 Estimación por intervalos

La estima de un parámetro poblacional dada por un número se llama estima del punto del
parámetro. La estima de un parámetro poblacional dada por dos números entre los cuales
se considera que se encuentra dicho parámetro se llama estima de intervalo del
parámetro.

EJEMPLO: Si se dice que una distancia viene dada por 5.28 pies, se está dando una
estima de punto. Si, por otra parte, se dice que la distancia es 5,28 +- 0.03 pies, es decir,
la distancia real se encuentra entre 5.25 y 5.31 pies, se está dando una estima de intervalo,

La precisión o conocimiento del error de una estima se conoce también como su


seguridad.

Dos problemas de diferencia estadística se dividen es problemas de estimación y


pruebas de hipótesis aunque en realidad son dos problemas de decisión y por lo tanto no
se pueden manejar con un enfoque limitado.

La diferencia principal entre las dos clases de problemas es que los problemas de
estimación debemos determinar el valor de un parámetro o los valores de varios
parámetros de un continuo posible de alternativas mientras que en las pruebas de
hipótesis debemos de medir si aceptamos o rechazamos un valor especifico o un
conjunto de valores específicos de un parámetro.

La estimación de un parámetro involucra el uso de los datos muéstrales en conjunción con


alguna estadística. Existen dos formas de llevar a cabo la anterior estimulación puntual o
intervalo.

En la primera se busca que con base a los datos muéstrales de origen a una estimulación
evaluada del parámetro y que recibe el nombre de estimador puntual. Para la segunda se
determina un intervalo en la que forma probable se encuentre el valor de parámetro y
recibe el nombre de intervalo de confianza.

1.3.1 intervalos de confianza para la media

Dada una variable aleatoria con distribución Normal N(μ, σ), el objetivo es la construcción
de un intervalo de confianza para el parámetro μ, basado en una muestra de tamaño n de
la variable.

Desde el punto de vista didáctico hemos de considerar dos posibilidades sobre la


desviación típica de la variable: que sea conocida o que sea desconocida y tengamos que
estimarla a partir de la muestra. El caso de σ conocida, ya comentado anteriormente, no
pasa de ser un caso académico con poca aplicación en la práctica, sin embargo es útil
desde el punto de vista didáctico.

Caso de varianza conocida

6
Dada una muestra X1,..., Xn, el estadístico

Se distribuye según una Normal estándar. Por tanto, aplicando el método del pivote
podemos construir la expresión

Donde zα/2 es el valor de una distribución Normal estándar que deja a su derecha una
probabilidad de α/2, de la que se deduce el intervalo de confianza

Puede repasarse la construcción más detallada.

Caso de varianza desconocida

Dada una muestra X1,..., Xn, el estadístico

Se distribuye según una t de Student de n − 1 grados de libertad. Por tanto, y siguiendo


pasos similares a los del apartado anterior, el intervalo de confianza resultante es

Donde tα/2 es el valor de una distribución t de Student con n − 1 grados de libertad que
deja a su derecha una probabilidad de α/2.

1.3.2 Intervalos de confianza para la diferencia de medias

Sean 11 x , 12 x , ... 1 n 1 x , una muestra aleatoria de n 1 observaciones tomadas de una


primera población con valor esperado μ1 , y varianza 2 σ 1 ; y 21 x , 22 x , ... 2 n 2 x , una
muestra aleatoria de n 2 observaciones tomada de la segunda población con valor
esperado μ 2 y varianza 2 σ 2 . Si x 1 y x 2 son las medias muestrales, la estadística x 1
− x 2 es un estimador puntual de μ1 − μ 2 , y tiene una distribución normal si las dos

7
poblaciones son normales, o aproximadamente normal si cumple con las condiciones del
teorema del límite central (tamaños de muestras relativamente grandes).

Para calcular el intervalo de confianza para la diferencia de dos medias se debe saber si
las varianzas poblacionales son conocidas o desconocidas, y en caso de que sean
desconocidas, se debe probar si son i guales o diferentes. Cada uno de estos tres casos
se analizará por separado.

Caso de varianza desconocida y común

Supondremos la existencia de dos poblaciones sobre las que una variable determinada
sigue una distribución Normal con idéntica varianza en las dos. Sobre la población 1, la
variable sigue una distribución N(µ1, σ) y, sobre la población 2, sigue una distribución N(µ2,
σ). Igualmente supondremos que disponemos de dos muestras aleatorias
independientes, una para cada población, de tamaños
muestrales n1 y n2 respectivamente.

El objetivo es construir un intervalo de confianza, con nivel de confianza (1 − α) · 100 %,


para la diferencia de medias

µ1 − µ2

El método se basa en la construcción de una nueva variable D, definida como la diferencia


de las medias muestrales para cada población

Esta variable, bajo la hipótesis de independencia de las muestras, sigue una distribución
Normal de esperanza

µ1 − µ2

Y de varianza

La estimación conjunta, a partir de las dos muestras, de la varianza común viene dada por
la expresión

Y, utilizando la propiedad de que la variable

8
Sigue una distribución χ2 con n1 + n2 − 2 grados de libertad, podemos construir un
estadístico pivote que siga una distribución t de Student y que nos proporciona la fórmula
siguiente para el intervalo de confianza para la diferencia de medias:

Donde tα/2 es el valor de una distribución t de Student con n1 + n2 − 2 grados de libertad


que deja a su derecha una probabilidad de α/2.

1.3.3 Intervalo de confianza para la proporción

Dada una variable aleatoria con distribución Binomial B(n, p), el objetivo es la
construcción de un intervalo de confianza para el parámetro p, basada en una observación
de la variable que ha dado como valor x. El mismo caso se aplica si estudiamos una
Binomial B(1, p) y consideramos el número de veces que ocurre el suceso que define la
variable al repetir el experimento n veces en condiciones de independencia.

Existen dos alternativas a la hora de construir un intervalo de confianza para p:

--Considerar la aproximación asintótica de la distribución Binomial en la distribución


Normal.

--Utilizar un método exacto.

Aproximación asintótica

Tiene la ventaja de la simplicidad en la expresión y en los cálculos, y es la más


referenciada en la mayoría de textos de estadística. Se basa en la aproximación

Que, trasladada a la frecuencia relativa, resulta

Tomando como estadístico pivote

9
Que sigue una distribución N(0, 1), y añadiendo una corrección por continuidad al pasar
de una variable discreta a una continua, se obtiene el intervalo de confianza asintótico:

Donde zα/2 es el valor de una distribución Normal estándar que deja a su derecha una
probabilidad de α/2 para un intervalo de confianza de (1 − α) · 100 %. Las condiciones
generalmente aceptadas para considerar válida la aproximación asintótica anterior son:

El intervalo obtenido es un intervalo asintótico y por tanto condicionado a la validez de la


aproximación utilizada.

Intervalo exacto

Aun cuando las condiciones anteriores no se verifiquen, es posible la construcción de un


intervalo exacto, válido siempre pero algo más complicado en los cálculos. Es posible
demostrar que un intervalo exacto para el parámetro p viene dado por los valores
siguientes:

Donde Fα/2,a,b es el valor de una distribución F de Fisher-Snedecor con a y b grados de


libertad que deja a su derecha una probabilidad de α/2 para un intervalo de confianza
de (1 − α) · 100 %.

1.3.4 Intervalo de confianza para la diferencia de proporciones

Los límites para el intervalo de una diferencia de proporciones correspondientes a dos


muestras independientes son:

Donde el símbolo zα/2 es el mismo valor crítico que antes, prob(Z > zα/2) = α/2, y
corresponde a un intervalo de confianza 1 − α %.

Este intervalo puede utilizarse de manera alternativa al contraste de hipótesis para decidir
(con nivel de significación α %) si hay igualdad de los dos grupos. Se decidirá por la
igualdad de los grupos si el valor 0 queda incluido en cualquier posición en el intervalo.

10
Aunque se haga el contraste de dos proporciones, en primer lugar, es aconsejable obtener
el intervalo de confianza de la diferencia de medias, si éste ha resultado significativo,
puesto que ayudará a interpretar si existe significación aplicada además de la estadística.

Si se dispone de alguna información previa y sólo quiere calcularse alguno de los dos
intervalos unilaterales, bastará sustituir zα/2 por zα y descartar el límite superior o inferior
del intervalo según el caso. Por ejemplo, el intervalo unilateral derecho corresponde a:

1.3.5 Intervalos de confianza para la varianza

Dada una variable aleatoria con distribución Normal N(μ; σ), el objetivo es la
construcción de un intervalo de confianza para el parámetro σ, basado en una muestra de
tamaño n de la variable.

A partir del estadístico:

La fórmula para el intervalo de confianza, con nivel de confianza 1 − α es la siguiente

Donde χ2α/2 es el valor de una distribución ji-cuadrado con n − 1 grados de libertad que
deja a su derecha una probabilidad de α/2.

Por ejemplo, dados los datos siguientes:

 Distribución poblacional: Normal

 Tamaño de muestra: 10

 Confianza deseada para el intervalo: 95 %

 Varianza muestral corregida: 38,5

Un intervalo de confianza al 95 % para la varianza de la distribución viene dado por:

Que resulta, finalmente

11
1.3.6 Intervalos de confianza para la relación de varianza

Supondremos la existencia de dos poblaciones sobre las que una determinada variable
sigue una distribución Normal. Sobre la población 1 la variable sigue una distribución N(µ1,
σ1) y sobre la población 2 sigue una distribución N(µ2, σ2). Igualmente supondremos que
disponemos de dos muestras aleatorias independientes, una para cada población, de
tamaños muestrales n1 y n2 respectivamente.

El objetivo es construir un intervalo de confianza, con nivel de confianza (1 − α) · 100 %,


para el cociente de varianzas

El estadístico pivote utilizado es

Que sigue una distribución F de Fisher con n1 − 1 y n2 − 1 grados de libertad.

El intervalo de confianza que resulta es

Donde Fα/2 es el valor de una distribución F de Fisher-Snedecor con n1 − 1 y n2 − 1 grados


de libertad que deja a su derecha una probabilidad de α/2.

1.4 Determinación del tamaño de muestras

Determinar el tamaño de la muestra que se va a seleccionar es un paso importante en


cualquier estudio de investigación de mercados, se debe justificar convenientemente de
acuerdo al planteamiento del problema, la población, los objetivos y el propósito de la
investigación.

12
¿De qué depende el tamaño muestral?

El tamaño muestral dependerá de decisiones estadísticas y no estadísticas, pueden incluir


por ejemplo la disponibilidad de los recursos, el presupuesto o el equipo que estará en
campo.
Antes de calcular el tamaño de la muestra necesitamos determinar varias cosas:

Tamaño de la población. Una población es una colección bien definida de objetos o


individuos que tienen características similares. Hablamos de dos tipos: población objetivo,
que suele tiene diversas características y también es conocida como la población teórica.
La población accesible es la población sobre la que los investigadores aplicaran sus
conclusiones.

Margen de error (intervalo de confianza). El margen de error es una estadística que


expresa la cantidad de error de muestreo aleatorio en los resultados de una encuesta, es
decir, es la medida estadística del número de veces de cada 100 que se espera que los
resultados se encuentren dentro de un rango específico.

Nivel de confianza. Son intervalos aleatorios que se usan para acotar un valor con una
determinada probabilidad alta. Por ejemplo, un intervalo de confianza de 95% significa que
los resultados de una acción probablemente cubrirán las expectativas el 95% de las veces.

La desviación estándar. Es un índice numérico de la dispersión de un conjunto de datos


(o población). Mientras mayor es la desviación estándar, mayor es la dispersión de la
población.

1.4.1 Basado en la media de la población

La media poblacional técnicamente no es una media sino un parámetro fijo que coincide
con la esperanza matemática de una variable aleatoria. El nombre "media poblacional" se
usa para significar qué valor numérico de una media muestral es numéricamente cercano
al parámetro media poblacional, para una muestra adecuada y suficientemente grande.
En una población cuya distribución es conocida pero desconocemos algún parámetro,
podemos estimar dicho parámetro a partir de una muestra representativa.

Un estimador es un valor que puede calcularse a partir de los datos muestrales y que
proporciona información sobre el valor del parámetro. Por ejemplo la media muestral es
un estimador de la media poblacional, la proporción observada en la muestra es un
estimador de la proporción en la población.

Una estimación es puntual cuando se obtiene un sólo valor para el parámetro. Los
estimadores más probables en este caso son los estadísticos obtenidos en la muestra,
aunque es necesario cuantificar el riesgo que se asume al considerarlos. Recordemos que
la distribución muestral indica la distribución de los valores que tomará el estimador al
13
seleccionar distintas muestras de la población. Las dos medidas fundamentales de esta
distribución son la media que indica el valor promedio del estimador y la desviación típica,
también denominada error típico de estimación, que indica la desviación promedio que
podemos esperar entre el estimador y el valor del parámetro.
Más útil es la estimación por intervalos en la que calculamos dos valores entre los que se
encontrará el parámetro, con un nivel de confianza fijado de antemano.

Llamamos Intervalo de confianza al intervalo que con un cierto nivel de confianza,


contiene al parámetro que se está estimando.

Nivel de confianza es la "probabilidad" de que el intervalo calculado contenga al verdadero


valor del parámetro. Se indica por 1-a y habitualmente se da en porcentaje (1-a)100%.
Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra,
el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos
es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1-a)%
de los intervalos así construidos contendría al verdadero valor del parámetro.
1.4.2 Basado en la proporción de la población

En poblaciones dicotómicas con una proporción de éxitos el estimador puntual del


parámetro es la proporción muestral
de éxitos, p, que coincide con la media de la muestra cuando se codifica como 1 la
característica que se considera como éxito y 0 la que se considera no éxito. A partir de un
tamaño muestral moderadamente grande el estadístico p tiene una distribución
aproximadamente normal. El intervalo de confianza para la proporción poblacional está
centrado en la proporción muestral; siendo sus límites superior e

inferior donde z /2 es el valor crítico correspondiente al grado de

confianza 1- de la distribución normal tipificada y es el error típico de la


proporción.

Para obtener el intervalo de confianza y contrastar hipótesis sobre la proporción una


alternativa consiste en tratar a la proporción como la media poblacional de una variable
dicotómica codificada como se ha descrito anteriormente (éxito=1, no éxito=0) y la
secuencia es:

 Para el intervalo de confianza:

Analizar

Estadísticos Descriptivos

14
Explorar

Para contrastar la hipótesis nula

Analizar

Comparar medias

Prueba T para una muestra

Utilizando este criterio los resultados numéricos no coinciden exactamente con los que se
obtendrían aplicando la expresión del error típico de la proporción; no obstante la
discrepancia es despreciable si el número de observaciones es suficientemente grande.

Otras alternativas para realizar este contraste son de naturaleza no paramétrica.

15
Conclusión

Analizando el estimador de la media muestral se concluye que para las distribuciones


continuas y discretas los dos métodos de estimación trabajados proporcionan las mismas
medidas descriptivas con una precisión de tres dígitos como lo son: la media, la varianza,
el error promedio de estimación, coeficiente de kurtosis, coeficiente de asimetría, mínimo
y máximo valor observados de los estimadores, límite superior e inferior de los intervalos
de confianza al 95% para la media poblacional, longitud promedio de los intervalos de
confianza y sesgo de estimación, sin embargo para tamaños muestrales menores a 30 la
longitud promedio de los intervalos de confianza.

Con el estimador de la mediana poblacional obtenida para distribuciones continuas como


son la Beta y Uniforme y para distintos valores de los parámetros poblacionales de las
mismas, podemos concluir que para tamaños muestrales impares el método de estimación
Jacknife obtiene valores del estimador que no se encuentran en los dominios de las
funciones de densidad

16
Bibliografía:
https://www.uv.es/webgid/Inferencial/42_caractersticas_estimadores.html
https://definiciones/estimacion-puntual.html

http://cidecame.uaeh.edu.mx/lcc/mapa/PROYECTO/libro19/61estimacin_puntual_y_por_
intervalos.html
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo8/B0C8m1t8.htm

http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo8/B0C8m1t15.ht
m

http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo8/B0C8m1t11.ht
m

http://recursostic.educacion.es/descartes/web/materiales_didacticos/inferencia_estadistic
a/estimac.htm

17

Вам также может понравиться