Вы находитесь на странице: 1из 11

Conceptos De Estadística

William José González

Cogido 1082877115

Deibis José Cotes

Docente

Fundación Tecnológica Antonio De Arévalo

Tecnólogo En Contabilidad Sistematizada

Curso Estadística Descriptiva

Santa Marta

04 De Agosto De 2019
Población:

Es un conjunto de sujetos o elementos que presentan características comunes.


Sobre esta población se realiza el estudio estadístico con el fin de sacar
conclusiones.

Muestra:

Una muestra es un subconjunto de casos o individuos de una población. En


diversas aplicaciones interesa que una muestra sea representativa y para ello
debe escogerse una técnica de muestra adecuada que produzca una muestra
aleatoria adecuada (se obtiene una muestra sesgada cuyo interés y utilidad es
más limitado dependiendo del grado de sesgos que presente).
Como un subgrupo o subconjunto representativo de la población, extraída
seleccionada por algún método de muestreo. La muestra siempre es una parte de
la población. Si se tienen varias poblaciones, entonces se tendrán varias
muestras. La muestra debe poseer toda la información deseada para tener la
posibilidad de extraerla, esto solo se puede lograr con una buena selección de la
muestra y un trabajo muy cuidadoso y de alta calidad en la recogida de datos.

Censo: Se denomina censo, al recuento de individuos que conforman


una población estadística, definida como un conjunto de elementos de referencia
sobre el que se realizan las observaciones. El censo de una población estadística
consiste básicamente en obtener mediciones del número total de individuos
mediante diversas técnicas de recuento y se realiza cada determinado período.

Muestreo: En estadística se conoce como muestreo a la técnica para la selección


de una muestra a partir de una población.

Parámetros: Son las medidas o datos que se obtienen sobre la Distribución de


probabilidades de la población, tales como la media, la Varianza, la proporción,
etc.

Estadístico

Los datos o medidas que se obtienen sobre una muestra y por lo tanto
una estimación de los parámetros.

Error muestral:

De estimación o Standard. Es la diferencia entre un estadístico y


su parámetro correspondiente. Es una medida de la variabilidad de
las estimaciones de muestras repetidas en torno al valor de la población, nos da
una noción clara de hasta dónde y con qué probabilidad una estimación basada en
una muestra se aleja del valor que se hubiera obtenido por medio de
un censo completo.

Siempre se comete un error, pero la naturaleza de la investigación nos indicará


hasta qué medida podemos cometerlo (los resultados se someten
a muestral e intervalos de confianza que varían muestra a muestra). Varía según
se calcule al principio o al final. Un estadístico será más preciso en cuanto y tanto
su error es más pequeño. Podríamos decir que es la desviación de la distribución
muestral de un estadístico y su fiabilidad.

Nivel de confianza

Probabilidad de que la estimación efectuada se ajuste a la realidad. Cualquier


información que queremos recoger está distribuida según una ley de probabilidad
(Gauss o Student), así llamamos Nivel de confianza a la probabilidad de que el
intervalo construido en torno a un estadístico capte el verdadero valor del
parámetro.

Varianza poblacional

Cuando una población es más homogénea la varianza es menor y el número de


entrevistas necesarias para construir un modelo reducido del universo, o de la
población, será más pequeño. Generalmente es un valor desconocido y hay que
estimarlo a partir de datos de estudios previos.

Inferencia estadística

Trata el problema de la extracción de la información sobre la población contenida


en las muestras.

Para que los resultados obtenidos de los datos muéstrales se puedan extender a
la población, la muestra debe ser representativa de la población en lo que se
refiere a la característica en estudio, o sea, la distribución de la característica en la
muestra debe ser aproximadamente igual a la distribución de la característica en la
población.

La representatividad en estadística se logra con un muestreo adecuado que


siempre incluye la aleatoriedad en la selección de los elementos de la población
que formaran la muestra. No obstante, tales métodos solo nos garantizan una
representatividad muy probable pero no completamente segura.

Después de estos preliminares e imprescindibles conceptos es posible pasar a


tratar algunas de las formas, que desde el punto de vista científico se puede
extraer una muestra.

Al realizar un muestreo en una población podemos hablar de muestreos


probabilísticos y no probabilísticos, en nuestro caso nos referiremos a los
muestreos probabilísticos y dentro del mismo estudiaremos el Muestreo Aleatorio
Simple (MAS), como método básico en la estadística, el Muestreo Estratificado y
el Muestreo por Racimos.

Muestreo aleatorio simple: Es aquel en que cada elemento de la población tiene la


misma probabilidad de ser seleccionado para integrar la muestra.

Una muestra simple aleatoria es aquella en que sus elementos son seleccionados
mediante el muestreo aleatorio simple.

En la práctica no nos interesa el individuo o elemento de la población seleccionado


en general, sino solo una característica que mediremos u observaremos en él y
cuyo valor será el valor de una variable aleatoria que en cada individuo o elemento
de la población puede tomar un valor que será un elemento de cierto conjunto de
valores.

De modo que una muestra simple aleatoria se puede interpretar como un conjunto
de valores de n variables aleatorias independientes, cada una de las cuales tiene
la misma distribución que es llamada distribución poblacional.

Existen dos formas de extraer una muestra de una población: con reposición y sin
reposición.

 Muestreo con reemplazo: Es aquel en que un elemento puede ser


seleccionado más de una vez en la muestra para ello se extrae un elemento de
la población se observa y se devuelve a la población, por lo que de esta forma
se pueden hacer infinitas extracciones de la población aun siendo esta finita.

 Muestreo sin reemplazo: No se devuelve los elementos extraídos a la


población hasta que no se hallan extraídos todos los elementos de la población
que conforman la muestra.

Cuando se hace una muestra probabilística debemos tener en cuenta


principalmente dos aspectos:

1. El método de selección.
2. El tamaño de la muestra

Estimación:

Se llama estimación al conjunto de técnicas que permiten dar un valor


aproximado de un parámetro de una población a partir de los datos
proporcionados por una muestra. Por ejemplo, una estimación de la media de una
determinada característica de una población de tamaño N podría ser la media de
esa misma característica para una muestra de tamaño n.

La estimación se divide en tres grandes bloques, cada uno de los cuales tiene
distintos métodos que se usan en función de las características y propósitos del
estudio:
Estimación puntual:

Consiste en la estimación del valor del parámetro mediante un solo valor, obtenido
de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de
un determinado grupo de individuos, puede extraerse una muestra y ofrecer como
estimación puntual la talla media de los individuos. Lo más importante de un
estimador, es que sea un estimador eficiente. Es decir, que sea insesgado
(ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima)
Estimación puntual. Sea X una variable poblacional con distribución Fθ , siendo θ
desconocido. El problema de estimación puntual consiste en, seleccionada una
muestra X1,..., Xn, encontrar el estadístico T(X1,..., Xn) que mejor estime el
parámetro θ. Una vez observada o realizada la muestra, con valores x1,..., xn, se
obtiene la estimación puntual de θ, T(x1,..., xn) = ˆ θ.
Vemos a continuación dos métodos para obtener la estimación puntual de un
parámetro: método de los momentos y método de máxima verosimilitud. Método
de los momentos: consiste en igualar momentos poblacionales a momentos
muéstrales. Deberemos tener tantas igualdades como parámetros a estimar.
Momento poblacional de orden r αr = E (Xr) Momento muestral de orden r ar = Xn
i=1 Xr i n
Método de máxima verosimilitud: consiste en tomar como valor del parámetro
aquel que maximice la probabilidad de que ocurra la muestra observada. Si X1, ...,
Xn es una muestra seleccionada de una población con distribución Fθ o densidad
fθ(x), la probabilidad de que ocurra una realización x1, ..., xn viene dada por:
Lθ(x1, ..., xn) = Yn i=1 fθ(xi)
A Lθ(x1, ..., xn) se le llama función de verosimilitud.(credibilidad de la muestra
observada). Buscamos entonces el valor de θ que maximice la función de
verosimilud, y al valor obtenido se le llama estimación por máxima verosimilitud de
θ. Nota: si la variable X es discreta, en lugar de fθ(xi ) consideramos la función
masa de probabilidad pθ(xi).
Ejemplo 7.1: Sea X → N(µ, σ), con µ desconocido. Seleccionada una más. X1,...,
Xn, con realización x1,..., xn, estimamos el parámetro µ por ambos métodos.
Según el método de los momentos: E(X) = Xn i=1 Xi n = − X, y al ser µ = E(X) se
obtiene que ˆ µ = − x. Por el método de máxima verosimilitud: Lµ(x1, ..., xn) = Yn
i=1 fµ(xi ) = = Yn i=1 1 √ 2πσ e −(xi−µ) 2 2σ
Estimación por Intervalos de confianza 109 y maximizamos en µ tal función; en
este caso resulta más fácil maximizar su logaritmo: lnLµ(x1, ..., xn) = − 1 2σ 2 Xn
i=1 (xi − µ) 2 − n ln( √ 2πσ) ∂ ∂µ lnLµ(x1, ..., xn) = 1 σ 2 Xn i=1 (xi − µ) = n − x − nµ
σ 2 = 0 ⇐⇒ ˆ µ = −

Intervalo de confianza:
El intervalo de confianza es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es
el parámetro a estimar. Este intervalo contiene al parámetro estimado con un
determinado nivel de confianza. Pero a veces puede cambiar este intervalo
cuando la muestra no garantiza un axioma o un equivalente circunstancial.
Variabilidad del Parámetro:
Si no se conoce, puede obtenerse una aproximación en los datos aportados por la
literatura científica o en un estudio piloto. También hay métodos para calcular el
tamaño de la muestra que prescinde de este aspecto. Habitualmente se usa como
medida de esta variabilidad la desviación típica poblacional y se denota σ.
Error de la estimación:
Es una medida de su precisión que se corresponde con la amplitud del intervalo
de confianza. Cuanta más precisión se desee en la estimación de un parámetro,
más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o
disminuir el error, más observaciones deberán incluirse en la muestra estudiada.
En caso de no incluir nuevas observaciones para la muestra, más error se comete
al aumentar la precisión. Se suele llamar E, según la fórmula E = (θ2 - θ1)/2.
Límite de Confianza:
Es la probabilidad de que el verdadero valor del parámetro estimado en la
población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se
denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-
α)·100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se
corresponden con valores α de 0,05 y 0,01 respectivamente.
Valor α:
También llamado nivel de significación. Es la probabilidad (en tanto por uno) de
fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de
confianza (1-α). Por ejemplo, en una estimación con un nivel de confianza del
95%, el valor α es (100-95)/100 = 0,05
Valor crítico:
Se representa por Zα/2. Es el valor de la abscisa en una determinada distribución
que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza.
Normalmente los valores críticos están tabulados o pueden calcularse en función
de la distribución de la población. Por ejemplo, para una distribución normal, de
media 0 y desviación típica 1, el valor crítico para α = 0,1 se calcularía del
siguiente modo: se busca en la tabla de la distribución ese valor (o el más
aproximado), bajo la columna "Área"; se observa que se corresponde con -1,28.
Entonces Zα/2 = 1,64. Si la media o desviación típica de la distribución normal no
coinciden con las de la tabla, se puede realizar el cambio de variable t =(X-μ)/σ
para su cálculo.
Con estas definiciones, si tras la extracción de una muestra se dice que "3 es una
estimación de la media con un margen de error de 0,6 y un nivel de confianza del
99%", podemos interpretar que el verdadero valor de la media se encuentra entre
2,7 y 3,3, con una probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen
restando y sumando, respectivamente, la mitad del error, para obtener el intervalo
de confianza según las definiciones dadas.
Para un tamaño fijo de la muestra, los conceptos de error y nivel de confianza van
relacionados. Si admitimos un error mayor, esto es, aumentamos el tamaño del
intervalo de confianza, tenemos también una mayor probabilidad de éxito en
nuestra estimación, es decir, un mayor nivel de confianza.

Inferencia:

La inferencia estadística es el conjunto de métodos y técnicas que permiten


inducir, a partir de la información empírica proporcionada por una muestra, cual es
el comportamiento de una determinada población con un riesgo de error medible
en términos de probabilidad.

Los métodos paramétricos de la inferencia estadística se pueden dividir,


básicamente, en dos: métodos de estimación de parámetros y métodos de
contraste de hipótesis. Ambos métodos se basan en el conocimiento teórico de la
distribución de probabilidad del estadístico muestral que se utiliza como estimador
de un parámetro.

La estimación de parámetros consiste en asignar un valor concreto al parámetro o


parámetros que caracterizan la distribución de probabilidad de la población.
Cuando se estima un parámetro poblacional, aunque el estimador que se utiliza
posea todas las propiedades deseables, se comete un error de estimación que es
la diferencia entre la estimación y el verdadero valor del parámetro. El error de
estimación es desconocido por lo cual es imposible saber en cada caso cual ha
sido la magnitud o el signo del error; para valorar el grado de precisión asociado
con una estimación puntual se parte de dicha estimación para construir un
intervalo de confianza. En síntesis, un intervalo de confianza está formado por un
conjunto de valores numéricos tal que la probabilidad de que éste contenga al
verdadero valor del parámetro puede fijarse tan grande como se quiera. Esta
probabilidad se denomina grado de confianza del intervalo, y la amplitud deéste
constituye una medida del grado de precisión con el que se estima el parámetro.

Los métodos de contraste de hipótesis tienen como objetivo comprobar si


determinado supuesto referido a un parámetro poblacional, o a parámetros
análogos de dos o más poblaciones, es compatible con la evidencia empírica
contenida en la muestra. Los supuestos que se establecen respecto a los
parámetros se llaman hipótesis paramétricas. Para cualquier hipótesis
paramétrica, el contraste se basa en establecer un criterio de decisión, que
depende en cada caso de la naturaleza de la población, de la distribución de
probabilidad del estimador de dicho parámetro y del control que se desea fijar a
priori sobre la probabilidad de rechazar la hipótesis contrastada en el caso de ser
ésta cierta.

En todo contraste intervienen dos hipótesis. La hipótesis nula (Ho) es aquella que
recoge el supuesto de que el parámetro toma un valor determinado y es la que
soporta la carga de la prueba. La decisión de rechazar la hipótesis nula, que en
principio se considera cierta, está en función de que sea o no compatible con la
evidencia empírica contenida en la muestra. El contraste clásico permite controlar
a priori la probabilidad de cometer el error de rechazar la hipótesis nula siendo
ésta cierta; dicha probabilidad se llama nivel de significación del contraste ( ) y
suele fijarse en el 1%, 5% o 10%.

La proposición contraria a la hipótesis nula recibe el nombre de hipótesis


alternativa (H1) y suele presentar un cierto grado de indefinición: si la hipótesis
alternativa se formula simplemente como 'la hipótesis nula no es cierta', el
contraste es bilateral o a dos colas; por el contrario cuando se indica el sentido de
la diferencia, el contraste es unilateral o a una sola cola.

Cuando se realiza un contraste con el SPSS no se fija el nivel de significación


deseado, el programa calcula el valor-p o significación asintótica, que es la
probabilidad de que el estadístico de prueba tome un valor igual o superior al
muestral bajo el supuesto de que la hipótesis nula es cierta. Por tanto, si el valor-p
es menor o igual que el nivel de significación deseado se rechazará Ho. Un valor-p
próximo a cero indica que se rechazará la Ho para cualquier nivel de significación.

Media:

La media, también conocida como promedio, es el valor que se obtiene al dividir la


suma de un conglomerado de números entre la cantidad de ellos.

Algunas características de la media son:

 Considera todas las puntuaciones


 El numerador de la fórmula es la cantidad de valores
 Cuando hay puntuaciones extremas, no tiene una representación exacta de la
muestra.
Ejemplo de Media

En una tienda mayorista se quiere calcular el promedio de ventas que realizaron


los empleados durante el mes. Para calcular la media se realiza lo siguiente:

Mediana:
La mediana es un conjunto es un valor que se encuentra a la mitad de los otros
valores, es decir, que al ordenar los número de menor a mayor, éste se encuentra
justamente en medio entre los que están por arriba.

Algunas características de la media son:

 Las operaciones para calcular el valor son muy sencillas de realizar.


 La medida no depende de los valores de las variables, solamente de su orden.
 Generalmente, los valores son enteros.
 Se puede calcular aunque los números que se encuentren arriba y abajo no
tengan límites.

Ejemplo de Mediana

 La cantidad de valores es impar


Si se tienen los valores: 9,5,4,2,7, se ordenan: 2, 4, 5, 7, 9. El elemento de en
medio es el 5, ya que se encuentra dos valores por encima y dos valores por
debajo.
 La cantidad de valores es par
Si se tienen los valores 9, 5, 4,2, se ordenan: 2, 4, 5,9. En este caso se toman los
dos valores centrales 5 y 4, la mediana es el promedio de ambos: 9

Moda:

La moda es el valor que aparece más dentro de un conglomerado. En un grupo


puede haber dos modas y se conoce como bimodal, y más de dos modas o
multimodal cuando se repiten más de dos valores; se llama amodal cuando en un
conglomerado no se repiten los valores.

Por último, se conoce como moda adyacente cuando dos valores continuos tienen
la misma cantidad de repeticiones. En este caso se saca el promedio de ambos.

Las principales características de la moda son:

 Es una muestra muy clara


 Las operaciones para determinar el resultado son muy fáciles de elaborar
 Los valores que se presentan pueden ser cualitativos y cuantitativos.

Ejemplo: Edades de mis familiares

Nombres Edad
William Robert González 57
Nubia Esther Palacios 54
Yuleima Carreño 37
Katrim Lucia González 27
Gildar Andrés González 22
Zaira Saday González 6
José Irlandés Rojano 22
Amparo de Jesús 40
Juan Javier Palacios 43
Eduardo Luis Palacios 29

Calcular la media:

X= 57+54+37+27+22+6+22+40+43+29÷10

X= 33,7
Calcular la mediana:

6, 22, 22, 27, 29, 37, 40, 43, 54,57

Mediana= 66÷2= 33

Calcular la moda:

6, 22, 22, 27, 29, 37, 40, 43, 54, 57

Moda: 22, 22

Вам также может понравиться