Вы находитесь на странице: 1из 5

VARIANZA DE DISPERSIÓN:

Las medidas de dispersión muestran la variabilidad de una distribución, indicándolo del peligro
verde por medio de un número, si las diferentes puntuaciones de una variable están muy alejadas
de la media. Cuanto mayor sea ese valor, mayor será la variabilidad, cuanto menor sea, más
homogénea será a la media. Así se sabe si todos los casos son parecidos o varían mucho entre
ellos.
Las medidas de dispersión son números reales no negativos, su valor es igual a cero cuando los
datos son iguales y este se incrementa a medida que los datos se vuelven más diversos.
Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media
de las desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las
desviaciones es siempre cero, así que se adoptan dos clases de estrategias para salvar este
problema. Una es tomando las desviaciones en valor absoluto (desviación media) y otra es
tomando las desviaciones al cuadrado (varianza).

 Desviación típica: La desviación típica informa sobre la dispersión de los datos respecto al
valor de la media.
 Rango: En estadística el es la diferencia entre el valor máximo y el valor mínimo en un grupo
de números aleatorios. Se le suele simbolizar con R.
 Medio rango: el rango medio o extremo medio de un conjunto de valores de datos estadísticos
es la media aritmética de los valores máximos y mínimos de un conjunto de datos.
 Rango intercuartílico: es una medida de dispersión estadística, igual a la diferencia entre los
percentiles 75 y 25.
 covarianza: es un estadístico que indica la relación de las puntuaciones entre sí
 Desviación media absoluta (MAD): es una medida sólida de la variabilidad de una muestra
univariable de datos cuantitativos.
 Diferencia media absoluta (univariante) es una medida de dispersión estadística igual a la
diferencia media absoluta de dos valores independientes extraídos de una distribución de
probabilidad.
 Desviación media

Medidas dimensionales:
La mayoría de las medidas de dispersión se encuentran en las mismas unidades de la cantidad que
está siendo medida. Entre ellas se encuentran principalmente:
Medidas adimensionales:
Otras medidas de dispersión son adimensionales. Ejemplos de ellas son:

 coeficiente de correlación de Pearson: permite saber si el ajuste de la nube de puntos a la


recta de regresión obtenida es satisfactorio.
 Diferencia absoluta media relativa
 Entropía: Mientras que la entropía de una variable discreta es de ubicación-invariante y
escala-independiente, y por lo tanto no es una medida de dispersión en el sentido anterior, la
entropía de una variable continua es invariante de ubicación y aditivo en escala.
 Coeficiente de variación
Varianza de una variable aleatoria
La varianza de una variable aleatoria es una característica numérica que proporciona una idea de
la dispersión de la variable aleatoria respecto de su esperanza. Decimos que es un parámetro de
dispersión.

La definición es la siguiente:

Es, por tanto, el promedio teórico de las desviaciones cuadráticas de los diferentes valores que
puede tomar la variable respecto de su valor medio teórico o esperanza.

En el caso de las variables discretas, la expresión se convierte en:

mientras que para las variables continuas tenemos:

En ambos casos existe una expresión equivalente alternativa y generalmente de cálculo más fácil:

Una de las características de la varianza es que viene expresada en unidades cuadráticas respecto
de las unidades originales de la variable. Un parámetro de dispersión derivado de la varianza y
que tiene las mismas unidades de la variable aleatoria es la desviación típica, que se define como
la raíz cuadrada de la varianza.

Propiedades de la varianza

1. Var(X) ≥ 0

2. Var(k · X) = k2 · Var (X) para todo numero real k.


3. Var(k) = 0 para todo numero real k.

4. Var(a · X + b) = a2 · Var(X) para todo par de números reales a i b.

5. Var(X + Y) = Var(X) + Var(Y) únicamente en el caso que X y Y sean independientes.

VARIANZA DE ESTIMACIÓN:

Estimar qué va a ocurrir respecto a algo (o qué está ocurriendo, o qué ocurrió), a pesar de ser un
elemento muy claramente estadístico, está muy enraizado en nuestra cotidianidad. Dentro de ello,
además hacemos estimaciones dentro de un intervalo de posibilidades. Por ejemplo: “creo que
terminaré la tarea en unos 5-6 días”. Lo que hacemos en el terreno del análisis de datos es aplicar
matizaciones técnicas a este hábito. Vamos a dedicar este documento al concepto de estimación,
comenzando con la estimación puntual. Después nos ocuparemos de desarrollar un modelo de
estimación por intervalo donde identificaremos los elementos fundamentales, con su significado
y símbolo. Y, por último, habrá que desarrollar cómo se calculan esos elementos.

La estimación puntual Estimar puede tener dos significados interesantes. Significa querer e
inferir. Desde luego, el primer significado es más trascendente. Pero no tiene ningún peso en la
estadística, disciplina que no se ocupa de los asuntos del amor. El segundo significado es el
importante aquí. Una estimación estadística es un proceso mediante el que establecemos qué valor
debe tener un parámetro según deducciones que realizamos a partir de estadísticos. En otras
palabras, estimar es establecer conclusiones sobre características poblacionales a partir de
resultados muestrales. Vamos a ver dos tipos de estimaciones: puntual y por intervalo. La segunda
es la más natural. Y verás que forma parte habitual de nuestro imaginario como personas sin
necesidad de una formación estadística.

La primera, la estimación puntual, es la más sencilla y, por ese motivo, vamos a comenzar por
ella. Ocurre, además, que la estimación por intervalo surge, poco más o menos, de construir un
intervalo de posibles valores alrededor de la estimación puntual. Una estimación puntual consiste
en establecer un valor concreto (es decir, un punto) para el parámetro. El valor que escogemos
para decir “el parámetro que nos preocupa vale X” es el que suministra un estadístico concreto.
Como ese estadístico sirve para hacer esa estimación, en lugar de estadístico suele llamársele
estimador. Así, por ejemplo, utilizamos el estadístico “media aritmética de la muestra” como
estimador del parámetro “media aritmética de la población”. Esto significa: si quieres conocer
cuál es el valor de la media en la población, estimaremos que es exactamente el mismo que en la
muestra que hemos manejado.

Estimación por intervalo Las estimaciones puntuales no son una buena opción cuando constituyen
el centro del objetivo, aunque solucionan problemas de procedimiento, por lo que son
absolutamente necesarias.

Es posible seguir caminos alternativos, pero el orden más lógico en una estimación por intervalo
viene a ser decidir la seguridad y, a partir de ella, calcular el valor que ha de tener el error de
precisión, construyendo acto seguido el intervalo. Si entramos en un esquema más sistemático,
he aquí el proceso:

1. Decidir cuáles son los valores deseados para la seguridad y la precisión, siendo conscientes de
que valores muy ambiciosos generarán situaciones muy exigentes.

2. Calcular el tamaño que ha de tener la muestra para conseguir esos objetivos iniciales de
precisión y seguridad. Este asunto será abordado específicamente en otro monográfico (Tamaño
de muestra).

3. Obtener la muestra.

4. Obtener el valor del estadístico utilizado como estimador, que suministra el punto central del
intervalo.

5. Calcular el error de precisión a partir de la información de la muestra y de la seguridad deseada.

6. Construir el intervalo.

Estimación por métodos Geoestadísticos

Estimación Global. Interesa estimar la ley media y el tonelaje de todo el yacimiento (o de una
zona grande dentro del depósito o yacimiento)

Estimación Local. Interesa estimar la ley media de unidades o bloques con el fin de localizar y
diferenciar las zonas ricas y pobres dentro de la zona de estimación.

Comentarios acerca del método:

• Todos los datos tienen el mismo peso 1/N

• Muy simple. Fácil de calcular

• Produce malos resultados cuando hay agrupaciones de datos.

• No funciona bien en estimaciones locales porque quedan bloques sin información.


Comentarios acerca del método:

• Complicado, requiere compás, regla, planímetro.

• El peso del dato Zi es Si / S.

• Funciona mejor con agrupaciones de datos que la media aritmética.

• Difícil de implementar en tres dimensiones.

• En general no es adecuado en estimaciones locales porque asigna la misma ley a todos los
bloques que están dentro de un mismo polígono. Produce problemas con datos anómalos.

Comentarios acerca del método:

• Simple, fácil de calcular.

• Se adapta mejor en estimaciones locales que globales.

• No funciona bien con agrupaciones de datos.

• Atribuye demasiado peso a las muestras cercanas al centro del bloque. En particular no está
definido si di = 0 (muestra en el centroide de S)

• No toma en cuenta la forma ni el tamaño del bloque Comentarios generales.

• Son empíricos.

• Son geométricos.

• No consideran la continuidad de las leyes.

• No consideran presencia de anisotropías, es decir direcciones en las cuales la variación de leyes


es privilegiada.

• Los métodos tradicionales no proporcionan el error asociado a la estimación, entregan solo la


ley media.

• En general estos métodos presentan un fenómeno conocido como sesgo condicional, es decir,
una sobre-estimación de las leyes altas y una sub-estimación de las leyes bajas.

Вам также может понравиться