Вы находитесь на странице: 1из 24

INTRODUCCION

El cobre es un pilar de la civilización: estaba presente cuando la Edad de Piedra quedó atrás, fue
una herramienta importante para inventores, artesanos y artistas durante milenios, sirvió para hacer
realidad el vértigo del progreso durante los últimos dos siglos, y es un elemento clave para el futuro
de la humanidad.

Los seres humanos de comienzos del siglo XXI están en contacto permanente con el cobre, en sus
casas, en sus oficinas, en las calles, en los automóviles, cuando realizan acciones inherentes a la
vida moderna: prender la luz, hablar por teléfono o tomar agua en sus casas.

Y ese contacto aumenta con el alumbramiento de nuevas tecnologías.

La forma de presentación más común del cobre en estado puro es como un metal rojizo. Pero
también tiene otras facetas: participa en unas 450 aleaciones. Y, por cierto, aparece como
componente de la naturaleza: el cobre es indispensable para la vida animal y vegetal en la Tierra.

La dispersión con que aparece el cobre hace necesario someter los minerales extraídos a procesos
productivos con la finalidad de obtener un metal puro.

En el principio de la historia del cobre los seres humanos lo encontraron en estado natural, y lo
adaptaron para diversos usos con simples técnicas de calentamiento y martilleo.

Posteriormente, las primeras metalurgias permitieron trabajar vetas de alta pureza donde obtenían
minerales como la malaquita (carbonato de cobre), que sometida a un proceso de fundición simple
permitía obtener pepitas de cobre puro.

Pero a medida que progresaba la civilización también comenzaron a agotarse los minerales con alta
ley de cobre, y los procesos metalúrgicos desarrollados durante milenios para obtener el metal
debieron ser reemplazados paulatinamente por nuevas técnicas para el manejo del material
mineralizado.

La alta demanda generada a partir de la Revolución Industrial fue un estímulo para la búsqueda de
tecnologías que permitieran aprovechar los yacimientos porfíricos con baja ley en los cuales el
metal está esparcido en grandes áreas y mezclado con gran cantidad de componentes y roca estéril,
como los que se explotan en la actualidad.

En la cadena de la industria del cobre las empresas mineras como Codelco extraen el mineral desde
los yacimientos y lo procesan para obtener un metal de alta pureza que venden a sus principales
clientes, los fabricantes de semielaborados, quienes a su vez lo transformarán para ofrecerlo en
forma atractiva a productores de artículos de consumo.

Las empresas mineras productoras de cobre como materia prima y sus clientes mantienen un
mercado de unos 30.000 millones de dólares anuales.

Los productores de cobre y sus clientes realizan las transacciones del metal rojizo en tres mercados
internacionales: la Bolsa de Metales de Londres, el COMEX de la Bolsa Mercantil de Nueva York
y la Bolsa de Metales de Shanghai.

Las bolsas establecen un precio del día y además cotizaciones para las transacciones a futuro, lo
cual ofrece un interesante escenario para negociar contratos y opciones de compra sobre lotes de
cobre.

El precio del cobre depende de las condiciones del mercado internacional, y tiende a subir cuando la
demanda es más fuerte.
 OBJETIVOS:

 Análisis del cobre para la extracción de mineral puro de alta ley.


 Análisis del cobre como materia prima esencial para la vida humana.

 OBJETIVOS SECUNDARIOS:

 El cobre es indispensable para el futuro, en especial por las tendencias de una


civilización que avanza hacia un mayor consumo de energía, un mayor uso de las
tecnologías de la información y la comunicación, una mayor necesidad de confort y
seguridad, y una mayor preocupación por el medio ambiente y la salud.
 El cobre forma parte del mundo que nos rodea.
 El cobre es clave para la generación y distribución eléctrica ya que es un excelente
conductor de esa energía.
MEDIA

Construcción geométrica para hallar las medias aritmética, geométrica, armónica y cuadrática de


dos números a y b.

Comparación de la media aritmética, la mediana y


la moda de dos distribuciones log-normal con diferente asimetría.

En matemáticas y estadística una media o promedio es una medida de tendencia central que según


la Real Academia Española (2001) resulta al efectuar una serie determinada de operaciones con un
conjunto de números y que, en determinadas condiciones, puede representar por sí solo a todo el
conjunto». Existen distintos tipos de medias, tales como la media geométrica, la media ponderada y
la media armónica aunque en el lenguaje común, el término se refiere generalmente a la media
aritmética.

Media aritmética:
La media aritmética es un promedio estándar que a menudo se denomina "promedio".

La media se confunde a veces con la mediana o moda. La media aritmética es el promedio de un


conjunto de valores, o su distribución; sin embargo, para las distribuciones con sesgo, la media no
es necesariamente el mismo valor que la mediana o que la moda. La media, moda y mediana son
parámetros característicos de una distribución de probabilidad. Es a veces una forma de medir el
sesgo de una distribución tal y como se puede hacer en las distribuciones exponencial y de Poisson.
Por ejemplo, la media aritmética de 34, 27, 45, 55, 22, 34 (seis valores) es 

 Media aritmética ponderada


A veces puede ser útil otorgar pesos o valores a los datos dependiendo de su relevancia para
determinado estudio. En esos casos se puede utilizar una media ponderada. Si   
es un conjunto de datos o media muestral y   son números reales positivos,
llamados "pesos" o factores de ponderación, se define la media ponderada relativa a esos pesos
como:
La media es invariante frente a transformaciones lineales, cambio de origen y escala, de las
variables, es decir si X es una variable aleatoria e Y es otra variable aleatoria que depende
linealmente de X, es decir, Y = a·X + b (donde a representa la magnitud del cambio de escala y b la
del cambio de origen) se tiene que:

 Media geométrica
La media geométrica es un promedio muy útil en conjuntos de números que son interpretados en
orden de su producto, no de su suma (tal y como ocurre con la media aritmética). Por ejemplo, las
velocidades de crecimiento.

Por ejemplo, la media geométrica de la serie de números 34, 27, 45, 55, 22, 34 (seis valores)
es 

 Media armónica
La media armónica es un promedio muy útil en conjuntos de números que se definen en relación
con alguna unidad, por ejemplo la velocidad (distancia por unidad de tiempo).

Por ejemplo, la media armónica de los números: 34, 27, 45, 55, 22, y 34 es:

Generalizaciones de la media
Existen diversas generalizaciones de las medias anteriores.
 Media generalizada
Las medias generalizadas, también conocidas como medias de Hölder, son una abstracción de las
medias cuadráticas, aritméticas, geométricas y armónicas. Se definen y agrupan a través de la
siguiente expresión:
Eligiendo un valor apropiado del parámetro m, se tiene:

  - máximo,
  - media cuadrática,
  - media aritmética,
  - media geométrica,
  - media armónica,
  - mínimo.
Media-f generalizada
Esta media puede generalizarse para una función monótona como la media-f generalizada:

donde   sea una función inyectiva e   un intervalo. Escogiendo formas


particulares para f se obtienen algunas de las medias más conocidas:

  - media aritmética, 

  - media armónica, 
  - media generalizada, 
  - media geométrica,  .
Media de una función
Para una función continua   sobre un intervalo [a,b], se puede calcular el valor medio de función   
sobre [a,b] como:

De hecho la definición anterior vale aún para una función acotada aunque no sea continua.

Media estadística
La media estadística se usa en estadística para dos conceptos diferentes aunque numéricamente
similares:

 La media muestral, que es un estadístico que se calcula a partir de la media


aritmética de un conjunto de valores de una variable aleatoria.
 La media poblacional, valor esperado o esperanza matemática de una variable
aleatoria.
En la práctica dada una muestra estadística suficientemente grande el valor de la media
muestral de la misma es numéricamente muy cercano a la esperanza matemática de la
variable aleatoria medida en esa muestra. Dicho valor esperado, sólo es calculable si se
conoce con toda exactitud la distribución de probabilidad, cosa que raramente sucede
en la realidad, por esa razón, a efectos prácticos la llamada media se refiere
normalmente a la media muestral.
Media muestral
La media muestral es una variable aleatoria, ya que depende de la muestra, si bien es
una variable aleatoria en general con una varianza menor que las variables originales
usadas en su cálculo. Si la muestra es grande y está bien escogida, puede tratarse la
media muestra como un valor numérico que aproxima con precisión la media
poblacional, que caracteriza una propiedad objetiva de la población. Se define como
sigue, si se tiene una muestra estadística de valores   de valores
para una variable aleatoria X con distribución de probabilidad F(x,θ) [donde θ es un
conjunto de parámetros de la distribución] se define la media muestral n-ésima como:

Media poblacional
La media poblacional técnicamente no es una media sino un parámetro fijo que
coincide con la esperanza matemática de una variable aleatoria. El nombre "media
poblacional" se usa para significar que valor numérico de una media muestral es
numéricamente cercano al parámetro media poblacional, para una muestra adecuada y
suficientemente grande.
MEDIANA

Visualización geométrica de la moda, la mediana y la media de una función arbitraria de densidad


de probabilidad.

En el ámbito de la estadística, la mediana representa el valor de la variable de posición central en


un conjunto de datos ordenados.

Cálculo
Existen dos métodos para el cálculo de la mediana:

1. Considerando los datos en forma individual, sin agruparlos.


2. Utilizando los datos agrupados en intervalos de clase.
A continuación veamos cada una de ellas:
Datos sin agrupar
Sean   los datos de una muestra ordenada en orden creciente y designando la
mediana como  , distinguimos dos casos:

a) Si n es impar, la mediana es el valor que ocupa la posición   una vez que los datos
han sido ordenados (en orden creciente o decreciente), porque éste es el valor central. Es
decir:  .
Por ejemplo, si tenemos 5 datos, que ordenados son:  ,  ,  , 
,   => El valor central es el tercero:  . Este valor, que es la mediana
de ese conjunto de datos, deja dos datos por debajo ( ,  ) y otros dos por encima de él ( ,  ).

b) Si n es par, la mediana es la media aritmética de los dos valores centrales. Cuando   es par, los
dos datos que están en el centro de la muestra ocupan las posiciones  y  . Es
decir:  .
Por ejemplo, si tenemos 6 datos, que ordenados son:  ,  ,  , 
,  ,  . Aquí dos valores que están por debajo del   y otros dos que
quedan por encima del siguiente dato  . Por tanto, la mediana de este grupo de

datos es la media aritmética de estos dos datos:  .


Datos agrupados

Al tratar con datos agrupados, si   coincide con el valor de una frecuencia acumulada, el valor de
la mediana coincidirá con la abscisa correspondiente. Si no coincide con el valor de ninguna abcisa,
se calcula a través de semejanza de triángulos en el histograma o polígono de frecuencias
acumuladas, utilizando la siguiente equivalencia:

Donde   y   son las frecuencias absolutas acumuladas tales que  ,   


y   son los extremos, interior y exterior, del intervalo donde se alcanza la mediana
y   es la abscisa a calcular, la mediana. Se observa que   es la
amplitud de los intervalos seleccionados para el diagrama.

Ejemplos para datos sin agrupar


Ejemplo 1: Cantidad (N) impar de datos
Las calificaciones en la asignatura de Matemáticas de 39 alumnos de una clase viene dada por la
siguiente tabla:
xi fi Ni
Calificaciones 1 2 3 4 5 6 7 8 9
1 2 2
Número de alumnos 2 2 4 5 8 9 3 4 2
2 2 4
Primero se hallan las frecuencias 3 4 8 absolutas acumuladas  . Así,
aplicando la fórmula asociada a la 4 5 13 mediana para n impar, se
5 8 21 > 19.5 obtiene  .
6 9 30
 Ni-1< n/2 < Ni = N19 < 19.5 < 7 3 33 N20

8 4 37
9 2 39
Por tanto la mediana será el valor de la variable que ocupe el vigésimo lugar.En este ejemplo,
21 (frecuencia absoluta acumulada para Xi = 5) > 19.5 con lo que Me = 5 puntos, la mitad de la
clase ha obtenido un 5 o menos, y la otra mitad un 5 o más.
Ejemplo 2: Cantidad (N) par de datos
Las calificaciones en la asignatura de Matemáticas de 38 alumnos de una clase viene dada por
la siguiente tabla (debajo):
Calificaciones 1 2 3 4 5 6 7 8 9
Número de alumnos 2 2 4 5 6 9 4 4 2

Primero se hallan las frecuencias absolutas acumuladas  . Así, aplicando la fórmula asociada
a la mediana para n par, se obtiene la siguiente
fórmula:   (Donde n=38 alumnos
divididos entre dos).

 Ni-1< n/2 < Ni = N18 < 19 < N19

xi fi Ni+w
1 2 2
2 2 4
3 4 8
4 5 13
5 6 19 = 19
6 9 28
7 4 32
8 4 36
9 2 38

Con lo cual la mediana será la media aritmética de los valores de la variable que ocupen el
decimonoveno y el vigésimo lugar. En el ejemplo el lugar decimonoveno lo ocupa el 5 y el
vigésimo el 6 con lo que Me = (5+6)/2 = 5,5 puntos, la mitad de la clase ha obtenido un 5,5 o
menos y la otra mitad un 5,5 o más.

Ejemplo para datos agrupados


Entre 1.50 y 1.60 hay 2 estudiantes.
Entre 1.60 y 1.70 hay 5 estudiantes.
Entre 1.70 y 1.80 hay 3 estudiantes.
Método de cálculo general
xi fi Ni
[x11-x12] f1 N1
. . .
. . .
. . N(i-2)
[x(i-1)1-x(i-1)2] f(i-1) f(i-1)-N(i-2)=N(i-1)
[xi1-xi2] fi fi-Ni-1=Ni
[x(i+1)1-x(i+1)2] f(i+1) f(i+1)-Ni=N(i+1)
. . .
. . .
. . .
[xM1-xM2] fM fM-N(M-1)=NM
Consideramos:
- x11 valor mínimo< Entonces:

MODA
En estadística, la moda es el valor con una mayor frecuencia en una distribución de datos.
Se hablará de una distribución bimodal de los datos adquiridos en una columna cuando encontremos
dos modas, es decir, dos datos que tengan la misma frecuencia absoluta máxima. Una distribución
trimodal de los datos es en la que encontramos tres modas. Si todas las variables tienen la misma
frecuencia diremos que no hay moda.
El intervalo modal es el de mayor frecuencia absoluta. Cuando tratamos con datos agrupados antes
de definir la moda, se ha de definir el intervalo modal.
La moda, cuando los datos están agrupados, es un punto que divide al intervalo modal en dos partes
de la forma p y c-p, siendo c la amplitud del intervalo, que verifiquen que:
Siendo la frecuencia absoluta del intervalo modal las frecuencias absolutas de los intervalos anterior
y posterior, respectivamente, al intervalo modal.

Moda de datos agrupados


Para obtener la moda en datos agrupados se usa la siguiente fórmula:

Donde:

 =  -inferior de la clase modal .


 = es el delta de frecuencia absoluta modal y la frecuencia absoluta premodal.
 = es el delta de frecuencia absoluta modal y la frecuencia absoluta postmodal.
 = Amplitud del intervalo modal
Propiedades
Sus principales propiedades son:

 Cálculo sencillo.
 Interpretación muy clara.
 Al depender sólo de las frecuencias, puede calcularse
para variables cualitativas. Es por ello el parámetro más utilizado
cuando al resumir una población no es posible realizar otros
cálculos, por ejemplo, cuando se enumeran en medios
periodísticos las características más frecuentes de determinado
sector social. Esto se conoce informalmente como "retrato
robot".
Inconvenientes

 Su valor es independiente de la mayor parte de los datos, lo que


la hace muy sensible a variaciones muestrales. Por otra parte, en
variables agrupadas en intervalos, su valor depende
excesivamente del número de intervalos y de su amplitud.
 Usa muy pocas observaciones, de tal modo que grandes
variaciones en los datos fuera de la moda, no afectan en modo
alguno a su valor.
 No siempre se sitúa hacia el centro de la distribución.
 Puede haber más de una moda en el caso en que dos o más
valores de la variable presenten la misma frecuencia
(distribuciones bimodales o multimodales).

Varianza

En teoría de probabilidad, la varianza (que suele representarse como  ) de una variable


aleatoria es una medida de dispersión definida como la esperanza del cuadrado de la desviación de
dicha variable respecto a su media.
Está medida en unidades distintas de las de la variable. Por ejemplo, si la variable mide una
distancia en metros, la varianza se expresa en metros al cuadrado. La desviación estándar es la raíz
cuadrada de la varianza, es una medida de dispersión alternativa expresada en las mismas unidades
de los datos de la variable objeto de estudio. La varianza tiene como valor mínimo 0.
Hay que tener en cuenta que la varianza puede verse muy influida por los valores atípicos y no se
aconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. En tales
casos se recomienda el uso de otras medidas de dispersión más robustas.
El término varianza fue acuñado por Ronald Fisher en un artículo publicado en enero de 1919 con
el título The Correlation Between Relatives on the Supposition of Mendelian Inheritance.1

 1 Definición
o 1.1 Variable aleatoria
o 1.2 Caso continuo
o 1.3 Caso discreto
 2 Ejemplos
o 2.1 Distribución exponencial
o 2.2 Dado perfecto
 3 Propiedades de la varianza
 4 Varianza muestral
o 4.1 Propiedades de la varianza muestral

Definición
Si tenemos un conjunto de datos de una misma variable, la varianza se calcula de la siguiente
forma:

Siendo:
 : cada dato
 : El número de datos
 : la media aritmética de los datos
Variable aleatoria
Aplicando este concepto a una variable aleatoria con media μ = E[X], se define su varianza,
Var(X) (también representada como   o, simplemente σ2), como

Desarrollando la definición anterior, se obtiene la siguiente definición alternativa (y


equivalente):

Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampoco tiene varianza.
Existen otras distribuciones que, aun teniendo esperanza, carecen de varianza. Un ejemplo de ellas
es la de Pareto cuando su índice k satisface 1 < k ≤ 2.
Caso continuo
Si la variable aleatoria X es continua con función de densidad f(x), entonces

Donde:

y las integrales están definidas sobre el rango de X.


Caso discreto
Si la variable aleatoria X es discreta con pesos x1 ↦ p1, ..., xn ↦ pn y n es la cantidad total de datos,
entonces tenemos:

Donde:

.
Distribución exponencial
La distribución exponencial de parámetro λ es una distribución continua con soporte en el intervalo
[0,∞) y función de densidad

Tiene media μ = λ−1. Por lo tanto, su varianza es:

Es decir, σ2 = μ2.


Dado perfecto
Un dado de seis caras puede representarse como una variable aleatoria discreta que toma, valores
del 1 al 6 con probabilidad igual a 1/6. El valor esperado es (1+2+3+4+5+6)/6 = 3,5. Por lo tanto, su
varianza es:

Propiedades de la varianza
Algunas propiedades de la varianza son:


  siendo a y b números reales cualesquiera. De esta propiedad
se deduce que la varianza de una constante es cero, es decir, 
 , donde Cov(X,Y) es
la covarianza de X e Y.
 , donde Cov(X,Y) es la
covarianza de X e Y.

Varianza muestral
En muchas situaciones es preciso estimar la varianza de una población a partir de una muestra. Si se
toma una muestra con reemplazamiento   de n valores de ella, de entre todos
los estimadores posibles de la varianza de la población de partida, existen dos de uso corriente:

Cuando los datos están agrupados:


A los dos (cuando está dividido por n y cuando lo está por n-1) se los denomina varianza muestral.
Difieren ligeramente y, para valores grandes de n, la diferencia es irrelevante. El primero traslada
directamente la varianza de la muestra al de la población y el segundo es un  estimador insesgado de
la varianza de la población. De hecho, mientras que:

Propiedades de la varianza muestral

Como consecuencia de la igualdad , s2 es un estadístico insesgado de  . Además, si


se cumplen las condiciones necesarias para la ley de los grandes números, s2 es un estimador
consistente de .
Más aún, cuando las muestras siguen una distribución normal, por el teorema de Cochran,   tiene
la distribución chi-cuadrado:

Desviación típica
La desviación típica o desviación estándar (denotada con el símbolo σ o s, dependiendo de la
procedencia del conjunto de datos) es una medida de dispersión para variables de razón (variables
cuantitativas o cantidades racionales) y de intervalo. Se define como la raíz cuadrada de
la varianza de la variable.
Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia
central, sino que necesitamos conocer también la desviación que presentan los datos en su
distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de
los mismos más acorde con la realidad al momento de describirlos e interpretarlos para la toma de
decisiones.

Índice

 1 Interpretación y aplicación
 2 Desglose
o 2.1 Distribución de probabilidad continua
o 2.2 Distribución de probabilidad discreta
 3 Ejemplo
 4 Véase también
 5 Enlaces externos

Interpretación y aplicación
La desviación típica es una medida del grado de dispersión de los datos con respecto al valor
promedio. Dicho de otra manera, la desviación estándar es simplemente el "promedio" o variación
esperada con respecto a la media aritmética.
Por ejemplo, las tres muestras (0, 0, 14, 14), (0, 6, 8, 14) y (6, 6, 8, 8) cada una tiene una media de
7. Sus desviaciones estándar muéstrales son 7, 5 y 1 respectivamente. La tercera muestra tiene una
desviación mucho menor que las otras dos porque sus valores están más cerca de 7.
La desviación estándar puede ser interpretada como una medida de incertidumbre. La desviación
estándar de un grupo repetido de medidas nos da la precisión de éstas. Cuando se va a determinar si
un grupo de medidas está de acuerdo con el modelo teórico, la desviación estándar de esas medidas
es de vital importancia: si la media de las medidas está demasiado alejada de la predicción (con la
distancia medida en desviaciones estándar), entonces consideramos que las medidas contradicen
la teoría. Esto es coherente, ya que las mediciones caen fuera del rango de valores en el cual sería
razonable esperar que ocurrieran si el modelo teórico fuera correcto. La desviación estándar es uno
de tres parámetros de ubicación central; muestra la agrupación de los datos alrededor de un valor
central (la media o promedio).

Desglose
La desviación estándar (DS/DE), también llamada desviación típica, es una medida
de dispersión usada en estadística que nos dice cuánto tienden a alejarse los valores concretos
del promedio en una distribución. De hecho, específicamente, el cuadrado de la desviación estándar
es "el promedio del cuadrado de la distancia de cada punto respecto del promedio". Se suele
representar por una S o con la letra sigma,  .
La desviación estándar de un conjunto de datos es una medida de cuánto se desvían los datos de su
media. Esta medida es más estable que el recorrido y toma en consideración el valor de cada dato.
Distribución de probabilidad continúa
Es posible calcular la desviación estándar de una variable aleatoria continua como la raíz
cuadrada de la integral

Dónde:

Distribución de probabilidad discreta


La Desviación Estándar es la raíz cuadrada de la varianza de la distribución de
probabilidad discreta:

Cuando los casos tomados son iguales al total de la población se aplica la fórmula de
desviación estándar poblacional. Así la varianza es la media de los cuadrados de las
diferencias entre cada valor de la variable y la media aritmética de la distribución.
Aunque esta fórmula es correcta, en la práctica interesa el realizar inferencias
poblacionales, por lo que en el denominador en vez de  , se usa   según
la corrección de Bessel. Esta ocurre cuando la media de muestra se utiliza para centrar
los datos, en lugar de la media de la población. Puesto que la media de la muestra es
una combinación lineal de los datos, el residual a la muestra media se extiende más
allá del número de grados de libertad por el número de ecuaciones de restricción en
este caso una. Dado esto a la muestra así obtenida de una muestra sin el total de la
población se le aplica esta corrección con la fórmula desviación estándar muestral.

Ejemplo
Aquí se muestra cómo calcular la desviación estándar de un conjunto de datos.
Los datos representan la edad de los miembros de un grupo de niños: {4, 1, 11, 13,
2, 7}
1. Calcular el promedio o media aritmética  .

.
En este caso, N = 6:
      
 Sustituyendo N por 6

2. Calcular la desviación estándar 

   
Sustituyendo N por 6;

      
 Sustituyendo   por 6,33

.
Cuartil
Los cuartiles son los tres valores que dividen al conjunto de datos ordenados en cuatro partes
porcentualmente iguales. Aparecen citados en la literatura científica por primera vez en 1879 por D.
McAlister.1
La diferencia entre el tercer cuartil y el primero se conoce como rango intercuartílico. Se representa
gráficamente como la anchura de las cajas en los llamados diagramas de cajas.
Dada una serie de valores X1,X2,X3 ...Xn ordenados en forma creciente, podemos pensar que su
cálculo podría efectuarse:

 Primer cuartil (Q1) como la mediana de la primera mitad de valores;


 Segundo cuartil (Q2) como la propia mediana de la serie;
 Tercer cuartil (Q3) como la mediana de la segunda mitad de valores.
Pero esto conduce a distintos métodos de cálculo de los cuartiles primero (así como tercero) según
la propia mediana se incluya o excluya en la serie de la primera (respecto de la segunda) mitad de
valores.
Cálculo con datos no agrupados
No hay uniformidad sobre su cálculo. En la bibliografía se encuentran hasta cinco métodos que dan
resultados diferentes.2 Uno de los métodos es el siguiente: dados n datos ordenados,

 Para el primer cuartil:

 Para el tercer cuartil:

Asimetría estadística

En punteado negro: la media, en punteado gris: lamoda.


Ejemplo de datos experimentales con una asimetría positiva (respuesta gravitrópica de los
coleóptilos del trigo).

Índice

 1 Definición
 2 Medidas de asimetría
o 2.1 Coeficiente de asimetría de Fisher
o 2.2 Coeficiente de asimetría de Pearson
o 2.3 Coeficiente de asimetría de Bowley
 3 Utilidad

Definición
Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o
asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener que
hacer su representación gráfica.
Como eje de simetría consideramos una recta paralela al eje de ordenadas que pasa por la media de
la distribución. Si una distribución es simétrica, existe el mismo número de valores a la derecha que
a la izquierda de la media, por tanto, el mismo número de desviaciones con signo positivo que con
signo negativo. Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de la
media es más larga que la de la izquierda, es decir, si hay valores más separados de la media a la
derecha. Diremos que hay asimetría negativa (o a la izquierda) si la "cola" a la izquierda de la media
es más larga que la de la derecha, es decir, si hay valores más separados de la media a la izquierda.

Medidas de asimetría
Coeficiente de asimetría de Fisher
En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso del
tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las desviaciones
con respecto a la media, para obtener si son mayores las que ocurren a la derecha de la media que
las de la izquierda. Sin embargo, no es buena idea tomar el momento estándar con respecto a la
media de orden 1. Debido a que una simple suma de todas las desviaciones siempre es cero. En
efecto, si por ejemplo, los datos están agrupados en   clases, se tiene que:

en donde   representa la marca de la clase  -ésima y   denota la frecuencia relativa de dicha


clase. Por ello, lo más sencillo es tomar las desviaciones al cubo.
El coeficiente de asimetría de Fisher, representado por  , se define como:

donde   es el tercer momento en torno a la media y   es la desviación estándar.


Si  , la distribución es asimétrica positiva o a la derecha.
Si  , la distribución es asimétrica negativa o a la izquierda.
Si la distribución es simétrica, entonces sabemos que . El recíproco no es cierto:
es un error común asegurar que si   entonces la distribución es simétrica (lo cual es
falso).
Coeficiente de asimetría de Pearson
Sólo se puede utilizar en distribuciones uniformes, unimodales y moderadamente
asimétricas. Se basa en que en distribuciones simétricas la media de la distribución es igual
a la moda.

Si la distribución es simétrica,   y  . Si la distribución es asimétrica


positiva la media se sitúa por encima de la moda y, por tanto,  .
Coeficiente de asimetría de Bowley
Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente expresión:

En una distribución simétrica el tercer cuartil estará a la misma distancia de la mediana que
el primer cuartil. Por lo tanto: 
Si la distribución es positiva o a la derecha.

Utilidad
La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen una
distribución normal, esto es, simétrica en torno a la media. La distribución normal tiene
una asimetría cero. Pero en realidad, los valores no son nunca perfectamente simétricos y la
asimetría de la distribución proporciona una idea sobre si las desviaciones de la media son
positivas o negativas. Una asimetría positiva implica que hay más valores distintos a la
derecha de la media.
Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las
medidas de apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una
distribución estadística sigue la distribución normal. Esto es necesario para realizar
numerosos contrastes estadísticos en la teoría de inferencia estadística.

Curtosis
En teoría de la probabilidad y estadística, la curtosis es una medida de la forma. Así, las medidas de
curtosis tratan de estudiar la proporción de la varianza que se explica por la combinación de datos
extremos respecto a la media en contraposición con datos poco alejados de la misma. Una mayor
curtosis implica una mayor concentración de datos muy cerca de la media de la distribución
coexistiendo al mismo tiempo con una relativamente elevada frecuencia de datos muy alejados de la
misma. Esto explica una forma de la distribución de frecuencias con colas muy elevadas y con un
centro muy apuntado.

Definición
Un coeficiente de apuntamiento o de curtosis es el basado en el cuarto momento con respecto a la
media y se define como:

Donde   es el 4º momento centrado o con respecto a la media y   es la desviación estándar.

No obstante, está más extendida la siguiente definición del coeficiente de curtosis:

Donde al final se ha sustraído 3 (que es la curtosis de la Normal) con objeto de generar un


coeficiente que valga 0 para la Normal y tome a ésta como referencia de apuntamiento:
Tomando, pues, la distribución normal como referencia, una distribución puede ser:

 más apuntada y con colas más anchas que la normal –leptocúrtica.


 menos apuntada y con colas menos anchas que la normal- platicúrtica.
 la distribución normal es mesocúrtica.

En la distribución normal se verifica que  , donde   es el momento de orden 4


respecto a la media y   la desviación típica.

Así tendremos que:

 Si la distribución es leptocúrtica   y 


 Si la distribución es platicúrtica   y 
 Si la distribución es mesocúrtica   y 

Otra forma de medir la curtosis se obtiene examinando la fórmula de la curtosis de la suma de


variables aleatorias. Si Y es la suma de n variables aleatorias estadísticamente independientes, todas
con igual distribución X, entonces,

Complicándose la fórmula si la curtosis se hubiese


definido como.

Вам также может понравиться