Академический Документы
Профессиональный Документы
Культура Документы
INDICE
A menudo, los estimadores de la ley simple del bloque no son suficientes para abordar
todos los asuntos en torno a un proyecto nuevo o para responder a preguntas acerca de la
optimización en una operación. Los asuntos comúnmente discutidos son aquellos que se
refieren a la incertidumbre en la estimación de la ley, la cantidad probable de dilución para
diferentes alturas de banco o tamaños de bloque, los impactos del acopio, la variación diaria
de la ley cabeza planta, los impactos en el cambio del tamaño de los equipos, etc. Las
varianzas de estimación y dispersión discutidas anteriormente pueden otorgar respuestas
parciales a la mayoría de estas preguntas. Desgraciadamente, se requieren suposiciones
tajantes con respecto a la distribución de los errores (los cuales en rara ocasión son
considerados) para que estas aproximaciones puedan responder correcta y completamente a
este tipo de preguntas. Para responder preguntas acerca de variabilidad, se requiere un
modelo numérico que reproduce características conocidas y significativas del yacimiento.
Idealmente, se desarrollarán muchos modelos numéricos, de los cuales cada uno
reproducirá las mismas características significativas. Si se analizan las diferencias entre
estos modelos equiprobables del yacimiento, se puede abordar una evaluación detallada de
asuntos sobre la variabilidad de la ley (y del tonelaje).
20400
20200
20000
19800
19600
-1 1 4 0 0 -1 1 2 0 0 -1 1 0 0 0 -1 0 8 0 0 -1 0 6 0 0 -1 0 4 0 0 -1 0 2 0 0
La imagen estimada (arriba a la derecha) no muestra las leyes muy bajas (gris claro) ni las
leyes muy altas (amarillo brillante), las cuales se ven en cualquiera de las otras tres
imágenes simuladas. Otra forma de ver las diferencias entre una simulación y una
estimación es examinar un perfil unidimensional de las leyes y comparar un estimador muy
alisado con varias simulaciones
condicionales que atraviesan los datos
puntuales. En este caso particular, los
puntos simulados varían enormemente
entre los datos puntuales. Sin
embargo, todos los perfiles pasan por
los datos puntuales. Cada perfil
simulado reproduce la variabilidad y
correlación de los datos. Por lo tanto,
el perfil real de la ley es tan variable
como cualquiera de los perarchivos
simulados. Este grado de variabilidad
es claramente muy diferente a la variabilidad del estimador.
Para estos dos ejemplos, debe quedar claro que (en términos simples), las simulaciones son
creadas para entender la variabilidad, mientras que las estimaciones son realizadas para
determinar propiedades de promedio. Algunos ejemplos pueden ayudar a reforzar este
punto.
La siguiente tabla muestra los posibles usos de la estimación y simulación en algunos
problemas comunes.
Existen muchos otros ejemplos posibles. Algunas de las aplicaciones más comunes de las
simulaciones serán discutidas en el Modulo 4.4.
Los objetivos de una simulación son reproducir la mayor cantidad posible de las
propiedades del conjunto original de los datos. Las propiedades que se reproducen
comúnmente son la distribución de las leyes, la correlación espacial de las leyes y las
propiedades locales de las leyes. Es decir, la simulación reproduce el histograma y
variograma de los datos originales y la simulación está condicionada a los datos. Por
medio del condicionamiento, cuando una ley es simulada en un localidad que se ha
muestreado, la ley simulada igualará exactamente la ley de la muestra y las leyes simuladas
cerca de una muestra estarán influidas por la ley de la muestra. Uno puede pensar en los
puntos condicionantes como alfileres que determinan las leyes en una superficie simulada
entre los alfileres, las leyes varían mientras reproducen el variograma e histograma del
conjunto de los datos originales. En los mismos datos de condicionamiento, histogramas y
variogramas, cuando la simulación se repite, los valores entre los alfileres de
condicionamiento variarán y se producirá una nueva superficie simulada. La simulación se
puede realizar cuantas veces se desee y cada vez se producirá una superficie diferente. Ya
que cada superficie simulada reproduce las características conocidas y modeladas de los
datos, cada superficie entrega una imagen posible de cómo el yacimiento se puede
comportar entre los puntos muestreados. Si el procedimiento de simulación no está
sesgado, el análisis de los conjuntos de los datos múltiples y simulados permite
evaluaciones estadísticas detalladas de los datos que no pueden ser realizadas si se utilizan
estimadores.
Al revisar los resultados de una simulación, es muy importante considerar los objetivos y
propósitos de la simulación. Al revisar un mapa que contiene los resultados de una sola
simulación, es muy tentador considerar las leyes simuladas como aproximaciones cercanas
a la ley verdadera y no lo son. Se puede demostrar que la varianza de la estimación
asociada a la ley simulada en un punto particular es doblemente mayor a la varianza del
krigeado. Por lo tanto, una estimación krigeada de la ley es doblemente precisa con
relación a una ley simulada y es un estimador mucho mejor. En resumen, cuando se desee
la mejor estimación de la ley, hay que utilizar el krigeado. Cuando se requiera la
información de la variabilidad, hay que crear simulaciones.
6
Fundamentos de la simulación
unidimensionales son
0.8
Grade (%)
generalmente de interés
cuando la dimensión es el 0.6
tiempo. El ejemplo en
minería más común es 0.4
probablemente comprender
las leyes de la cabeza de la 0.2
Los datos seleccionados siguen una distribución normal con ley media de 0.7% y una
desviación estándar de 0.25%. Este tipo de distribución de los datos es poco común, pero
como se verá, la distribución normal tiene unas características muy importantes que son
invaluables para la creación de Experimental Variogram
una simulación. Por lo tanto,
seleccionar esta distribución 0.07
discutido detalladamente en el
0.03
Módulo 4.2.
0.02
meseta. Este tipo de modelo de un variograma sólo es válido cuando se modelan datos
unidimensionales. Cuando los datos poseen dos o tres dimensiones, este modelo no es
positivo definido.
Simulación
Dadas las propiedades de los datos que se producirá en la simulación, se puede comenzar la
simulación real de las leyes en esta sección. Las leyes simuladas comienzan con un
conjunto de números aleatorios que son distribuidos uniformemente entre cero y uno. Los
números son colocados en intervalos de cinco metros a lo largo de la sección. En este
punto, los datos simulados son totalmente aleatorios, lo que significa que un modelo de
variograma de efecto pepita puro describe la falta de correlación en los datos.
El primer paso para transformar los datos aleatorios en datos simulados condicionales es
crear correlación en los datos. El modelo de variograma lineal que describe la correlación
en el conjunto de los datos puede ser impuesto en los datos aleatorios si se pasa un filtro por
los datos. Este filtro es muy sencillo. Una ventana de 35m de ancho se centra en cada
8
Además de crear correlación en los datos, el promediar hace dos cosas: Primero, la
varianza se reduce ya que el proceso de promediar siempre reduce la varianza. Este es un
concepto fundamental en estadística clásica que es muy similar a la relación volumen-
varianza en geoestadística. Es decir, a medida que el volumen sobre el cual se define un
promedio es incrementado, la varianza es disminuida. Además de tener una varianza baja,
9
los valores promediados también siguen una distribución normal. Este es otro concepto
fundamental en estadística clásica que se conoce como teorema del límite central. Cuando
se promedia datos (aleatorios) independientes, la distribución de los promedios seguirán
una distribución normal, independientemente de la distribución inicial de los datos.
Entonces luego de realizar este proceso de promediar, los datos seguirán una distribución
normal.
Por lo tanto, luego de pasar el filtro por los datos, los valores simulados están
correlacionados con el alcance requerido de correlación y siguen una distribución
estadística igual a la de los
datos originales. Sólo la media Unconditional Simulation Versus Data Points
y la varianza de los valores 1.4
simulación no condicional.
Esta simulación reproduce el histograma y variograma de los datos, pero no reproduce las
características locales de los datos. Los gráficos -que muestran la comparación entre el
histograma y variograma de la simulación- y los datos, han sido omitidos en esta etapa. En
su lugar, se ha preparado un gráfico que muestra la disimilitud entre la simulación y los
datos. Un gráfico de la simulación incondicional en contraste a los datos muestra el
problema con este tipo de simulación. A pesar de igualar la distribución y correlación
espacial de los datos, la distribución espacial de los datos y la simulación no son iguales.
Condicionamiento
Dada la diferencia entre las leyes locales de los datos y la simulación, debería ser claro que
el condicionamiento es un paso muy importante en la creación de una simulación. Sin el
paso de condicionamiento, las leyes de la simulación serán muy diferentes a las leyes de los
datos reales y la simulación tendrá muy poco uso práctico. Un método de
condicionamiento para una simulación es crear dos superficies de los mejores estimadores:
una superficie de los datos y otra de la simulación. La diferencia entre las superficies es
usada para trasladar los puntos simulados para igualar los datos. La primera superficie es
creada krigeando los datos. La segunda superficie es creada krigeando la simulación
incondicional utilizando sólo leyes simuladas de las mismas ubicaciones de los datos.
10
1.1
círculos cerrados son puntos 1.0
seleccionados de la simulación. Las 0.9
Grade (%)
ubicaciones de los puntos 0.8
0.7
seleccionados son idénticas a las 0.6
son llamadas z*data(x) y z*ucsim(x). Las estimaciones definen las superficies más probables a
lo largo de los dos conjuntos de los datos. Dadas estas dos superficies, la simulación
incondicional se puede corregir para que pase por los datos utilizando una relación simple:
zsim(x)=zucsim(x)+(z*data(x)-z*ucsim(x))
En las ubicaciones en donde hay datos, la simulación condicional (z sim(x)) será igual a los
datos ya que el krigeado es un interpolador exacto. Es decir, en una locación con una
muestra (zucsim(x)=z*ucsim(x)) y (zsim(x)=z*data(x)), dado el signo negativo de la ecuación, los
dos valores de simulación incondicional se cancelan y la simulación condicional es igual a
los datos. En ubicaciones sin muestreo, las cantidades condicionadas para ajustar la
simulación no condicional están dadas por la diferencia entre las dos superficies Krigeadas.
bien. 0.04
también igualan muy bien el modelo de 0.01 Model Input to Simula tion
entrada del variograma. Basado en 0.00
estas revisiones, aparentemente las 0 10 20 30 40 50 60 70
Distance (m)
simulaciones son válidas para este
conjunto de datos.
Comentario final
Este método simple de generar datos correlacionados es fácil de implementar y puede ser
utilizado para generar simulaciones pequeñas rápidamente, pero se torna
computacionalmente ineficiente cuando el objetivo es generar simulaciones de gran
envergadura. Por esta razón, otros algoritmos de simulación, matemáticamente más
complicados, han sido desarrollados. Estos algoritmos son discutidos en los siguientes dos
módulos.
12
Además de los tres métodos discutidos aquí, existen una serie de otras aproximaciones en
simulación. Estas aproximaciones no son discutidas aquí. Sin embargo, la discusión
sobre aproximaciones de simulación que es proporcionada debería entregar un respaldo
suficiente para entender la teoría de estas aproximaciones. Al final de éste modulo se
entregan referencias que describen estos métodos.
Pr(A/B)=Pr(A y B)/Pr(B)
13
Si se escribe de otra forma esta fórmula como Pr(A y B)=Pr(A/B)•Pr(B), resulta muy
provechoso para la simulación de distribuciones multivariables. Escrita de esta forma, la
probabilidad conjunta de A y B es sencillamente el producto de dos distribuciones
univariantes. Más aún, esta relación puede ser expandida para que se pueda formar desde
el producto de variables univariantes N, la distribución conjunta de cualquier variable N.
Por ejemplo, consideremos la distribución conjunta de las variables discretas A, B y C.
Como se puede ver, esta descomposición puede realizar la evaluación de manera muy
sencilla de la distribución conjunta de las variables N -siempre que las distribuciones
condicionales univariantes estén disponibles. Seguramente no esta claro, a esta altura,
cómo es que todo esto ayuda con la generación de una simulación. En la situación de
simulación, hay n datos y N puntos a simular. Los N puntos simulados deben ser una
realización de la función aleatoria Z(x). Es decir, los puntos simulados deben seguir las
leyes de probabilidad conjunta para las N variables aleatorias (N variables aleatorias
ubicadas en las ubicaciones que están siendo simuladas). Una realización que sigue las
leyes de probabilidades conjunta se define aplicando secuencialmente el axioma de Bayes.
Primero, un punto de partida aleatorio que será simulado es seleccionado entre los N nodos
de una malla. En este momento, la distribución de las leyes condicionadas a los n datos es
definido y una ley simulada se selecciona al azar desde la distribución condicional. Luego,
esta ley simulada se adiciona al conjunto de datos condicionantes y se visita otro de los
nodos de la malla. La distribución condicional se define en esta ubicación y una ley
simulada es seleccionada aleatoriamente desde esta distribución.
Esta segunda distribución de las leyes esta condicionada de manera importante a los n datos
y a la ley simulada. Este proceso secuencial continúa hasta que todos los puntos N han
sido simulados. Dado que todas las leyes simuladas son seleccionadas de una distribución
14
Una segunda cuestión es el orden en que los nodos simulados son visitados. Basándonos
en la información teórica entregada, cualquier camino entre nodos esta permitido. Sin
embargo, como fue discutido anteriormente, sólo los datos en una área de búsqueda local
(en vez de todos los datos) son utilizados en la simulación. Esta desviación de la teoría
estricta puede introducir patrones artificiales o artefactos dentro de la simulación si es que
15
Otra cuestión que surge dada la restricción de los datos condicionantes a un sector local es
la reproducción de las estructuras de alcance más largos del modelo del variograma. Si la
simulación se encuentra sólo condicionada a los datos del sector inmediatamente contiguo
al del punto que esta siendo simulado, entonces sólo se reproducirán las características de
corta escala. Un método para reproducir las estructuras de mayor alcance es la
aproximación de la malla
Multiple Grid Approach
múltiple. En esta
aproximación, los datos son
simulados en una serie de
mallas que se tornan
progresivamente más finas. La
primera malla simulada es
Northing
En este momento, pareciera que nos hemos enfrentado a una situación sin solución. Existe
mucha teoría agradable que permite la simulación condicional sólo a través de la
realización del krigeado simple sobre los datos y los puntos previamente simulados.
Desafortunadamente, para aplicar esta teoría los datos deben estar distribuidos
normalmente, lo que rara vez ocurre en la práctica. La solución a este problema consiste
en transformar los datos hacia
Transformation To Standard Normal Variable
datos normalmente distribuidos,
sin importar su ley de distribución 100%
Standard Normal Variable
inicial, con un media de 0 y una 90% Mean=0, SD=1.0
Example Lognormal Data
40%
puntos simulados son nuevamente Path ToTransform Data Value of 2%
To AStandard Normal Value of -0.7
30%
transformados a su origen para
20%
igualar la distribución de los datos 10%
originales. Esta transformación no 0%
es difícil. Conceptualmente, las -3.0 -2.5 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5
Value
leyes se transforman basándose en
las distribuciones acumulativas de los datos y la distribución normal estándar. Es decir, los
datos se transforman en base a los percentiles equivalentes. El percentil número 10 de los
datos se determina en el percentil número 10 de la distribución normal estándar. El
percentil número 60 de los datos se determina en el percentil número 60 de la distribución
normal estándar, y así sucesivamente. Gráficamente, esta transformación puede ser vista
graficando la distribución acumulativa de los datos y de la variable normal estándar.
Comenzando con la ley de un dato (2% es utilizado en el ejemplo), se proyecta una línea
hacia arriba hasta que intersecta la curva acumulativa de los datos. Luego el punto de
intersección es proyectado horizontalmente hasta que intersecta la curva acumulativa para
la distribución normal estándar. Finalmente, este punto de intersección es proyectado
bajando hacia el eje de las equis donde es definido el valor transformado (-0.7 en el
ejemplo de arriba)
17
Esta transformación también puede ser hecha a través del uso de funciones que están
programadas en software masivos como el Excel o Statistica. Par usar estas funciones
simplemente ordene los datos desde los más pequeños hacia los más grandes y define una
nueva variable que sea una fila de percentiles acumulativa para cada dato (fila/número total
de muestras). Por ejemplo si hay 789 muestras clasificadas, la muestra número 56 se
convierte en 0.071 (56/789). Ahora el inverso de la función de distribución normal
estándar (NORMSINV(0.071) en Excel) es aplicada para determinar que la variable normal
estándar es –1.47. Dado que el inverso normal de 1.0 no existe es común dividir por el
número de datos más 1 (790 en el ejemplo de arriba) para asegurarse de que todos los datos
tienen un inverso.
El procedimiento para transformar los datos y transformar de vuelta los puntos simulados
es relativamente simple. A pesar de ser simple, la aplicación correcta de esta
transformación es crítica para el éxito de la simulación. Una cuestión muy importante es la
estacionaridad de la transformación. La distribución completa de leyes debe ser
estacionaria sobre todo el volumen de la simulación. Esta es una presunción bastante
severa. Las tendencias de la ley y no estacionaridad local pueden impactar la
transformación de los datos a la distribución inicial de los datos simulados y se introduce
con fuerza en la simulación. Esta cuestión será discutida en detalle con ejemplos
apropiados en el Modulo 4.3.
Ahora que el método para transformar los datos para que sigan una distribución normal es
conocido, puede ser discutida la secuencia completa de los pasos requeridos para generar la
simulación.
Revisar los datos originales para asegurarse de que la distribución de las leyes es
estacionaria sobre el volumen que será simulado. Particularmente, revisar las
tendencias de la ley o áreas de leyes altas o bajas. Si es que es necesario subdivida
el volumen de simulación para obtener zonas estacionarias.
Revisar si hay grupos de datos. Si los datos están agrupados, es probable que la
distribución no desagrupada de los datos no es representativa. Determine las
ponderaciones de desagrupamiento y redefina la distribución de los datos. Un
ejemplo del impacto por ignorar el desagrupamiento será presentado en el Módulo
4.3.
Transforme los datos par que sigan una distribución normal estándar.
Modele el variograma de los datos transformados.
Defina un camino aleatorio a través de la malla de los puntos que serán simulados
(El método de la malla múltiple puede ser usado si se desea).
Visite cada punto y realice un el krigeado simple sobre los datos transformados. El
krigeado usa tanto los datos transformados como las leyes antes simuladas.
El krigeado simple define la media y varianza (Estimación de krigeado y varianza
de krigeado) de la distribución condicional. Dado que los datos son distribuidos de
manera (multi-) normal, la forma de la distribución condicional es Gaussiana
(normal).
18
Los valores simulados finales deben ser revisados, por supuesto, en contraste con los datos
originales para asegurar que el variograma y el histograma hallan sido reproducidos
adecuadamente. Además, un mapa de los puntos simulados debe ser comparado con un
mapa de los datos originales para asegurar que los resultados son sensatos.
Los indicadores son una transformación muy simple de los datos originales en donde éstos
pueden ser una variable continua como una ley o una variable categórica como una
litología. Los indicadores de ley se definen con relación a una ley de corte. Si la ley en
una locación se encuentra por encima de la ley de corte, entonces la transformación del
indicador es de 1, de otra manera es de 0. Al aplicar esta transformación del indicador en
varias leyes de corte, se genera una serie completa de indicadores de datos que tienen en
valor 1 ó 0, dependiendo de la ley muestreada y la ley de corte seleccionada. Si se aplica a
datos cualitativos como la litología, el indicador toma el valor 1 si la muestra es de la
litología de interés o de otra manera toma el valor 0.
La simulación de datos indicadores basados en las leyes de corte pueden ser utilizados de
varias formas. Por ejemplo, si se simulan los indicadores en varias leyes de corte, las leyes
pueden ser simuladas. Este tipo de simulación puede ser muy útil en yacimientos
simulados cuando la correlación / distribución espacial de muestras con leyes altas es
diferente a la de muestras con leyes bajas. Los yacimientos de oro vetiformes (en donde
las leyes altas se controlan estructuralmente) pueden ser un ejemplo de este tipo de
aplicación. Para aplicar este método, datos de varios indicadores (de diferentes leyes de
corte) son simulados para crear una distribución espacial condicional en cada localidad
simulada. Esta ley luego se reconstruye con la distribución condicional acumulada,
aplicando uno de muchos métodos posibles de aproximación. Otro uso de la simulación
del indicador se encuentra en la simulación de la distribución espacial de litologías o otras
variables categóricas (alteración, mineralogía, etc.) que controlan la mineralización. Esta
aproximación se puede utilizar individualmente para generar mapas que muestren las
distribuciones espaciales posibles de las variables controladoras o como la primera etapa en
la simulación de las leyes, por lo cual el primer paso define la litología y el segundo paso es
utilizado para definir las leyes dentro de la litología.
Para yacimientos de cobre, las simulación de leyes puede ser manejada adecuadamente casi
siempre si se utiliza la aproximación secuencial Gaussiana discutida previamente. Por esta
razón, además de la complejidad adicional de transformar la simulación condicional del
19
La simulación de los datos indicadores es muy similar la simulación secuencial de las leyes.
Una ventaja es que la transformación Gaussiana de los datos no se requiere. Las
contribuciones mayores que se requieren son los datos indicadores y los modelos de los
variogramas de los indicadores para cada tipo de los datos indicadores (es decir, un
variograma del indicador independiente para cada litología, mineralogía, etc.). La
simulación del algoritmo luego utiliza una especie de truco que transforma las variables
categóricas en funciones de distribución acumulativa. Para hacer esto, las variables
categóricas se clasifican artificialmente. En este caso, la palabra artificial se debe
interpretar como “el orden de la clasificación no tiene ninguna importancia”. Para las tres
litologías discutidas anteriormente, la clasificación puede ser pórfido, diorita y luego dique.
Sin embargo, cualquier otra clasificación no sería incorrecta. Lo importante es que la
sumatoria de los indicadores tanto en una lugar particular como promediada en todo el
yacimiento sea uno. En efecto, los datos categóricos ahora forman una función de
distribución acumulativa.
Para realizar la simulación, los puntos se eligen en una secuencia aleatoria. En cada punto,
los datos indicadores son krigeados (un el krigeado por cada categoría, es decir, tres
litología requieren tres estimaciones krigeadas independientes). El krigeado de los
indicadores entrega una estimación directa de la distribución condicional, por lo tanto no se
requiere ninguna modificación o transformación de las estimaciones. En cada lugar
simulada, la distribución condicional acumulativa cambiará dependiendo tanto de la
cantidad como de la ubicación de los datos condicionantes y de los valores de los datos
indicadores. En áreas en donde la gran mayoría de los datos condicionantes pertenecen a
una litología en particular, es muy probable que los valores simulados registrarán la misma
litología.
20
intervalo en el cual se sitúa el número Kriging Estimate For Dike Indicator = 0.20
Cumulative Probability
Simulation Outputs
Random Number Simulated Lit h.
un punto particular donde el pórfido 0.6 0 to 0.23
0.23 to 0.8
Porphry
Diorite Kriging Estimate For Diorite Indicator = 0.57
es de 0,23, la diorita es de 0,57 y el 0.8 to 1.0 Dike
0.4
dique es de 0.2 y las litologías fueron
artificialmente clasificadas 0.2
pórfido<diorita<dique, los intervalos Kriging Estimate For Porphry Indicator = 0.23
Método de descomposición LU
normalmente. Luego de sumar estas dos componentes, el valor simulado que resulta se
transforma nuevamente para definir la ley simulada en el punto de interés.
C = LU
Por lo tanto el vector de los valores y simulados entrega una simulación incondicional. Esta
simulación puede hacerse condicional a través de la realización de un poco más de trabajo
en la matriz L. Resulta ser que el vector de los puntos condicionalmente simulados es:
Y= Y*sk + L22ω
Eso es todo. Trabaje un poco sobre una matriz de covarianza que incluya todos los puntos
datos y los puntos que están siendo simulados. Realice El krigeado simple en cada punto
simulado. Luego sume adicione un componente aleatorio para obtener una ley simulada y
la simulación condicional estará hecha.
Note que el componente de El krigeado simple del valor simulado no cambia sin importar
cuantas simulaciones sean requeridas. Para obtener más valores simulados solamente
defina más números aleatorios.
Referencias
Deutch, C.V. y Journel, A., GSLIB- Geostatistical Sortware and User´s Guide, Segunda Edición, Oxford
University Press, Nueva York, 1998
Goovaerts, P., Geostatistical for Natural Resources Evaluation, , Oxford University Press, Nueva York, 1997
Glaken, I.M., Change and Support By Direct Conditional Block Simulation, Tesis de Master, Stanford
University, Marzo 1996
Davis, M., Production of Conditional Simulation Via the LU Decomposition of the Covariance Matrix,
Mathematical Geology, Volumen 19, No. 2, 1987
22
Para ejemplificar el método de simulación condicional de datos continuos (es decir, leyes) y
datos categóricos (es decir, litología), en este módulo se entregan tres estudios de caso de
simulación. Al realizar estos estudios de caso, se hace referencia directa a las rutinas
GSLIB, SGSIM, SISIM y LUSIM y los requisitos necesarios para hacer funcionar estos
programas se describirán en detalle. Se hace referencia directa a estos programas porque a
diferencia del krigeado que es ofrecido por un número grande de vendedores de software,
éstos son los programas de simulación mas ampliamente usados. Más aún, estas rutinas de
simulación se encuentran disponibles para cualquiera que adquiera un libro (Deutsch y
Journel, 1992).
-1
-2
-3
0.04
0.07
0.08
0.20
0.40
0.60
1.00
0.03
0.05
0.06
0.09
0.10
0.30
0.50
0.70
0.80
0.90
2.00
Para realizar la simulación, las leyes reales deben ser transformadas a valores normales
(datos normales estándar). La distribución desagrupada se utilizó para definir la
transformación a valores normales de los datos. Al revisar la simulación, se examinará el
impacto de usar la representación desagrupada en vez de la representación de igual peso de
la función de distribución.
Lag Mean
0.6 0.8
Lag Mean
0.5
0.6
obtener un variograma que 0.4
Models
pueda ser modelado. Al 0.3
Data :
Norm Trans:
(h) = 0.40 + .20 Sph
(h) = 0.50 + .25 Sph
25 (h) + .20 Sph
300
(h) + .25 Sph
(h)
(h)
0.4
25 300
definir este modelo, se 0.2
0.2
utilizó la experiencia 0.1
Lag Mean - Normal Transform
permanece. Esta dependencia entre la media del intervalo y la distancia indica que aunque
la transformación normal de los datos sigue perfectamente una distribución normal
univariante, los datos no están, casi por seguro, distribuidos normal multivariante. Por lo
tanto, el algoritmo secuencial Gaussiano no es teóricamente aplicable en este caso. A pesar
de esta inconsistencia teórica, el yacimiento será simulado y los chequeos detallados se
realizarán para asegurar que la simulación represente adecuadamente las características de
los datos.
Límites de corte
Si se cambian los valores de la línea (3), algunos datos se pueden excluir de este análisis.
En este caso, no se excluirá ningún dato.
Para realizar la simulación, los datos deben ser transformados para seguir una distribución
normal con una media de cero y una desviación estándar de uno. La transformación se
puede realizar por el usuario fuera de la rutina (en dicho caso el parámetro se coloca en
cero) o dentro de la rutina. En la aplicación en Damiana, los datos serán transformados
utilizando los pesos desagrupados entregados, por lo tanto este parámetro se iguala a uno.
En general, es más conveniente permitir a la rutina realizar la transformación porque
cuando se requiere la transformación, la rutina automáticamente retransformará
nuevamente la simulación. Si las leyes simuladas no vuelven a ser transformadas por la
rutina, entonces los datos dirigidos al archivo de salida seguirán una distribución estándar
normal y el usuario tendrá que pasar por otra rutina para realizar una transformación
nuevamente.
Nombre del archivo de salida que contendrá información acerca de la transformación de los
datos. El archivo tiene dos columnas. La primera columna es la ley y la segunda columna
es el valor normal para el valor de la ley.
Distribución de referencia
En algunas aplicaciones, sólo se genera una simulación. En esta situación, puede resultar
razonable requerir que la distribución de las leyes simuladas igualen la distribución de los
datos de entrada . En este caso, la línea (6) se sitúa en 1 y el archivo que contiene la
función de referencia se menciona en la línea (7). El archivo de referencia está en formato
ASCII y contiene pares de datos que describen la transformación (mapeo) o leyes a datos
26
de valores normales. La línea (8) define el número de columna que contiene la ley y la ley
transformada. Si la línea (6) se determina en cero, las líneas (7) y (8) se ignoran.
Extrapolación de la cola
Durante la transformación reversa, seguramente habrán valores simulados que están afuera
del rango de los datos. Para la simulación de Damiana, la ley máxima fue de 2.2% de
cobre y ésta fue transformada a 2.996. Se crearon valores simulados más grandes que 3.
No existe ninguna manera de transformar estos datos nuevamente sin entregar información
de la cola de la distribución. La línea (9) describe el mínimo y el máximo de valores
posibles para transformaciones reversas. Para Damiana, los valores 0 y 2.3 fueron
seleccionados luego de examinar el gráfico logarítmico de probabilidad. La línea (10) y
(11) describen cómo la cola de la distribución será ajustada. La aproximación más común
es introducir una cola lineal de tal manera que el primer parámetro de la línea (10) y (11) se
fija en 1. El segundo parámetro en estas líneas no se usa cuando se requiere un ajuste
lineal.
Salida de comprobación
Para revisar lo que está haciendo el programa, se pueden especificar varios niveles de
comprobación. La línea (12) define el nivel de comprobación (el nivel 3 debe ser evitado,
a menos que sólo unos pocos puntos estén siendo simulados) y la línea (13) define el
archivo en donde se escribirá el resultado.
Salida de la simulación
Los resultados de la simulación están escritos en el archivo que se muestra en la línea (14).
Los resultados son una sola columna de números.
Número de simulaciones
Las líneas (16), (17) y (18) definen la red de puntos que serán simulados.
Valor semilla
27
Cómo simular
Las líneas (20) a (29) describen cómo se realizará la simulación. La línea (20) define el
número de los datos que serán utilizados en la simulación, mientras la línea (21) define el
número de los puntos previamente simulados que serán utilizados. La línea (22) permite el
movimiento de datos puntuales a nodos krigeados. Si este valor se determina en 1, datos
puntuales se trasladan a los nodos más cercanos y se aplica un solo radio de búsqueda
tanto para los datos como para los puntos previamente simulados. Esto acelera la
simulación, sin embargo, se pierde la distinción entre los datos y los puntos previamente
simulados y todos los puntos son ubicaciones en la red de puntos sin importar si son datos
cercanos o no. Se recomienda que este valor siempre se determine en cero. Esto hace que
la rutina busque los datos reales para condicionar la simulación. En este caso, si no hay
datos cercanos suficientes, el punto no es simulado. La línea (23) permite la
implementación de la aproximación de malla múltiple que se discutió en el Módulo 4.2.
las líneas (24), (25) y (26) describen el método para buscar los datos que se usarán en la
simulación. Las líneas (27), (28) y (29) describen el tipo de el krigeado que se debe
realizar. Se recomienda el krigeado simple. Se recomienda un cuidado extremo si se
utilizan variables secundarias (líneas 28 y 29) a modo de soslayar la movilidad de los datos
(ver comentarios al final de este Módulo).
Modelo de variograma
La línea (30) es la primera de varias líneas que se han utilizado para especificar el modelo
de variograma. Es importante recordar que este es el modelo de los valores normales de
los datos y no los datos en sí. Primero, se especifican el número de las estructuras y el
efecto pepita. Las líneas que siguen describen las propiedades de cada estructura.
Resultados de la simulación
2
Expected Normal Values
-1
-2
-3
-4
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
2.00
3.00
Los variogramas de la transformación reversa de los valores simulados iguala más o menos
bien el modelo de variograma hecho para Variograms of the Simulations vs Model
los datos. Sin embargo, hay una 0.18
Para fines de esta demostración, esta característica de los datos no es tan importante. Se
utilizará la simulación debido a la buena igualación entre los datos simulados y reales y la
igualación razonablemente buena en la correlación espacial.
Debido a que los datos están agrupados dentro de la porción de leyes altas del yacimiento,
los pesos desagrupados se definieron y usaron en la transformación de los datos. Para
demostrar la importancia del desagrupamiento, se realizaron un conjunto de 20
simulaciones utilizando el mismo archivo de parámetros que se explicitó anteriormente con
un solo cambio: no se ocuparon desagrupamientos en la transformación.
29
Declusterized Transform
1.6
la misma semilla aleatoria, por
lo tanto, la simulación sólo se 1.2
Otra diferencia que muestra el gráfico está en la estadística de los datos y la simulación.
La diferencia en el promedio de la ley de los datos ponderados y desagrupados es de 0.1%
de cobre (.66% v/s .56%). Esto es muy significativo. La diferencia en la ley promediada
de las dos simulaciones es sólo 0.03% (.61% v/s .58%). Claramente, el proceso de
simulación (el cual se basa en el krigeado) tiene algunas propiedades de desagrupamiento y
después de la simulación, la mayoría de los efectos del agrupamiento de los datos son
removidos. Los problemas se originan cuando la distribución de los datos se compara con
la distribución de las leyes simuladas. El promedio no ponderado de los datos y el
promedio de la simulación nunca serán iguales si los datos son agrupados. Por lo tanto, si
el usuario no se da cuenta de que los datos requieren ser desagrupados y realiza una
transformación sin ponderar los datos, el promedio de la ley de la simulación y los datos no
serán iguales. Parecerá que la simulación es errónea cuando, de hecho, el error se genera
en el manejo de los datos.
Una revisión adicional que se puede realizar en la simulación es crear leyes de bloque y
comparar las leyes de bloque simuladas y krigeadas. En este caso, las leyes puntuales son
simuladas en un malla de 10x10m. Al promediar las nueve leyes simuladas de cada bloque
generan leyes de bloques de 30x30m. El objetivo de esta revisión no es ver si la
distribución de las leyes de bloque krigeadas igualarán las simuladas. De hecho, no lo
harán ya que las leyes krigeadas están alisadas. Los dos conjuntos de leyes de bloque
serán comparados en un gráfico para buscar sesgos condicionales en rangos de leyes
particulares que pueden ser introducidos por la transformación de la ley. El gráfico
también permite otra oportunidad para investigar los efectos del desagrupamiento al
presentar las leyes simuladas no ponderadas y desagrupadas.
30
El gráfico muestra claramente el sesgo condicional del el krigeado. Sin embargo, el sesgo
condicional es consistente a lo largo de todo el rango de la ley, por lo tanto no hay razón
para sospechar que la Kriged vs. Simulated Block Grades (30m Blocks)
transformación reversa introduce 1.8
sesgos específicos o locales en el Declustered Transform
Unweighted Transform
1.6
rango de la ley. Si se comparan
1.4 6x
los dos tipos de simulaciones, es + .7
de leyes el krigeados. La
variabilidad en las leyes simuladas debería dejar claro que las simulaciones no pueden ser
utilizadas para la estimación de leyes.
Después de promediar las leyes puntuales simuladas para producir leyes de bloques, los
resultados de la simulación pueden ser revisados de diversas maneras. Las simulaciones
pueden ser estudiadas una a la vez para adquirir una apreciación cualitativa en la
variabilidad espacial de las leyes. La distribución condicional de las leyes de bloques (la
distribución de las 20 leyes de bloques simuladas en cada localidad) pueden ser evaluadas
para definir la variabilidad local o para determinar la probabilidad de que la ley del bloque
sea mayor que la ley de corte.
Primero, la ley de una sola simulación se comparará con las estimaciones krigeadas para
resaltar (una vez más) las diferencias entre una simulación y una estimación.
20400 20400
20200 20200
20000 20000
19800 19800
19600
19600
-11400 -11200 -11000 -10800 -10600 -10400 -10200 -11400 -11200 -11000 -10800 -10600 -10400 -10200
31
Las estimaciones de las leyes krigeadas claramente son menos variables. Mientras las dos
imágenes muestran las mismas tendencias generales, hay mucho más detalle en la imagen
simulada. Si se comparan los contornos de las dos imágenes se puede apreciar que éstos
siguen la misma tendencia general, pero son mucho más variables. Como se discutió, la
simulación es sólo una de las veinte que fueron creadas. Si se observasen los contornos de
las veinte simulaciones, los límites esperados de cada línea de contorno podrían ser
definidos. Éste podría ser un mapa muy útil si los contornos correspondiesen a las leyes de
corte y la incertidumbre en el tonelaje del mineral fuese un asunto clave. Una imagen que
se refiere a un asunto similar (pero es más fácil de producir) es la probabilidad de que cada
bloque exceda la ley de corte.
Para este ejemplo se asume que ley de corte es de 0.5% de cobre. Para cada bloque hay
veinte leyes simuladas. La proporción de las leyes simuladas que exceden el corte es una
estimación de la probabilidad de que la ley verdadera del bloque exceda el corte. Si se
envía un bloque a la planta, esta probabilidad describe la posibilidad de que la decisión de
selección sea correcta. Otra manera de ver esta probabilidad de clasificación errada de un
bloque (es decir, enviar un bloque estéril a la planta) es de uno menos la probabilidad de
que la ley verdadera sea mayor que la de corte. En otras palabras, una vez que se ha
tomado una decisión de selección de mineral estéril para un bloque, la distribución de la ley
condicional describe la probabilidad de clasificación errada. La selección del mineral
estéril basado en la distribución condicional simulada y el costo de la clasificación errada se
está transformando en una práctica de uso común de la técnica de simulación. Este tema
será discutido detalladamente en el Módulo 4.4.
P r o b a b ilit y o f E x c e e d in g 0 . 5 % C o p p e r
La probabilidad de exceder el
0.5% de cobre entrega una 2 0 4 0 0
imagen bastante tenue de la
ubicación del material de la ley
del mineral. 2 0 2 0 0
Sorprendentemente, casi no hay
áreas en donde exista completa 2 0 0 0 0
seguridad de que el material
enviado a la planta no se
encuentre bajo la ley de corte. 1 9 8 0 0
Otra manera de decir esto es
que no existe una probabilidad 1 9 6 0 0
de contorno del 100% y las
áreas en donde hay una -1 1 4 0 0 -1 1 2 0 0 -1 1 0 0 0 -1 0 8 0 0 -1 0 6 0 0 -1 0 4 0 0 -1 0 2 0 0
probabilidad de que la ley exceda el corte sea mayor que 90% son mínimas. Por lo tanto, la
probabilidad de enviar estéril a la planta es mayor que 10% para todos los bloques.
32
20400 20400
0 .3 4 1 .0 0
0 .3 0
20200 20200 0 .8 5
0 .2 6
0 .7 0
20000 0 .2 2 2 0 0 0 0
0 .5 5
0 .1 8
19800 19800 0 .4 0
0 .1 4
0 .1 0 0 .2 5
19600 19600
0 .0 6 0 .1 0
-1 1 4 0 0 -1 1 2 0 0 -1 1 0 0 0 -1 0 8 0 0 -1 0 6 0 0 -1 0 4 0 0 -1 0 2 0 0 -1 1 4 0 0 -1 1 2 0 0 -1 1 0 0 0 -1 0 8 0 0 -1 0 6 0 0 -1 0 4 0 0 -1 0 2 0 0
Las unidades de la imagen de desviación estándar condicional son el porcentaje del cobre.
Debido al efecto proporcional la incertidumbre mayor se encuentra en las áreas en donde
existen las leyes mayores, por lo tanto la imagen de la desviación estándar condicional no
difiere de la imagen de la ley estimada. La imagen de la simulación condicional relativa
no tiene unidades debido a que la desviación estándar condicional se divide por la ley. Una
vez que el efecto proporcional es eliminado, la incertidumbre es menor en áreas donde la
densidad de los datos es mayor. En las áreas coloreadas en gris, la varianza condicional
relativa es menor que 25%. Si la distribución condicional es normal, el resultado quiere
decir que hay una confianza de un 90% que la ley verdadera está dentro +/- 41% de la ley
estimada (ó 1.64*.25 donde 1.64 proviene de la tabla de la distribución normal).
33
Para calcular los intervalos de confianza a partir de las mismas simulaciones, se ordenan los
valores simulados para cada bloque y se
seleccionan los valores que
corresponden a los porcentajes
apropiados. En este ejemplo, hay veinte
simulaciones para cada ley de bloque.
Se toman los valores 2º y 19º como
valores representativos de los límites del
90% de las leyes de bloque. Se grafica
la diferencia entre estos valores.
Obviamente este método es más exacto
cuando el número de simulaciones es
mayor. El gráfico del ancho del 90% de
los intervalos certeros se puede
comparar con el gráfico de desviación
estándar (arriba), sin embargo los contornos de la desviación estándar condicional deben
ser multiplicados por 3.18(1.64*2) para mostrar la extensión del intervalo estimado con un
90% de confianza. Claro esta que las imágenes no son idénticas pero hay una fuerte
similitud (Vea la sección de comentarios para más discusión al respecto).
Finalmente, las imágenes para cualquier porcentil pueden ser creadas e interpretadas. Para
este ejemplo, las imágenes de los porcentiles 50 (mediana) y 90 fueron producidas.
Median Copper C o n t o u r s o n t h e 9 0 t h P e r c e n t ile G r a d e
Grade
20400
2 0 4 0 0 .0 0
1 .4 5
20200 1 .3 0
2 0 2 0 0 .0 0
1 .1 5
20000
2 0 0 0 0 .0 0 1 .0 0
0 .8 5
19800
1 9 8 0 0 .0 0
0 .7 0
19600 0 .5 5
1 9 6 0 0 .0 0
La mediana de la ley provee una imagen mucho más pareja de las leyes del cobre que lo
que entrega la ley media. La imagen del percentil número 90 puede ser interpretada como
un tipo de intervalo de confianza. En cada ubicación solo existe una posibilidad de un
10% de que una ley real sea excedida por el valor indicado.
intermedias se encuentran en áreas que contienen minerales negros mientras que las leyes
bajas fueron encontradas en donde no había minerales de cobre visible. La distribución
espacial para estos tres tipos minerales será simulada en un nivel del yacimiento utilizando
la simulación del indicador secuencial.
Proporciones Estimadas
Estimaciones Sin Estimaciones
Mineralogía
Ponderar Desagrupadas
Minerales Negros 0.355 0.356
Minerales
0.548 0.529
Negro+Verdes
No Visible 0.096 0.115
variables geológicas. Los variogramas Black Minerals (h) = 0.08 + .10 Sph 45 (h) + .06 Sph 500 (h)
0.04 Black + Green (h) = 0.09 + .08 Sph (h) + .05 Sph (h)
de indicadores direccionales no Not Visible (h) = 0.03 + .05 Sph
50
80 (h) + .01 Sph
400
200 (h)
entonces: Distance
La información de las líneas (1) a la (4) describe el tipo de simulación de indicador. Para
los datos categóricos la línea
(1) debe ser 0. La línea (2) Parameters ********************
for SISIM
Archivo de salida.
37
Las líneas (7) y (8) proveen información sobre la operación del programa. Valores de 2 ó
menos son sugeridos para la línea (7). La información será escrita en el archivo
de la línea (8). Los resultados de la simulación serán escritos en el archivo de
línea (9). Para esta aplicación, la salida es una simple columna de números que
son ya sea el 1, 2, ó 3. Los valores simulados corresponden a la variable de
código de entrada.
Método de simulación.
Para este ejemplo de aplicación solo se realiza 1 simulación (línea 10) dado que el objetivo
consiste en observar las diferencias entre un mapa de litología estimado y uno simulado.
Simulaciones múltiples podrían ser realizadas para examinar, por ejemplo, la `probabilidad
de que cada punto de simulación corresponde a una mineralogía particular. La red de
puntos simulados esta definida en la línea (11). La semilla en la línea (12) inicia la serie de
números aleatorios.
Método de búsqueda
Las líneas (13) y (14) especifican el numero de datos y los puntos previamente simulados
para usarlos en la simulación. La línea (15) define si acaso datos puntuales serán movidos
hacia la malla de nodos más cercana. Como lo hemos mostrado los datos son trasladados
hacia el nodo más cercano. Esto fue realizado para mejorar la calidad del resultado. Este
tema es discutido con más detalles en la sección de discusión al final de este módulo. La
línea (16) especifica que la aproximación de la simulación en malla múltiple debería ser
utilizada y la línea (17) permite la implementación de una búsqueda octántica.
Método de El krigeado.
La línea (18) permite la aproximación del krigeado del indicador de la mediana. Cuando
esta aproximación es especificada un solo modelo de variograma es utilizado para todas las
categorías. En esta aplicación, serán utilizados modelos separados para todas las tres
categorías; por lo tanto este valor se fija en 0. La estimación del krigeado simple es el
método más apropiado entonces la línea (19) se fija en 0.
Parámetros de variogramas.
En las líneas que siguen a la línea (20), los parámetros de los modelos del variograma del
indicador son especificados. Dado que hay tres categorías, hay tres conjuntos separados de
parámetros de modelos de variogramas.
Tal como con la simulación de las leyes, los resultados de la simulación del indicador deben
ser revisados antes de comenzar a analizar los resultados. La revisión de las estadísticas de
38
0.12
variabilidad levemente más alta en todas las distancias. Sin embargo, la forma de los
puntos experimentales es casi igual a la forma del modelo de entrada. Para las
mineralogías negra y verde+negra, la variabilidad de los puntos experimentales también es
mayor que el modelo a grandes distancias pero a distancias cortas el modelo coincide de
manera cercana con los puntos de experimentación. En distancias entre 50 y 200 metros,
el variograma experimental de la simulación no coincide muy bien con los modelos de
entrada. A pesar de que el variograma experimental de los puntos simulados no coincide
con los modelos exactamente, las diferencias no son extremadamente grandes y parecen
estar dentro de las fluctuaciones
estadísticas posibles a esperar con
el proceso de simulación. Las
simulaciones serán aceptadas
quedando pendiente revisiones en
el mapa de los datos simulados.
39
El mapa de los datos indicadores simulados es superpuesto sobre el mapa de los datos. La
simulación parece ser una buena representación de la posible distribución de
cada mineralogía. Como se muestra, la distribución de la mineralogía simulada
es más complicada (más entremezclado de mineralogías) que en el gráfico
original de los datos indicadores. Dado que las leyes del cobre contenidas en
cada mineralogía son diferentes, una evaluación de la dilución minera basada en
distribuciones estimadas y simuladas de las mineralogías podría entregar
resultados muy diferentes.
En casos como este en donde variables categóricas controlan la distribución de las leyes, es
común que se requiera de una aproximación de simulación que implique dos pasos.
Primero la distribución de las variables categóricas son simuladas como se ha discutido
aquí. Luego, la distribución de las leyes dentro de cada categoría se simulan y finalmente
las leyes simuladas se ajustan con la simulación de las variables categóricas. Para este
ejemplo, otra forma de decir esto es que cada punto en la red de simulación sería simulado
4 veces: una para la mineralogía y tres veces para la ley (una ley para cada mineralogía).
Si la categoría simulada corresponde a minerales de cobre negro, entonces la ley simulada
para minerales negros sería utilizada y las otras dos leyes simuladas serían descartadas.
La rutina LUSIM tiene bastante menos variables de entrada que otras rutinas de simulación.
Existen dos principales razones para esto. Primero, tanto la entrada como la salida de la
rutina son transformaciones normales de los datos. Eso es, que en la rutina no se realizan
transformaciones a los datos. Como fue descrito previamente, los datos pueden ser
transformados hacia una variable normal estándar utilizando funciones que se encuentran
en el Excel o Statistica. La transformación inversa no es tan sencilla entonces es mejor
utilizar la rutina de GSLIB BACKTR o una equivalente. Segundo, la rutina utiliza todos
los datos entregados en la simulación entonces no hay búsqueda de datos cercanos.
40
Casi todos los parámetros mostrados acá a estas alturas deberían ser familiares dado que
son utilizados en otras rutinas. Aquellos parámetros que son distintos son discutidos más
adelante.
Entrada de datos.
Parameters for LUSIM
Las líneas (1), (2), y (3) describen ********************
el archivo de datos. START OF PARAMETERS:
La Estructura de archivo es la c:\datafiles\course\sim\declusl.csv \file with data (1)
misma que en las otras rutinas 1-1.0e21 2 3 5
1.0e21
\ columns for X,Y,Z, normal scores
\ trimming limits
(2)
(3)
exceptuando que solo los valores 2 \debugging level: 0,1,2,3 (4)
lusim.dbg \file for debugging output (5)
normales transformados son leídos. c:\datafiles\course\sim\lusim.out \file for realization(s) (6)
En esta aplicación, solo 21datos 100 \number of realizations (7)
ubicados dentro de un cuadrado de 99 -10505 19865 10
10 \nx,xmn,xsiz
\ny,ymn,ysiz
(8)
La salida es una serie de valores (1 valor por registro). El número total de registros en la
salida de archivo es equivalente al número de simulaciones multiplicado por el número de
puntos, entonces incluso para este pequeño ejemplo el archivo de salida era grande. El
desarrollo de una rutina para procesar los resultados de la simulación es necesario para la
transformación inversa y manejar los datos.
Resultados de simulación.
Las leyes SGSIM simuladas están basadas en un krigeado simple que utiliza tanto los datos
cercanos como los puntos previamente simulados. El número y ubicación de los datos
utilizados puede ser controlado. Mientras que el número máximo de puntos previamente
simulados puede ser controlado, el usuario no puede controlar la ubicación de estos puntos.
Los puntos son simulados siguiendo un camino aleatorio a través de la malla de simulación.
La rutina LUSIM realiza un el krigeado simple utilizando solo los datos entregados al
programa. No se utilizan datos simulados. La importancia de esto es que las
ponderaciones del krigeado simple consideran los datos y la ley promedio del yacimiento.
Cuando la configuración de los datos cambia también lo hace la del ponderador de la
media. El traslado de la cantidad de peso dada a la ley promedio general podría fácilmente
cambiar la ley promedio del bloque e introducir “sesgo” aparentes vistos en el gráfico qq.
No hay nada en una simulación que garantice que es un buen estimador de la ley del
bloque. Dos simulaciones pueden dar leyes promedio muy diferentes. Dicho esto la
aproximación LU pareciera ser la aproximación más consistente ya que las simulaciones
son desarrolladas directo desde la matriz de correlación y el krigeado de los datos
(solamente). Desafortunadamente, este método no es viable sobre volúmenes grandes
entonces la aproximación de simulación secuencial es requerida para escala comercial.
Comentarios.
En lo casos previamente estudiados hay un número de asuntos técnicos que surgieron que
no pudieron ser tratados en profundidad dentro del desarrollo del texto. En esta sección,
estos asuntos serán discutidos con más detalle.
Como hemos discutido hay pros y contras cuando se mueven los datos hacia los nodos de la
simulación. Lo que debiera decidirse es específico de cada proyecto; sin embargo,
haremos la siguiente recomendación. Para datos continuos (ley por ejemplo) no mueva los
datos. Para datos categóricos (mineralogía por ejemplo) mueva los datos hacia el nodo de
simulación. Con datos numéricos es importante que los datos reales sean utilizados en la
simulación. La flexibilidad para buscar los datos de manera separada y prevenir la
simulación en áreas no muestreadas compensa la velocidad y las ventajas que implica
mover los datos condicionantes. Los datos categóricos son parte de otra historia. Dado
que los datos utilizados en la simulación son todos 0 ó 1, el alisamiento es alto. Sin
condicionamiento fuerte, el mapa simulado no reproducirá el mapa de los datos muy bien.
Para mostrar la importancia del condicionamiento en simulaciones categóricas, la
simulación del indicador de mineralogía presentada con anterioridad fue realizada a través
de ambos métodos. Estas distribuciones simuladas de mineralogía para cada método son
como se muestra a continuación.
Como lo muestran las imágenes, mover datos puntuales hacia los nodos mejora en gran
manera la apariencia del mapa.
43
Intervalos de confianza.
Para probar este método, será asumido que la varianza condicional puede ser
razonablemente estimada (como se muestra en el modulo 3). Llegado este punto la
pregunta es si acaso esta varianza sola puede ser utilizada para predecir los intervalos de
confianza entregados por la simulación. Utilizando la rutina de SGSIM, 20 leyes de
bloque fueron simuladas. La varianza condicional fue calculada e intervalos de un 90% de
confianza fueron determinados Comparison of Confidence Limits
Basados en el supuesto de normalidad. 3.0
Estos intervalos paramétricos fueron
comparados con el 90% de intervalos 2.5
Simulated Upper 90% Conf. Limit
conjunto de la distribución de la ley, leyes altas y bajas separadas del yacimiento son
realmente variables diferentes. Esto significa que la transformación hacia variables
normales debiera ser diferente dado que la distribución de la ley es diferente.
leyes simuladas.
0.45
La segunda solución a este problema es utilizar todos los datos pero intentar variar la media
de la distribución condicional de manera local para considerar no estacionaridades. Esta
modificación es codificada dentro de la rutina SGSIM (líneas (27) y (28) del archivo de
parámetros). Para aplicar este método, primero el promedio de ley local transformada es
estimado utilizando un método de búsqueda que evita las no estacionaridades (en el caso de
Damiana, la estimación es realizada utilizando solo una búsqueda horizontal). Esta ley
promedio es luego proporcionada a la rutina de simulación para ser utilizada en el krigeado
simple (en vez de suponer que la media local es 0).
El Control de la Ley
Un uso muy común, utilizado cada vez más, de la simulación es en el control de la ley. En
la aproximación de la simulación hacia el control de la ley, las decisiones relativas al
mineral/estéril se toman en base a la distribución de la ley estimada del bloque en vez de
sólo considerar el promedio estimado de la ley del bloque. Para crear una distribución de
la ley del bloque, se discretiza una unidad de selección minera (SMU – unidad básica de
selección) en una serie de puntos. Las leyes de cada punto se simulan y se les calcula la
media para crear una ley simulada del bloque. La realización de múltiples simulaciones de
las leyes en cada punto genera múltiples leyes del bloque y se puede observar la
distribución de cada una de las leyes del bloque. Este procedimiento es una solución
directa al problema de cambio de soporte. Debido a que los datos simulados reproducen la
correlación espacial de los datos, la media de los puntos discretizados y simulados debiera
reproducir la distribución espacial de las leyes del bloque. Ningún otro método de cambio
de soporte entrega una solución más directa al problema del cambio de soporte. Más aún,
no existen suposiciones relativas de la forma de la distribución o ninguno de los problemas
asociados a los otros métodos de cambio de soporte. Debido a que el método de
simulación no asume una forma particular para la distribución de la ley del bloque, la
distribución final puede tomar cualquier forma.
Con la distribución de las leyes del bloque, es posible la toma de decisiones relativas a la
evaluación detallada del mineral/estéril durante el control de la ley. Particularmente, los
costos asociados a la clasificación errada del mineral/estéril se pueden tomar en
consideración para tomar decisiones acerca del control del mineral. Esto se hace para que
las decisiones relativas al control de la ley minimicen los costos de una clasificación errada
y así se optimice la rentabilidad de la operación.
47
mineral (ambos, estimación y realidad 0.25 0.50 0.75 1.00 1.25 1.50
los bloques en estos cuadrantes, los errores de estimación no tienen impacto a corto plazo
en términos de la rentabilidad de la operación debido a que el material se ha enviado hacia
el destino correcto. Algo menos afortunado ocurre con los bloques ubicados en los
cuadrantes 1 ó 4. En el cuadrante 1, los bloques con leyes reales más elevadas que la ley
de corte se clasifican como estéril, mientras que en el cuadrante 4, los bloques con leyes
reales inferiores a la ley de corte se clasifican como mineral.
Cada tipo de clasificación errada tiene un costo asociado. Cuando se envía el estéril a la
planta, el costo de procesamiento del material excede el valor del mineral recuperable.
Debido a que todas las plantas tienen un máximo de rendimiento, también se debe
considerar el costo de oportunidad asociado al desplazamiento del mineral con motivo de
procesar el estéril. Cuando el mineral se envía al botadero, hay un costo asociado a una
pérdida por no procesar el mineral contenido en el bloque, además del costo adicional de
transporte. Los costos reales dependerán de cada operación. Sin embargo, es muy
probable que los costos de una clasificación errada serán una función lineal de la ley, así
como las ganancias son una función lineal de la ley.
La Función de Pérdida
Las pérdidas asociadas a una clasificación errada se pueden generalizar para definir una
función de pérdida. Para cada tipo de función de pérdida, se puede definir un método
óptimo de estimación. Por ejemplo, si la pérdida asociada a un error es parabólica y
simétrica, entonces el estimador óptimo es el krigeado. Es decir, el krigeado no sólo
minimiza la varianza de la estimación sino que también minimiza las pérdidas asociadas a
una clasificación errada. Si, en la práctica, las pérdidas asociadas a una clasificación
errada no son parabólicas y simétricas (es decir, los costos son diferentes para una
clasificación errada del mineral/estéril), entonces surge una pregunta muy importante
acerca de si el krigeado realmente es el estimador que maximiza el potencial de ganancias
de la operación. Potencialmente otro estimador puede superar el krigeado en términos de
una maximización de las ganancias.
48
Para entregar un ejemplo de cómo un estimador diferente del krigeado puede mejorar la
rentabilidad, consideremos una operación simple en donde la mina es un factor limitante de
la producción. Es decir, la planta tiene un diseñado muy sofisticado y puede aceptar
cualquier cosa que la mina produzca y esto puede ser vendido fácilmente al precio actual
del mercado. Bajo este escenario (el cual asume que los costos de procesamiento del
mineral y el estéril son esencialmente iguales), el valor de un bloque en particular se puede
definir como lo siguiente:
V = R●Z(X) – C
Para que todo este claro, Z(X) representa la ley real del bloque y V también es una variable
aleatoria que define el valor real del bloque.
Debido a que Z(X) es una variable aleatoria, hay una probabilidad p de que la ley sea
superior a la ley de corte. Al incorporar esta probabilidad y al sumar las pérdidas
potenciales resulta en:
Para evaluar esta expresión, uno debe recordar que Z(X) es una variable aleatoria (no una
constante) y que en el establecimiento de las pérdidas totales, se hicieron algunas
suposiciones acerca de la ley real del bloque. En un caso, las pérdidas de valor se
definieron después de establecer que la ley real del bloque era superior a la ley de corte.
En el otro caso, se estableció que la ley real del bloque era inferior a la ley de corte.
Además, lo que interesa es el valor esperado (o promedio) de la pérdida de valor. Al
incorporar estas correcciones, la pérdida total de valor esperado es de:
Para simplificar las cosas, las esperanzas condicionales se pueden anotar de esta forma:
Cuando se toma una decisión acerca del mineral/estéril, la idea es tomar la decisión que
minimice las pérdidas de la operación que ocasiona una clasificación errónea. Por lo tanto,
un bloque se envía a la planta si la esperanza de la pérdida esperada como resultado de la
toma de esta decisión es menor que la pérdida esperada asociada al envío del bloque al
botadero. Cuando los dos términos de pérdida son iguales, la decisión nos es indiferente.
La resolución de p bajo estas condiciones es de la siguiente manera:
-p (R Z+ - C) = (1 – p) (R Z- - C)
p R Z- - p R Z+ = R Z- - C
pn = (R Z- - C)/(R Z- - R Z+)
Si la probabilidad de que el bloque exceda la ley de corte es mayor que p n , entonces las
pérdidas esperadas asociadas con el envío del bloque a la planta serán inferiores a las
50
pérdidas esperadas asociadas al envío del bloque al botadero. Por lo tanto, el bloque es
enviado a la planta.
Cutoff Grade
Std Dev. = 0.11
de corte y la probabilidad 0%
estimada de que la ley sea .175 .225 .275 .325 .375 .425 .475 .525 .575 .625 .675 .725
pn = (R Z- - C)/(R Z- - R Z+)
pn = (22.04*.8*.8*0.35-7.0)/(22.04*.8*.8*(.35-.58))
pn = 0.64
Si la proporción de los bloques superior a la ley de corte excede este valor, las pérdidas
esperadas resultantes de procesar en la planta el bloque son menores que las pérdidas
esperadas si se envía el bloque al botadero. En este caso, sólo 15% de los bloques de la
distribución simulada excede la ley de corte de 0.5%. Dado que 0.15 es inferior a 0.64, las
pérdidas esperadas se minimizan si el bloque se envía al botadero. Por lo tanto, basado en
la aproximación de la función de pérdida, este es un bloque de estéril.
51
Un tamaño de bloque de 30x30m se considerará como una SMU. Este será el tamaño del
bloque más pequeño con el cual se tomarán las decisiones mineral/estéril. Puesto que las
leyes reales (simulación Gaussiana secuencial) se definen en una malla de 10x10m, habrán
9 puntos simulados dentro de cada bloque. La media de estos puntos de leyes simuladas se
definirán como leyes de bloque “reales”. Para cada bloque de 30m, se tomaran tres
decisiones de mineral/estéril. La primera decisión se tomará en base a la muestra más
próxima (estimación polígono). La segunda decisión se tomará en base a la ley de bloque
estimada (krigeado) y la decisión final se tomará en base a la distribución condicional
(simulación). Para cada decisión, se tabularán el número de bloques clasificados correcta e
incorrectamente. Para aplicar el método de simulación, se realizaron 100 simulaciones
para cada ley de bloque utilizando una aproximación de una simulación LU. Gracias a las
simulaciones se definieron las leyes esperadas superiores e inferiores a la ley de corte, así
como la proporción de los bloques superior a la ley de corte. Utilizando esta información y
los datos de costo y ganancias, el bloque se clasificó como mineral o estéril en la manera
como se describió en el ejemplo anterior.
Para los 540 bloques, el estimador de polígonos clasifica erradamente 176 bloques,
mientras que el krigeado clasifica erradamente 114 y la simulación clasifica erradamente
107. claramente hay una mayor reducción en la cantidad de clasificaciones erradas cuando
se utiliza un estimador diferente al polígono. Sin embargo, un número grande
(probablemente la mayoría) de minas en operación insisten en realizar control de la ley en
base a un estimador de polígono (simple contorneo de la ley de los hoyos de tronadura).
Como se mostrará, los costos asociados a esta terquedad pueden ser muy sustanciales.
Entre el krigeado y la simulación hay una mejora marginal en la cantidad de clasificación
errada. Pero incluso esta mejora pequeña tiene una implicancia financiara importante.
Para examinar los costos asociados a una clasificación errada, se realizó un cálculo de las
pérdidas. Si se clasifica correctamente un bloque, no hay pérdidas ya que el bloque se
envió al destino adecuado y la operación recibirá el valor máximo posible para el bloque.
Por lo tanto, los bloques del estéril enviados al botadero o los bloques del mineral enviados
a la planta no entran en este análisis. Para los bloques clasificados erróneamente, se pudo
haber obtenido un valor mayor si el bloque hubiese sido enviado al lugar adecuado. Un
análisis simple de las ganancias operacionales se lleva a cabo para determinar las pérdidas
producidas por una clasificación errada. Al realizar este análisis, se utilizan los siguientes
parámetros:
Para cada bloque clasificado erradamente, se tabuló la pérdida de las ganancias (mineral
enviado al botadero) o los costos incurridos (estéril enviado a la planta) y la suma de todos
los bloques se calculó. Las pérdidas asociadas a cada uno de los tres esquemas de
clasificación se anotaron en la siguiente tabla:
Claramente la reducción en las pérdidas que surgen de utilizar desde el método de los
polígonos a los otros dos estimadores es sustancial. La reducción en las pérdidas que se
ocasiona al cambiar del krigeado hacia la simulación resulta en la suma de $175.000. El
ahorro se realiza sobre los 4.2 millones de toneladas de mineral o 30.000 toneladas de cobre
fino. Para la producción anual de una mina que produce 150.000 toneladas de cobre al
año, se lograría un ahorro de $875.000 si el control de la ley se hace en base a la
simulación.
53
separadas que
corresponden a la ley 0.6
superior de corte en un Note: One Month and One Year Symbols Are Displaced Horizontally For Clarity
All Symbols Should Plot On The Same Vertical Line
0.5
año, 5 meses y volúmenes 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8
Las tres líneas conectan la ley recuperada estimada para cada uno de los períodos de
tiempo en cada una de las leyes de corte. Las barras verticales de error muestran la
incertidumbre que rodea la ley estimada (intervalo de confianza de 95%). Entonces, por
ejemplo, a un corte de 0.1 % de cobre, la media estimada de la ley superior a la ley de corte
55
es de alrededor de 0.6% y estamos 95% seguros de que la media de la ley está entre .55 y .
65%. lo primero que hay que notar es que el ancho de las barras de error disminuye en la
medida en que el volumen considerado aumenta. Esta es la relación volumen-varianza
previamente presentada. La siguiente característica es que las barras de error tienen la
tendencia a hacerse más anchas en la medida en que la ley de corte aumenta, a pesar que el
aumento en el ancho de las barras de error no es tan grande como el aumento en la ley. Por
lo tanto, la incertidumbre es, en efecto, una función de la ley de corte, pero no de manera
intensa.
En este gráfico, el tonelaje sobre la ley de corte se estandariza al total del tonelaje dentro
del volumen de interés. Esto se hace para permitir que los tonelajes en los tres periodos de
tiempo diferentes (mes, 5meses, año) se puedan comparar. Luego de la estandarización, el
tonelaje superior a la ley de corte, en corte 0 es de 1.0 para cada uno de los tres volúmenes.
Así como con la ley superior a la ley de corte, la estimación del tonelaje se representa por
un símbolo y una línea que conecta los símbolos para cada período de tiempo. Las barras
de error representan el 95%
Uncertainty in Estimated Tons Above Cutoff
del intervalo de confianza. Uncertainty as a Function of Volume and Cutoff
Una vez más, la relación
volumen-varianza se aplica 1.0
debido que las barras de
error para un año son más 0.8
Fraction of Total Tonnage
ley de corte y la incertidumbre es baja. En las leyes de corte altas, sin embargo, una
proporción significativa de los bloques tienen leyes reales cercanas a la ley de corte,
entonces la incertidumbre en los tonelajes superiores a la ley de corte es relativamente alta.
Es importante destacar que el ancho de las barras de error para el tonelaje es mayor (sobre
una base relativa) que el ancho de las barras de error para la ley. Esto indica que, por lo
menos, para los cortes altos, el foco en la incertidumbre en las leyes estimadas para la
clasificación de recursos es equívoco. La incertidumbre en el tonelaje superior a la ley de
corte debe también ser considerado.
Para investigar aún más la importancia relativa de la incertidumbre del tonelaje y de la ley,
se considera la
incertidumbre en la ley y Uncertainty in Tonnage and Grade Above Cutoff
en el tonelaje superior a la Monthly Mining Areas
0.5
ley de corte en cada uno
de los períodos de 5 Rel. Conf. Int. By Month
Relative 95% Confidence Interval
El tonelaje estimado superior a la ley de corte aparentemente es mucho más incierto que la
ley estimada superior a la ley de corte. En la medida que aumenta la ley de corte, el
tonelaje superior a la ley de corte disminuye. Por lo tanto, aun si la incertidumbre absoluta
se mantuviese constante a medida que la ley de corte aumentara, la incertidumbre relativa
aumentaría con la ley de corte. En este ejemplo, la incertidumbre absoluta en el tonelaje
57
superior a la ley de corte aumenta con la ley de corte, entonces la incertidumbre relativa
aumenta bruscamente. La dependencia de la incertidumbre de la ley de corte es
significante. En cortes muy bajos, casi no existe incertidumbre (todo es mineral), sin
embargo, en cortes más altos existe gran cantidad de incertidumbre tanto si las leyes de
bloques individuales son superiores o inferiores a la ley de corte. Esto se traduce en una
alta incertidumbre en el tonelaje del mineral. Esta alta incertidumbre causaría problemas
operacionales significativos si este yacimiento se operara en un corte de 0.7 o 0.8. En
algunos meses, habría mineral insuficiente, mientras que en otros habría exceso de mineral.
Los operarios se percatarían muy pronto que se requiere de acopios para cumplir las metas
de producción. La incertidumbre en la estimación de la ley no permite darse cuenta de este
tipo de problemas. Sólo una simulación puede revelar el potencial de ocurrencia de este
tipo de problema operacional.
0.6
datos de elevación. Debido a este efecto pepita relativamente alto, la superficie simulada
será bastante irregular a través de los datos condicionantes.
superficie estimada. Se destaca que hay una exageración vertical significativa en esta
figura, por lo tanto, la variabilidad no es tan grande como aparenta.
Una comparación breve de las superficies estimadas y simuladas muestra rápidamente que
las decisiones relativas a la altura de banco o a la selectividad (tamaño de los equipos)
pueden ser muy diferentes, dependiendo de la superficie utilizada en el análisis. Para
mostrar cómo la variabilidad de este tipo de superficie de mineral/estéril puede impactar las
decisiones, se realizó un análisis simple del tonelaje y de la ley superior a la ley de corte
como una función del tamaño del bloque. Para que todo resulte más claro, se asumió que
los bloques superiores a la interfase tienen una ley cero, mientras que los bloques inferiores
a la interfase tienen una ley 1. los bloques se consideran como mineral si la ley es superior
a 0.5 (en otras palabras, un bloque es seleccionado si 50% es inferior a la interfase
sobrecarga/óxido).
Para evaluar el impacto que tiene el pasar por alto la variabilidad en este tipo de análisis, se
asumirá que las decisiones mineral/estéril se toman en base a la interfase estimada. para
varias alturas de banco diferentes, los bloques se consideran como mineral si la ley
estimada es superior a la ley de corte y el tonelaje y la ley superior a la ley de corte se
tabulan. Los bloques seleccionados como mineral por la superficie estimada también
tienen leyes estimadas y simuladas (es decir, la proporción del bloque que es mineral
definido por la superficie simulada), por lo tanto, para cada altura de banco existe tanto una
ley estimada como una ley simulada para el tonelaje seleccionado. Si se comparan estas
dos leyes promedio, resulta claro que ya que la superficie estimada subestima la
variabilidad de la interfase, la selección basada en esta interfase subestima el mezclado del
mineral y el estéril en bloques ubicados cerca de la interfase. Como resultado, la ley
promedio de la simulación es significativamente menor que la ley promedio de las
estimaciones y es posible, ciertamente, que decisiones diferentes acerca de la
economía/producción se pueden tomar considerando la altura de banco o tamaño de los
equipos en base a las diferencias entre las leyes simuladas y estimadas.
Este tipo de análisis se puede expandir fácilmente para tratar temas específicos de los
yacimientos tales como la presencia de diques, zonas de mineral angosto o contactos tri-
dimencionales de mineral/estéril. Un análisis completo del problema típicamente
consideraría simulaciones múltiples de tanto la ley como la geología (contactos
mineral/estéril) para desarrollar definiciones probabilísticas del tonelaje y de la ley del
mineral que sería recuperado en cada altura de banco.
60
una vez que este tipo de simulaciones estén disponibles, diversos tipos de preguntas se
pueden evaluar directamente para períodos de tiempo específicos. En particular, lo
siguiente se puede evaluar directamente:
Potencialmente, existen muchos otros usos para dicha simulación. Como sucede con
muchas cosas, los usos de una herramienta no se conocen por completo hasta que la
herramienta se ha hecho accesible. Los geólogos e ingenieros no están acostumbrados a
tener una simulación a su disposición para asistirlos en las decisiones. Pero una vez que ya
se ha hecho accesible, no cabe duda que la simulación se hará por lo menos tan útil como es
hoy en día el modelo de las leyes de bloque.
61
Notas