Вы находитесь на странице: 1из 61

1

INDICE

MÓDULO 4.1 – INTRODUCCIÓN A LA SIMULACIÓN............................................................................3


SIMULACIÓN V/S ESTIMACIÓN........................................................................................................................3
FUNDAMENTOS DE LA SIMULACIÓN................................................................................................................6
EJEMPLO DE UNA SIMULACIÓN.......................................................................................................................6
PROPIEDADES DE LOS DATOS..........................................................................................................................7
SIMULACIÓN....................................................................................................................................................7
CONDICIONAMIENTO.......................................................................................................................................9
COMENTARIO FINAL......................................................................................................................................11
MODULO 4.2 – UNA MIRADA A LA TEORÍA DE LA SIMULACIÓN CONDICIONAL.....................12
SIMULACIÓN SECUENCIAL GAUSSIANA........................................................................................................12
IMPLEMENTACIÓN DE LA SIMULACIÓN SECUENCIAL GAUSSIANA.............................................................15
REPASO DE LA APROXIMACIÓN DE LA SIMULACIÓN SECUENCIAL GAUSSIANA.............................................17
SIMULACIÓN SECUENCIAL DEL INDICADOR....................................................................................................18
DATOS INDICADORES PARA VARIABLES CATEGÓRICAS....................................................................................19
SIMULACIÓN DE LOS DATOS INDICADORES.....................................................................................................19
MÉTODO DE DESCOMPOSICIÓN LU.................................................................................................................20
MÓDULO 4.3 – EJEMPLOS DE SIMULACIÓN CONDICIONAL..........................................................22
SIMULACIÓN DE DATOS CONTINUOS................................................................................................................22
ESTADÍSTICA Y CORRELACIÓN........................................................................................................................22
USO DE LA RUTINA SGSIM............................................................................................................................24
ARCHIVO DE LOS DATOS Y COLUMNAS DE ENTRADA......................................................................................24
LÍMITES DE CORTE..........................................................................................................................................25
TRANSFORMACIÓN DE LOS DATOS (LÍNEA 4)..................................................................................................25
FUNCIÓN DE TRANSFORMACIÓN (LÍNEA 5).....................................................................................................25
DISTRIBUCIÓN DE REFERENCIA.......................................................................................................................25
EXTRAPOLACIÓN DE LA COLA.........................................................................................................................26
SALIDA DE COMPROBACIÓN............................................................................................................................26
SALIDA DE LA SIMULACIÓN............................................................................................................................26
NÚMERO DE SIMULACIONES............................................................................................................................26
RED DE PUNTOS SIMULADOS...........................................................................................................................26
VALOR SEMILLA..............................................................................................................................................26
CÓMO SIMULAR...............................................................................................................................................27
MODELO DE VARIOGRAMA..............................................................................................................................27
RESULTADOS DE LA SIMULACIÓN....................................................................................................................27
REVISIÓN DE LAS DISTRIBUCIONES DE LA LEY...............................................................................................27
REVISIÓN DE LA CORRELACIÓN ESPACIAL......................................................................................................28
EL IMPACTO DEL DESAGRUPAMIENTO.............................................................................................................28
COMPARACIÓN DE LAS LEYES DE BLOQUE SIMULADAS Y KRIGEADAS...........................................................29
SALIDA DE LAS SIMULACION...........................................................................................................................30
SIMULACIÓN DE DATOS CATEGÓRICOS............................................................................................................33
ESTADÍSTICAS Y DISTRIBUCIÓN DE LOS DATOS..............................................................................................34
USO DE LA RUTINA SISIM..............................................................................................................................35
TIPO DE SIMULACIÓN DEL INDICADOR............................................................................................................36
ARCHIVO DE DATOS........................................................................................................................................36
ARCHIVO DE SALIDA.......................................................................................................................................36
MÉTODO DE SIMULACIÓN...............................................................................................................................37
MÉTODO DE BÚSQUEDA..................................................................................................................................37
MÉTODO DE EL KRIGEADO.............................................................................................................................37
PARÁMETROS DE VARIOGRAMAS....................................................................................................................37
RESULTADOS DE LAS LA SIMULACIÓN.............................................................................................................37
SIMULACIÓN RÁPIDA DE DATOS CONTINUOS...................................................................................................39
2

USO DE LA RUTINA DE LUSIM.......................................................................................................................39


ENTRADA DE DATOS........................................................................................................................................40
SALIDA DE LOS DATOS (LÍNEAS (6))................................................................................................................40
RESULTADOS DE SIMULACIÓN.........................................................................................................................40
COMENTARIOS.................................................................................................................................................41
REUBICACIÓN DE LOS DATOS CONDICIONANTES EN LA MALLA DE SIMULACIÓN..........................................41
INTERVALOS DE CONFIANZA............................................................................................................................43
MÓDULO 4.4 – LAS APLICACIONES DE UNA SIMULACIÓN.............................................................46
EL CONTROL DE LA LEY.................................................................................................................................46
LOS COSTOS DE UNA CLASIFICACIÓN ERRADA...............................................................................................47
LA FUNCIÓN DE PÉRDIDA...............................................................................................................................47
APLICACIÓN AL CONTROL DE LEYES...............................................................................................................51
DEFINICIÓN DE LA INCERTIDUMBRE EN LA ESTIMACIÓN DE RECURSOS........................................................53
DEFINICIÓN DE UNA ALTURA DE BANCO........................................................................................................57
SIMULACIÓN DEL PROCESO DE EXPLOTACIÓN................................................................................................60
NOTAS.............................................................................................................................................................61
3

Módulo 4.1 – Introducción a la Simulación

A menudo, los estimadores de la ley simple del bloque no son suficientes para abordar
todos los asuntos en torno a un proyecto nuevo o para responder a preguntas acerca de la
optimización en una operación. Los asuntos comúnmente discutidos son aquellos que se
refieren a la incertidumbre en la estimación de la ley, la cantidad probable de dilución para
diferentes alturas de banco o tamaños de bloque, los impactos del acopio, la variación diaria
de la ley cabeza planta, los impactos en el cambio del tamaño de los equipos, etc. Las
varianzas de estimación y dispersión discutidas anteriormente pueden otorgar respuestas
parciales a la mayoría de estas preguntas. Desgraciadamente, se requieren suposiciones
tajantes con respecto a la distribución de los errores (los cuales en rara ocasión son
considerados) para que estas aproximaciones puedan responder correcta y completamente a
este tipo de preguntas. Para responder preguntas acerca de variabilidad, se requiere un
modelo numérico que reproduce características conocidas y significativas del yacimiento.
Idealmente, se desarrollarán muchos modelos numéricos, de los cuales cada uno
reproducirá las mismas características significativas. Si se analizan las diferencias entre
estos modelos equiprobables del yacimiento, se puede abordar una evaluación detallada de
asuntos sobre la variabilidad de la ley (y del tonelaje).

Simulación v/s Estimación

La idea de la estimación es determinar la “mejor” estimación de la ley en un momento


particular o en un volumen o bloque particular. El krigeado entrega la mejor estimación de
la ley ya que se minimiza la varianza de la estimación. Al realizar esta estimación, el
krigeado considera sólo los datos en torno al punto o bloque e ignora casi en su totalidad,
entre otras cosas, las leyes de bloques estimados en una cercanía. Debido a que se centra
en definir la estimación mejor de la ley de cada bloque, las estimaciones krigeadas no
pueden reproducir muchas de las características del mapa original de los datos o el mapa de
las leyes verdaderas del bloque. Específicamente, las estimaciones krigeadas y
optimizadas otorgan una representación alisada de la distribución de la ley real. En
términos estadísticos, el alisado significa que la varianza de las estimaciones es menor a la
varianza de las leyes reales. En términos prácticos, esto significa que el krigeado está
condicionalmente sesgado subestimando las leyes altas y sobrestimando las bajas.

Un ejemplo de la diferencia entre una simulación y una estimación se muestra en las


siguientes figuras. El primer conjunto de figuras muestra mapas de tres simulaciones,
además de una estimación para el mismo nivel en un yacimiento de cobre. Está claro que
las simulaciones muestran mayor detalle y que el mapa de leyes estimadas es más alisado.
4

20400

20200

20000

19800

19600

-1 1 4 0 0 -1 1 2 0 0 -1 1 0 0 0 -1 0 8 0 0 -1 0 6 0 0 -1 0 4 0 0 -1 0 2 0 0

La imagen estimada (arriba a la derecha) no muestra las leyes muy bajas (gris claro) ni las
leyes muy altas (amarillo brillante), las cuales se ven en cualquiera de las otras tres
imágenes simuladas. Otra forma de ver las diferencias entre una simulación y una
estimación es examinar un perfil unidimensional de las leyes y comparar un estimador muy
alisado con varias simulaciones
condicionales que atraviesan los datos
puntuales. En este caso particular, los
puntos simulados varían enormemente
entre los datos puntuales. Sin
embargo, todos los perfiles pasan por
los datos puntuales. Cada perfil
simulado reproduce la variabilidad y
correlación de los datos. Por lo tanto,
el perfil real de la ley es tan variable
como cualquiera de los perarchivos
simulados. Este grado de variabilidad
es claramente muy diferente a la variabilidad del estimador.

Para estos dos ejemplos, debe quedar claro que (en términos simples), las simulaciones son
creadas para entender la variabilidad, mientras que las estimaciones son realizadas para
determinar propiedades de promedio. Algunos ejemplos pueden ayudar a reforzar este
punto.
La siguiente tabla muestra los posibles usos de la estimación y simulación en algunos
problemas comunes.

Aplicación Estimación Simulación


Definición de Cálculo del número de Determinar el periodo de tiempo
necesidades de carguío camiones en base a la de espera más largo probable en la
y transporte producción diaria pala
Mezclas Determinar propiedades Examinar las leyes diarias a la
promedio de la operación de planta producto de las mezclas o
mezcla evaluar la frecuencia en que las
leyes salen fuera de los límites de
control
Estimación de ley Determinar la mejor Evaluar la fluctuación posible de la
5

estimación de la ley en una ley en torno al estimador.


localidad no muestreada Definir la distribución condicional
de leyes.
Leyes cabeza planta Predecir las leyes promedio Definir las fluctuaciones de la ley
cabeza planta de cabeza.
Determinar la frecuencia en que las
leyes se escapan de un rango
aceptable.
Estimación de recursos Definir la incertidumbre del Definir la incertidumbre en
recurso a ley de corte cero tonelaje y ley sobre cierta ley de
corte

Existen muchos otros ejemplos posibles. Algunas de las aplicaciones más comunes de las
simulaciones serán discutidas en el Modulo 4.4.

Los objetivos de una simulación son reproducir la mayor cantidad posible de las
propiedades del conjunto original de los datos. Las propiedades que se reproducen
comúnmente son la distribución de las leyes, la correlación espacial de las leyes y las
propiedades locales de las leyes. Es decir, la simulación reproduce el histograma y
variograma de los datos originales y la simulación está condicionada a los datos. Por
medio del condicionamiento, cuando una ley es simulada en un localidad que se ha
muestreado, la ley simulada igualará exactamente la ley de la muestra y las leyes simuladas
cerca de una muestra estarán influidas por la ley de la muestra. Uno puede pensar en los
puntos condicionantes como alfileres que determinan las leyes en una superficie simulada
entre los alfileres, las leyes varían mientras reproducen el variograma e histograma del
conjunto de los datos originales. En los mismos datos de condicionamiento, histogramas y
variogramas, cuando la simulación se repite, los valores entre los alfileres de
condicionamiento variarán y se producirá una nueva superficie simulada. La simulación se
puede realizar cuantas veces se desee y cada vez se producirá una superficie diferente. Ya
que cada superficie simulada reproduce las características conocidas y modeladas de los
datos, cada superficie entrega una imagen posible de cómo el yacimiento se puede
comportar entre los puntos muestreados. Si el procedimiento de simulación no está
sesgado, el análisis de los conjuntos de los datos múltiples y simulados permite
evaluaciones estadísticas detalladas de los datos que no pueden ser realizadas si se utilizan
estimadores.
Al revisar los resultados de una simulación, es muy importante considerar los objetivos y
propósitos de la simulación. Al revisar un mapa que contiene los resultados de una sola
simulación, es muy tentador considerar las leyes simuladas como aproximaciones cercanas
a la ley verdadera y no lo son. Se puede demostrar que la varianza de la estimación
asociada a la ley simulada en un punto particular es doblemente mayor a la varianza del
krigeado. Por lo tanto, una estimación krigeada de la ley es doblemente precisa con
relación a una ley simulada y es un estimador mucho mejor. En resumen, cuando se desee
la mejor estimación de la ley, hay que utilizar el krigeado. Cuando se requiera la
información de la variabilidad, hay que crear simulaciones.
6

Fundamentos de la simulación

Una simulación geológica bien construida reproducirá muchos de las características


originales de los datos. Algunos de las características reproducidas son histogramas de los
datos, la correlación espacial de los datos y las propiedades locales (de la ley) de los datos.
Existen muchos algoritmos para generar una simulación con las características
mencionados anteriormente. Sin embargo, todos los algoritmos se relacionan con cuatro
pasos importantes. Comenzando con una serie de números aleatorios, se impone la
correlación espacial. Los valores correlacionados, enseguida, son “condicionados” a los
datos reales y forzados a igualar la distribución de los datos originales. Algoritmos de
simulaciones diferentes se refieren a estos pasos claves en diferente orden y utilizan
diferentes aproximaciones.
Pasos para una simulación
Antes de detallar los pasos
individualmente, a modo de
condicionada
instrucción, se realizará una
simulación condicional simple para
ilustrar los pasos de la simulación. Generar una secuencia de
Si se realiza la simulación, los números aleatorios
conceptos básicos quedarán claros sin
necesidad de complejidades
matemáticas. La idea es entregar una
comprensión conceptual de los Crear correlaciones espaciales en
procedimientos. Una vez que se los números aleatorios
hayan comprendido los conceptos, los
fundamentos estadísticos para crear
una simulación serán presentados y Condicionar la simulación a los
finalmente se describirán los datos
algoritmos utilizados para crear
simulaciones grandes.
Igualar la distribución de los
datos originales
Ejemplo de una simulación True Grade Profile Plus Data
1.4
En este ejemplo simple, se Unknown True Grades
simularán leyes en una 1.2
Sample Location
dimensión. Las
simulaciones 1.0

unidimensionales son
0.8
Grade (%)

generalmente de interés
cuando la dimensión es el 0.6
tiempo. El ejemplo en
minería más común es 0.4

probablemente comprender
las leyes de la cabeza de la 0.2

planta para determinar los


0.0
0 200 400 600 800 1000 1200
Distance Along Section (m)
7

requisitos para mezclar o las condiciones operacionales determinantes. En este ejemplo, se


examinarán las leyes en una sección o perfil. Para permitir una comprensión más completa
de cómo la simulación es generada y más aún, explicar la diferencia entre simulación y
estimación, se asume que las leyes verdaderas son conocidas en cada punto en esta sección.
En diferentes ubicaciones, se muestrea el perfil de la ley verdadera para proporcionar datos.
Las leyes verdaderas y los datos a lo largo del perfil se muestran en la figura adjunta. El
objetivo del ejemplo será el de preparar una simulación que reproduzca el histograma y
variograma de los datos, además de las características de la ley (condicionada) localizada.

Propiedades de los datos

Los datos seleccionados siguen una distribución normal con ley media de 0.7% y una
desviación estándar de 0.25%. Este tipo de distribución de los datos es poco común, pero
como se verá, la distribución normal tiene unas características muy importantes que son
invaluables para la creación de Experimental Variogram
una simulación. Por lo tanto,
seleccionar esta distribución 0.07

desde el principio, simplifica el 0.06


ejemplo considerablemente. El
manejo de los datos para 0.05
 (h) = .018h (for h<35)
 (h) = .063 (for h>35)
distribuciones generales será 0.04

discutido detalladamente en el

0.03
Módulo 4.2.
0.02

El variograma experimental de 0.01

los datos muestra que la


0.00
correlación puede ser modelada 0 10 20 30 40 50 60 70

por un variograma lineal con una Distance (m)

meseta. Este tipo de modelo de un variograma sólo es válido cuando se modelan datos
unidimensionales. Cuando los datos poseen dos o tres dimensiones, este modelo no es
positivo definido.

Simulación

Dadas las propiedades de los datos que se producirá en la simulación, se puede comenzar la
simulación real de las leyes en esta sección. Las leyes simuladas comienzan con un
conjunto de números aleatorios que son distribuidos uniformemente entre cero y uno. Los
números son colocados en intervalos de cinco metros a lo largo de la sección. En este
punto, los datos simulados son totalmente aleatorios, lo que significa que un modelo de
variograma de efecto pepita puro describe la falta de correlación en los datos.

El primer paso para transformar los datos aleatorios en datos simulados condicionales es
crear correlación en los datos. El modelo de variograma lineal que describe la correlación
en el conjunto de los datos puede ser impuesto en los datos aleatorios si se pasa un filtro por
los datos. Este filtro es muy sencillo. Una ventana de 35m de ancho se centra en cada
8

punto que va a ser simulado y se genera computacionalmente un promedio de los valores


aleatorios. Este proceso de promediar impondrá una estructura de correlación lineal con
un efecto pepita cero en los datos aleatorios anteriormente mencionados. Debido a que el
ancho del filtro es de 35m, las muestras separadas por menos de 35m se combinarán para
influir las leyes simuladas. Las muestras separadas por más de 35m serán independientes,
y entonces una meseta se formará en el variograma experimental a una distancia (alcance)
de 35m.

Un ejemplo del proceso de promediar se muestra en la siguiente tabla,


utilizando datos de la simulación real. Para cada valor simulado, se han
promediado siete valores aleatorios. Debido a que los puntos simulados están
separados por 5m, este proceso de promedio se corresponde con la colocación
de ventanas de 35m de ancho en los datos y con el proceso de promediar los
datos interiores. Para mayor claridad, los valores promediados se muestran
en sólo tres ubicaciones. En realidad, el proceso de promediar es realizado a
lo largo de la sección.
Imposición de correlación en los números aleatorios
Ubicación Números
de las aleatorio Promedio de los números aleatorios en ventanas de 35m de ancho
muestras s
5 0.223 
10 0.818 
15 0.359 
20 0.821 0.485 = (.223+.818+.359+.821+.625+.346+.202)/7
25 0.625 0.484 = (.818+.359+.821+.625+.346+.202+.216)/7
30 0.346 0.505 = (.359+.821+.625+.346+.202+.216+.963)/7
35 0.202 
40 0.216 
45 0.963 
 Indica que no se han mostrado los valores para una
mayor claridad

Un variograma experimental cálculado en los valores promediados mostrará la mayoría de


las características deseadas: efecto pepita cero, una disminución lineal en correlación con la
distancia y una meseta en 35m. Sin embargo, un examen somero de los valores
promediados muestra que la variabilidad de los valores promediados es mucho menor que
los números aleatorios originales y también es menor que la varianza de los datos.

Además de crear correlación en los datos, el promediar hace dos cosas: Primero, la
varianza se reduce ya que el proceso de promediar siempre reduce la varianza. Este es un
concepto fundamental en estadística clásica que es muy similar a la relación volumen-
varianza en geoestadística. Es decir, a medida que el volumen sobre el cual se define un
promedio es incrementado, la varianza es disminuida. Además de tener una varianza baja,
9

los valores promediados también siguen una distribución normal. Este es otro concepto
fundamental en estadística clásica que se conoce como teorema del límite central. Cuando
se promedia datos (aleatorios) independientes, la distribución de los promedios seguirán
una distribución normal, independientemente de la distribución inicial de los datos.
Entonces luego de realizar este proceso de promediar, los datos seguirán una distribución
normal.

Por lo tanto, luego de pasar el filtro por los datos, los valores simulados están
correlacionados con el alcance requerido de correlación y siguen una distribución
estadística igual a la de los
datos originales. Sólo la media Unconditional Simulation Versus Data Points
y la varianza de los valores 1.4

simulados necesitan ser 1.2


Unconditional Simulation

ajustadas. Este tipo de ajuste


es bastante fácil de hacer ya 1.0

que tanto los datos como los 0.8


Grade (%)

valores simulados siguen


distribuciones normales. Lo 0.6

único que se requiere es una


0.4
traslación del promedio de la
ley y una factorización de la 0.2

varianza. Una vez que se haya Sample Location

completado este paso, se 0.0


0 200 400 600 800 1000 1200

encuentra accesible una Distance Along Section (m)

simulación no condicional.
Esta simulación reproduce el histograma y variograma de los datos, pero no reproduce las
características locales de los datos. Los gráficos -que muestran la comparación entre el
histograma y variograma de la simulación- y los datos, han sido omitidos en esta etapa. En
su lugar, se ha preparado un gráfico que muestra la disimilitud entre la simulación y los
datos. Un gráfico de la simulación incondicional en contraste a los datos muestra el
problema con este tipo de simulación. A pesar de igualar la distribución y correlación
espacial de los datos, la distribución espacial de los datos y la simulación no son iguales.

Condicionamiento

Dada la diferencia entre las leyes locales de los datos y la simulación, debería ser claro que
el condicionamiento es un paso muy importante en la creación de una simulación. Sin el
paso de condicionamiento, las leyes de la simulación serán muy diferentes a las leyes de los
datos reales y la simulación tendrá muy poco uso práctico. Un método de
condicionamiento para una simulación es crear dos superficies de los mejores estimadores:
una superficie de los datos y otra de la simulación. La diferencia entre las superficies es
usada para trasladar los puntos simulados para igualar los datos. La primera superficie es
creada krigeando los datos. La segunda superficie es creada krigeando la simulación
incondicional utilizando sólo leyes simuladas de las mismas ubicaciones de los datos.
10

Este procedimiento se explica mejor Conditioning The Simulation


al examinar el gráfico adjunto. La 1.5
Data Points
1.4 Estimation Surfaces
delgada línea segmentada representa 1.3 Data (z (x))
*
Un-Conditional Simulation
Points
data

la simulación incondicional. Los


*
1.2 Simulation (z (x)) sim

1.1
círculos cerrados son puntos 1.0
seleccionados de la simulación. Las 0.9

Grade (%)
ubicaciones de los puntos 0.8
0.7
seleccionados son idénticas a las 0.6

ubicaciones de los datos (círculos 0.5


0.4
abiertos). Utilizando los dos 0.3

conjuntos de los datos, el krigeado se 0.2


Un-Conditional Simulation (zsim (x))

usa para estimar leyes en cada nodo 0.1


0 200 400 600 800 1000 1200

simulado. Estas dos estimaciones DISTANCE

son llamadas z*data(x) y z*ucsim(x). Las estimaciones definen las superficies más probables a
lo largo de los dos conjuntos de los datos. Dadas estas dos superficies, la simulación
incondicional se puede corregir para que pase por los datos utilizando una relación simple:

zsim(x)=zucsim(x)+(z*data(x)-z*ucsim(x))

En las ubicaciones en donde hay datos, la simulación condicional (z sim(x)) será igual a los
datos ya que el krigeado es un interpolador exacto. Es decir, en una locación con una
muestra (zucsim(x)=z*ucsim(x)) y (zsim(x)=z*data(x)), dado el signo negativo de la ecuación, los
dos valores de simulación incondicional se cancelan y la simulación condicional es igual a
los datos. En ubicaciones sin muestreo, las cantidades condicionadas para ajustar la
simulación no condicional están dadas por la diferencia entre las dos superficies Krigeadas.

Enseguida del condicionamiento,


los perfiles de las leyes simuladas y Conditional Simulation Versus Data Points
verdaderas pueden ser comparados. 1.4
True Grades
Las líneas segmentadas representan 1.2 Conditional Simulation
el perfil de las leyes verdaderas,
mientras la línea sólida representa 1.0

el perfil simulado. Los dos 0.8


Grade (%)

perfiles coinciden en los puntos


0.6
sólidos que representan los datos
condicionantes. Lejos de los datos 0.4

condicionantes, las leyes en los dos 0.2


perfiles tienden a divergir. Debido Sample Locatio n

a que la única entrada a la 0.0


0 200 400 600 800 1000 1200

simulación fue el valor de los datos Distance Along Section (m)

en los puntos muestreados, es


bastante natural que la simulación pueda divergir de su perfil verdadero. Los únicos
requisitos de la simulación, lejos de los datos, son la reproducción del variograma e
histograma. Estos requisitos no son excepcionalmente fuertes, por lo tanto existe un
número infinito de superficies simuladas posibles que pueden ser definidas.
11

En una revisión final de esta simulación


Comparison of Distributions By Probability Plots
está la reproducción de la distribución True Grades, Data, Simulation

y variograma de los datos. Las 3.0


2.5
distribuciones son examinadas por 2.0 True Grades
medio de gráficos de probabilidad. 1.5 Data Selected From True
Simulation of Data

Expected Normal Value


Tres conjuntos de datos son 1.0
0.5
superpuestos en un solo gráfico: leyes 0.0
verdaderas, datos y leyes simuladas. -0.5

Las diferencias de las leyes verdaderas -1.0


-1.5
y de los datos muestran la variabilidad -2.0
introducida al seleccionar un conjunto -2.5

pequeño de datos de una población -3.0


0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4

mayor de valores. Una vez más, la Grade (%)

simulación sólo puede igualar las Comparion of Variograms


propiedades de los datos, por lo tanto, la Input Model Vs. Variogram of Un-Conditio nal Simula tio n

comparación de interés esté entre la 0.07

distribución de los datos y la 0.06

simulación. Como se muestra, estas 0.05  (h) = .018h (for h<35)


dos distribuciones se comparan bastante  (h) = .063 (for h>35)

bien. 0.04

Experimental Variogram of Data


0.03 Experimental Variogram of Simulatio n

Los variogramas de la simulación 0.02

también igualan muy bien el modelo de 0.01 Model Input to Simula tion
entrada del variograma. Basado en 0.00
estas revisiones, aparentemente las 0 10 20 30 40 50 60 70

Distance (m)
simulaciones son válidas para este
conjunto de datos.

Comentario final

La aproximación de simulación utilizada no se limita a una dimensión. Datos de dos o tres


dimensiones pueden ser simulados simplemente al pasar una ventana apropiadamente
formada en un campo de datos aleatorios y al promediar los datos dentro de la ventana.
Cuando se realiza este proceso de promediar en tres dimensiones utilizando una ventana
esférica crea datos correlacionados que siguen un modelo de variograma esférico. El
alcance de correlación es igual al diámetro de la esfera. Si se desea un modelo
anisotrópico, el único cambio requerido es utilizar una elipse en vez de una esfera.

Este método simple de generar datos correlacionados es fácil de implementar y puede ser
utilizado para generar simulaciones pequeñas rápidamente, pero se torna
computacionalmente ineficiente cuando el objetivo es generar simulaciones de gran
envergadura. Por esta razón, otros algoritmos de simulación, matemáticamente más
complicados, han sido desarrollados. Estos algoritmos son discutidos en los siguientes dos
módulos.
12

Modulo 4.2 – Una Mirada a la Teoría de la Simulación Condicional.

En este modulo, serán discutidos tres algoritmos para desarrollar simulaciones


condicionales. El primer algoritmo -y actualmente el más común- es conocido como
simulación secuencial Gaussiana. Este algoritmo permite un cómputo eficiente de las
simulaciones condicionales que reproducen la correlación espacial de todo el yacimiento.
Enseguida, será considerada la aproximación cercanamente relacionada del indicador
secuencial que es usada para generar simulaciones de variables categóricas (como la
litología). Finalmente, será discutido el algoritmo de descomposición LU. Esta
aproximación proporciona simulaciones extremadamente rápido cuando el número de
puntos a simular es pequeño, pero requiere de muchas simulaciones. Al discutir estas
aproximaciones, se provee una aproximación más conceptual que matemática. Para
aquellos que deseen ver lo matemático detrás de estas simulaciones, se entrega una lista de
referencias.

Además de los tres métodos discutidos aquí, existen una serie de otras aproximaciones en
simulación. Estas aproximaciones no son discutidas aquí. Sin embargo, la discusión
sobre aproximaciones de simulación que es proporcionada debería entregar un respaldo
suficiente para entender la teoría de estas aproximaciones. Al final de éste modulo se
entregan referencias que describen estos métodos.

Simulación Secuencial Gaussiana.

La aproximación de la simulación secuencial Gaussiana utiliza al máximo las propiedades


de la distribución Gaussiana. Una de las propiedades particularmente usadas consiste en
que cuando los datos son (multi) normalmente distribuidos, entonces la varianza de
krigeado es equivalente a la varianza condicional. Por lo tanto, cuando los datos están
distribuidos multi-normalmente, la estimación de la ley krigeada y la varianza de krigeado
describen por completo la distribución condicional en un punto no muestreado.
Conociendo esta distribución, es muy simple simular leyes en la medida en que pueden ser
elegidas de la ya conocida distribución estadística. Dado que la selección aleatoria de
leyes desde un número de distribuciones condicionales independientes no asegura que el
variograma de los datos sea reproducido por la simulación, las leyes simuladas son sumadas
al grupo de los datos condicionantes en la medida que son generadas. Por lo tanto, en la
medida en que avanza la simulación, el grupo de los datos condicionantes se hace mucho
grande.

En términos más matemáticos, una simulación condicional busca generar realizaciones de


N variables aleatorias condicionales a los n datos disponibles. Aquí, N (el número de
puntos simulados) es generalmente mayor que n (el número de los datos). Debido a que
una distribución multivariable que pueda generar realizaciones de este tipo es muy
compleja, se requiere un método que simplifique el problema. La simplificación se
encuentra en el axioma de Bayes para las probabilidades condicionales. Para eventos
discretos, el axioma se denota así:

Pr(A/B)=Pr(A y B)/Pr(B)
13

Esta fórmula de probabilidad se ejemplifica en el siguiente diagrama de Venn.

Los círculos representan los eventos A y B. La intersección de


los dos círculos representa la ocurrencia de tanto A como B A
B
simultáneamente. Dicho en palabras, la notación Pr(A/B)
quiere decir “cuál es la probabilidad de que ocurra A dado que
ya haya ocurrido B”. Al observar el diagrama de Venn, si ya ha
ocurrido el evento B, entonces resultados adicionales están A y B
limitados al círculo que representa B. Es decir, si ya ha
ocurrido B, la única forma de que ocurra A es si ocurre A y B a la vez. Al reunir esta
información, la probabilidad de que ocurra A dado B (Pr(A/B) es igual a la probabilidad de
que ambos A y B ocurran (Pr(A y B) dividido por la probabilidad de que ocurra B (Pr(B)).

Si se escribe de otra forma esta fórmula como Pr(A y B)=Pr(A/B)•Pr(B), resulta muy
provechoso para la simulación de distribuciones multivariables. Escrita de esta forma, la
probabilidad conjunta de A y B es sencillamente el producto de dos distribuciones
univariantes. Más aún, esta relación puede ser expandida para que se pueda formar desde
el producto de variables univariantes N, la distribución conjunta de cualquier variable N.
Por ejemplo, consideremos la distribución conjunta de las variables discretas A, B y C.

Pr(A y B y C) = Pr (A y D) ----- Variable D = B y C


Pr(A y D) = Pr(A/D)•Pr(D) ----- Aplicar el axioma de Bayes
Pr(A y B y C) = Pr(A/B y C)•Pr(B y C) ----- Sustituya nuevamente con D
Pr(A y B y C) = Pr(A/B y C)•Pr(B/C)•Pr(C) ----- Nuevamente el axioma de Bayes

Como se puede ver, esta descomposición puede realizar la evaluación de manera muy
sencilla de la distribución conjunta de las variables N -siempre que las distribuciones
condicionales univariantes estén disponibles. Seguramente no esta claro, a esta altura,
cómo es que todo esto ayuda con la generación de una simulación. En la situación de
simulación, hay n datos y N puntos a simular. Los N puntos simulados deben ser una
realización de la función aleatoria Z(x). Es decir, los puntos simulados deben seguir las
leyes de probabilidad conjunta para las N variables aleatorias (N variables aleatorias
ubicadas en las ubicaciones que están siendo simuladas). Una realización que sigue las
leyes de probabilidades conjunta se define aplicando secuencialmente el axioma de Bayes.

Primero, un punto de partida aleatorio que será simulado es seleccionado entre los N nodos
de una malla. En este momento, la distribución de las leyes condicionadas a los n datos es
definido y una ley simulada se selecciona al azar desde la distribución condicional. Luego,
esta ley simulada se adiciona al conjunto de datos condicionantes y se visita otro de los
nodos de la malla. La distribución condicional se define en esta ubicación y una ley
simulada es seleccionada aleatoriamente desde esta distribución.

Esta segunda distribución de las leyes esta condicionada de manera importante a los n datos
y a la ley simulada. Este proceso secuencial continúa hasta que todos los puntos N han
sido simulados. Dado que todas las leyes simuladas son seleccionadas de una distribución
14

de leyes condicionadas a la información disponible (simulado y real), la simulación


resultante es una realización de la función aleatoria Z(x).

En los párrafos anteriores, se ha discutido bastante acerca de la distribución condicional y


sobre selección de valores de las distribuciones condicionales. Claramente, una simulación
condicional no puede ser generada a través de esta aproximación si las distribuciones
condicionales no se encuentran disponibles. Es aquí donde entra en escena la distribución
normal. Como ya antes dicho, si los datos están distribuidos de manera (multi-) normal,
entonces la varianza de el krigeado simple es la varianza condicional y la estimación de el
krigeado simple es la esperanza condicional. Además, cuando los datos son multi-
normales, la distribución de la ley condicional es normal. Por lo tanto, si los datos siguen
una distribución normal (y la multinormalidad es asumida), la aplicación del el krigeado
simple define por completo la distribución condicional de las leyes. En este caso, el
procedimiento de simulación condicional consiste en el siguiente:

 visitar un nodo de simulación


 realizar un el krigeado simple para definir la distribución condicional
 seleccionar aleatoriamente una ley de la distribución condicional
 sumar el valor simulado al conjunto de los datos condicionados
 visitar otro nodo y repetir el proceso
 este proceso continúa hasta que todos los nodos hayan sido simulados

Realizaciones adicionales de las variables aleatorias (es decir, simulaciones adicionales)


pueden ser generadas si se repite todo el proceso.

Una implementación exitosa del algoritmo de simulación secuencial depende de pequeñas


simplificaciones de algunos de los pasos señalados anteriormente y una optimización de
otros. La primera cuestión es el número de puntos condicionantes utilizados. En toda la
discusión que ha sido sostenida anteriormente, se discuten las distribuciones condicionadas
a todos los datos. Para implementar esto, todos los datos y (eventualmente) todos los
puntos simulados serían utilizados en un sistema de krigeado. Tal sistema de ecuaciones
sería inmenso y probablemente no podría ser resuelto. Para comenzar a estudiar este
problema, sólo los puntos condicionantes más cercanos son utilizados en el krigeado
simple. Un problema relacionado consiste en que a medida que avanza la simulación, las
leyes simuladas rápidamente sobrepasan en número a los datos. Entonces hacia el final de
la simulación casi todos los datos condicionantes cercanos estarán simulados en vez de ser
datos reales. Dado que es más importante condicionar los datos reales en vez de los datos
simulados, es común llevar a cabo una búsqueda de dos partes de datos condicionantes.
Una búsqueda es para los datos reales mientras la otra acepta datos simulados. Si no se
encuentran suficientes datos reales, entonces el punto no es simulado.

Una segunda cuestión es el orden en que los nodos simulados son visitados. Basándonos
en la información teórica entregada, cualquier camino entre nodos esta permitido. Sin
embargo, como fue discutido anteriormente, sólo los datos en una área de búsqueda local
(en vez de todos los datos) son utilizados en la simulación. Esta desviación de la teoría
estricta puede introducir patrones artificiales o artefactos dentro de la simulación si es que
15

se sigue un camino regular y rígido (como el seguimiento de líneas este-oeste) en la


selección de los nodos a simular. La práctica indica que seguir un camino aleatorio entre
los nodos produce una mejor simulación en su totalidad.

Otra cuestión que surge dada la restricción de los datos condicionantes a un sector local es
la reproducción de las estructuras de alcance más largos del modelo del variograma. Si la
simulación se encuentra sólo condicionada a los datos del sector inmediatamente contiguo
al del punto que esta siendo simulado, entonces sólo se reproducirán las características de
corta escala. Un método para reproducir las estructuras de mayor alcance es la
aproximación de la malla
Multiple Grid Approach
múltiple. En esta
aproximación, los datos son
simulados en una serie de
mallas que se tornan
progresivamente más finas. La
primera malla simulada es
Northing

gruesa y la búsqueda es grande.


Probablemente los datos
estarán separados del bloque
por distancias substanciales.
Una vez que esta malla esta 10m Grid
200m Grid
completa, la búsqueda y la 100m Grid
40m Grid
malla son reducidas y la Easting
simulación continua. La
reducción de la malla y la búsqueda continúan hasta que todos los puntos de la malla son
simulados. A manera de ejemplo de esta aproximación, se muestra una porción de una gran
simulación de 10x10m. En este caso se ocuparon cuatro mallas. Las primeras leyes son
simuladas en una malla de 200m, luego en una de 100m, luego 40m y finalmente en una
malla de 10m. Para cada malla, los puntos son visitados siguiendo el camino aleatorio.

Implementación de la Simulación Secuencial Gaussiana.

En la discusión de las propiedades teóricas del método de la Simulación Secuencial


Gaussiana, se ha dado por supuesto que los datos siguen una distribución normal. Como
ya se ha discutido, este supuesto es vital porque el algoritmo de simulación requiere que las
leyes simuladas sean seleccionadas aleatoriamente desde la distribución de leyes
condicionadas a la información que la rodea. El krigeado simple puede definir esta
distribución, pero sólo cuando los datos siguen una distribución (multi-) normal. Si los
datos siguen cualquier otro tipo de distribución, el krigeado no podrá definir la distribución
condicional. Para obtener la distribución condicional, primero deben ser definidas la
esperanza condicional y la varianza condicional. El krigeado provee la ley estimada que
minimiza la varianza de estimación y la varianza de estimación. La pregunta es si acaso la
varianza de el krigeado y la varianza de estimación son lo mismo. Generalmente, no lo
son.
16

Para ver la diferencia entre la varianza de el krigeado y la varianza condicional considere


datos de una distribución lognormal. Los datos de una distribución lognormal exhiben un
efecto proporcional. Es decir, la varianza condicional es una función de la ley media local
(Efectivamente s²= k·m² donde s² es la varianza local y m es la media local). En este caso,
cuando el krigeado es realizado, la varianza krigeada es solamente condicional con la
ubicación de los datos, dado que los pesos del el krigeado son una función sólo de la
ubicación de los datos. Debido a que la varianza condicional depende de las medias
locales, la varianza condicional depende tanto de la ubicación de los datos como de las
leyes de éstos. Por lo tanto, para el tipo de datos que generalmente se encuentran en la
práctica, la varianza de el krigeado es muy distinta a la varianza de estimación. Bajo estas
circunstancias, las distribuciones condicionales son inasequibles haciendo que la
implementación de la simulación secuencial del algoritmo sea imposible.

En este momento, pareciera que nos hemos enfrentado a una situación sin solución. Existe
mucha teoría agradable que permite la simulación condicional sólo a través de la
realización del krigeado simple sobre los datos y los puntos previamente simulados.
Desafortunadamente, para aplicar esta teoría los datos deben estar distribuidos
normalmente, lo que rara vez ocurre en la práctica. La solución a este problema consiste
en transformar los datos hacia
Transformation To Standard Normal Variable
datos normalmente distribuidos,
sin importar su ley de distribución 100%
Standard Normal Variable
inicial, con un media de 0 y una 90% Mean=0, SD=1.0
Example Lognormal Data

desviación estándar de 1 (es decir, 80% Mean=3.1, SD=1.7

crear “valores normales”). Luego 70%


Percent of Data

la simulación es realizada sobre 60%

estos datos transformados y los 50%

40%
puntos simulados son nuevamente Path ToTransform Data Value of 2%
To AStandard Normal Value of -0.7
30%
transformados a su origen para
20%
igualar la distribución de los datos 10%
originales. Esta transformación no 0%
es difícil. Conceptualmente, las -3.0 -2.5 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5
Value
leyes se transforman basándose en
las distribuciones acumulativas de los datos y la distribución normal estándar. Es decir, los
datos se transforman en base a los percentiles equivalentes. El percentil número 10 de los
datos se determina en el percentil número 10 de la distribución normal estándar. El
percentil número 60 de los datos se determina en el percentil número 60 de la distribución
normal estándar, y así sucesivamente. Gráficamente, esta transformación puede ser vista
graficando la distribución acumulativa de los datos y de la variable normal estándar.

Comenzando con la ley de un dato (2% es utilizado en el ejemplo), se proyecta una línea
hacia arriba hasta que intersecta la curva acumulativa de los datos. Luego el punto de
intersección es proyectado horizontalmente hasta que intersecta la curva acumulativa para
la distribución normal estándar. Finalmente, este punto de intersección es proyectado
bajando hacia el eje de las equis donde es definido el valor transformado (-0.7 en el
ejemplo de arriba)
17

Esta transformación también puede ser hecha a través del uso de funciones que están
programadas en software masivos como el Excel o Statistica. Par usar estas funciones
simplemente ordene los datos desde los más pequeños hacia los más grandes y define una
nueva variable que sea una fila de percentiles acumulativa para cada dato (fila/número total
de muestras). Por ejemplo si hay 789 muestras clasificadas, la muestra número 56 se
convierte en 0.071 (56/789). Ahora el inverso de la función de distribución normal
estándar (NORMSINV(0.071) en Excel) es aplicada para determinar que la variable normal
estándar es –1.47. Dado que el inverso normal de 1.0 no existe es común dividir por el
número de datos más 1 (790 en el ejemplo de arriba) para asegurarse de que todos los datos
tienen un inverso.

El procedimiento para transformar los datos y transformar de vuelta los puntos simulados
es relativamente simple. A pesar de ser simple, la aplicación correcta de esta
transformación es crítica para el éxito de la simulación. Una cuestión muy importante es la
estacionaridad de la transformación. La distribución completa de leyes debe ser
estacionaria sobre todo el volumen de la simulación. Esta es una presunción bastante
severa. Las tendencias de la ley y no estacionaridad local pueden impactar la
transformación de los datos a la distribución inicial de los datos simulados y se introduce
con fuerza en la simulación. Esta cuestión será discutida en detalle con ejemplos
apropiados en el Modulo 4.3.

Repaso de la Aproximación de la Simulación Secuencial Gaussiana.

Ahora que el método para transformar los datos para que sigan una distribución normal es
conocido, puede ser discutida la secuencia completa de los pasos requeridos para generar la
simulación.

 Revisar los datos originales para asegurarse de que la distribución de las leyes es
estacionaria sobre el volumen que será simulado. Particularmente, revisar las
tendencias de la ley o áreas de leyes altas o bajas. Si es que es necesario subdivida
el volumen de simulación para obtener zonas estacionarias.
 Revisar si hay grupos de datos. Si los datos están agrupados, es probable que la
distribución no desagrupada de los datos no es representativa. Determine las
ponderaciones de desagrupamiento y redefina la distribución de los datos. Un
ejemplo del impacto por ignorar el desagrupamiento será presentado en el Módulo
4.3.
 Transforme los datos par que sigan una distribución normal estándar.
 Modele el variograma de los datos transformados.
 Defina un camino aleatorio a través de la malla de los puntos que serán simulados
(El método de la malla múltiple puede ser usado si se desea).
 Visite cada punto y realice un el krigeado simple sobre los datos transformados. El
krigeado usa tanto los datos transformados como las leyes antes simuladas.
 El krigeado simple define la media y varianza (Estimación de krigeado y varianza
de krigeado) de la distribución condicional. Dado que los datos son distribuidos de
manera (multi-) normal, la forma de la distribución condicional es Gaussiana
(normal).
18

 Usando un generador de números aleatorios, seleccione un punto de la distribución


condicional Gaussiana. Este es la ley simulada para el punto.
 Adicione la ley simulada al grupo de datos condicionantes.
 Visite el próximo punto a ser simulado y repita el krigeado y los pasos de selección.
 Si se requiere más de una simulación, defina un nuevo camino aleatorio y repita los
pasos antes descritos.
 Una vez que todos los puntos han sido simulados, transforme las leyes simuladas
normalmente distribuidas para obtener las leyes simuladas reales.

Los valores simulados finales deben ser revisados, por supuesto, en contraste con los datos
originales para asegurar que el variograma y el histograma hallan sido reproducidos
adecuadamente. Además, un mapa de los puntos simulados debe ser comparado con un
mapa de los datos originales para asegurar que los resultados son sensatos.

Simulación Secuencial del Indicador

Los indicadores son una transformación muy simple de los datos originales en donde éstos
pueden ser una variable continua como una ley o una variable categórica como una
litología. Los indicadores de ley se definen con relación a una ley de corte. Si la ley en
una locación se encuentra por encima de la ley de corte, entonces la transformación del
indicador es de 1, de otra manera es de 0. Al aplicar esta transformación del indicador en
varias leyes de corte, se genera una serie completa de indicadores de datos que tienen en
valor 1 ó 0, dependiendo de la ley muestreada y la ley de corte seleccionada. Si se aplica a
datos cualitativos como la litología, el indicador toma el valor 1 si la muestra es de la
litología de interés o de otra manera toma el valor 0.

La simulación de datos indicadores basados en las leyes de corte pueden ser utilizados de
varias formas. Por ejemplo, si se simulan los indicadores en varias leyes de corte, las leyes
pueden ser simuladas. Este tipo de simulación puede ser muy útil en yacimientos
simulados cuando la correlación / distribución espacial de muestras con leyes altas es
diferente a la de muestras con leyes bajas. Los yacimientos de oro vetiformes (en donde
las leyes altas se controlan estructuralmente) pueden ser un ejemplo de este tipo de
aplicación. Para aplicar este método, datos de varios indicadores (de diferentes leyes de
corte) son simulados para crear una distribución espacial condicional en cada localidad
simulada. Esta ley luego se reconstruye con la distribución condicional acumulada,
aplicando uno de muchos métodos posibles de aproximación. Otro uso de la simulación
del indicador se encuentra en la simulación de la distribución espacial de litologías o otras
variables categóricas (alteración, mineralogía, etc.) que controlan la mineralización. Esta
aproximación se puede utilizar individualmente para generar mapas que muestren las
distribuciones espaciales posibles de las variables controladoras o como la primera etapa en
la simulación de las leyes, por lo cual el primer paso define la litología y el segundo paso es
utilizado para definir las leyes dentro de la litología.

Para yacimientos de cobre, las simulación de leyes puede ser manejada adecuadamente casi
siempre si se utiliza la aproximación secuencial Gaussiana discutida previamente. Por esta
razón, además de la complejidad adicional de transformar la simulación condicional del
19

indicador simulado nuevamente a leyes, sólo se discutirá la simulación de las variables


categóricas (como la litología).

Datos indicadores para variables categóricas

El primer paso en la simulación de variables categóricas es definir los datos indicadores.


La transformación del indicador es muy sencilla. Dicho en palabras, los datos del
indicador para una muestra en particular y litología (o mineralogía o alteración o unidad
estimada) es uno si la muestra proviene de la litología de interés y cero si la muestra
proviene de cualquier otra litología. Si hay tres litologías (pórfido cuarcífero, diorita y
dique post mineral) y una muestra se mapea como pórfido, entonces el indicador de pórfido
para esta muestra es de 1, mientras que el indicador de la diorita y el dique es de cero para
ambos. Si la muestra se mapeo como diorita, entonces el indicador de diorita es de 1,
mientras que los indicadores de pórfido y dique son de cero. Por lo tanto, para cada
muestra existen tantos indicadores de los datos como litologías y los valores de los datos
indicadores son 0 y 1, dependiendo de la litología que se mapeo. Si se toma el promedio
de los datos indicadores entrega estimaciones de la proporción de la litología dentro del
yacimiento.

Simulación de los datos indicadores

La simulación de los datos indicadores es muy similar la simulación secuencial de las leyes.
Una ventaja es que la transformación Gaussiana de los datos no se requiere. Las
contribuciones mayores que se requieren son los datos indicadores y los modelos de los
variogramas de los indicadores para cada tipo de los datos indicadores (es decir, un
variograma del indicador independiente para cada litología, mineralogía, etc.). La
simulación del algoritmo luego utiliza una especie de truco que transforma las variables
categóricas en funciones de distribución acumulativa. Para hacer esto, las variables
categóricas se clasifican artificialmente. En este caso, la palabra artificial se debe
interpretar como “el orden de la clasificación no tiene ninguna importancia”. Para las tres
litologías discutidas anteriormente, la clasificación puede ser pórfido, diorita y luego dique.
Sin embargo, cualquier otra clasificación no sería incorrecta. Lo importante es que la
sumatoria de los indicadores tanto en una lugar particular como promediada en todo el
yacimiento sea uno. En efecto, los datos categóricos ahora forman una función de
distribución acumulativa.

Para realizar la simulación, los puntos se eligen en una secuencia aleatoria. En cada punto,
los datos indicadores son krigeados (un el krigeado por cada categoría, es decir, tres
litología requieren tres estimaciones krigeadas independientes). El krigeado de los
indicadores entrega una estimación directa de la distribución condicional, por lo tanto no se
requiere ninguna modificación o transformación de las estimaciones. En cada lugar
simulada, la distribución condicional acumulativa cambiará dependiendo tanto de la
cantidad como de la ubicación de los datos condicionantes y de los valores de los datos
indicadores. En áreas en donde la gran mayoría de los datos condicionantes pertenecen a
una litología en particular, es muy probable que los valores simulados registrarán la misma
litología.
20

Dada la distribución condicionante, se selecciona un número uniforme aleatorio entre uno y


cero. El número aleatorio luego se compara con la distribución condicionante acumulativa
estimada. Se asigna el valor del Example Conditional Distribution
indicador simulado de acuerdo al 1.0

intervalo en el cual se sitúa el número Kriging Estimate For Dike Indicator = 0.20

aleatorio. Por ejemplo, los resultados 0.8

del el krigeado de los indicadores para

Cumulative Probability
Simulation Outputs
Random Number Simulated Lit h.
un punto particular donde el pórfido 0.6 0 to 0.23
0.23 to 0.8
Porphry
Diorite Kriging Estimate For Diorite Indicator = 0.57
es de 0,23, la diorita es de 0,57 y el 0.8 to 1.0 Dike

0.4
dique es de 0.2 y las litologías fueron
artificialmente clasificadas 0.2
pórfido<diorita<dique, los intervalos Kriging Estimate For Porphry Indicator = 0.23

de la distribución acumulativa 0.0


Porphry Diorite Dike
condicionante serían: pórfido (0 a Lithology
0,23), diorita (0,23 a 0,80) y dique
(0,80 a 1,0). Se compara el número aleatorio con estos intervalos para definir los datos
indicadores simulados. Si el número aleatorio fuese de 0,15, entonces el valor de la
simulación sería pórfido. Los datos indicadores entonces serían de 1 para el indicador de
pórfido y de 0 para los indicadores de diorita y dique. Si el número aleatorio fuese de 0,75,
entonces el valor de la simulación sería diorita y los datos indicadores cambiarían en
conformidad. Así como en la simulación secuencial Gaussiana, se adiciona estos datos
indicadores simulados al conjunto de datos condicionantes y se utilizan para condicionar la
simulación en nodos futuros.

Método de descomposición LU

El método de la descomposición LU es una aproximación directa de una simulación que


utiliza la matriz de covarianza entre las ubicaciones de los datos y los puntos simulados.
Esta aproximación tiene la ventaja de ser capaz de simular rápidamente cientos de
posibilidades de realizaciones. Sin embargo, tiene la desventaja de estar limitada a un
conjunto pequeño de datos y aun número pequeño de puntos simulados. Debido a la
limitación de puntos simulados, este método es muy apropiado para la simulación de la
distribución condicional de bloques en el uso de control de la ley. En este momento el
algoritmo se discutirá brevemente y los detalles de esta aplicación se discutirán en el
Módulo 4.4.

Así como en la aproximación de la simulación secuencial Gaussiana, la aproximación LU


utiliza las propiedades de la distribución normal. El primer paso en la aplicación de esta
aproximación es la transformación de los datos, luego se modela el variograma de los datos
transformados. Una vez que el modelo del variograma está disponible, se define la matriz
de covarianza en un formato especial. La esquina superior izquierda define la correlación
entre datos puntuales. La esquina inferior derecha define la correlación entre los puntos
que están siendo simulados. El resto de la matriz define la correlación entre los datos y los
puntos que están siendo simulados. Luego de la descomposición de la covarianza en
matrices triangulares inferiores y superiores (la LU en el nombre de la aproximación se
refiere a estas matrices), se puede escribir la simulación en una forma muy sencilla. La ley
simulada es simplemente la estimación krigeada y el número aleatorio distribuido
21

normalmente. Luego de sumar estas dos componentes, el valor simulado que resulta se
transforma nuevamente para definir la ley simulada en el punto de interés.

La descripción anteriormente explicada se puede escribir en una forma matemática muy


sencilla. Primero se define la matriz de covarianza C entre los datos condicionantes y los
puntos que están siendo simulados y descomponer la matriz en matrices triangulares
superiores e inferiores.

C = LU

Luego se considera un vector de números ω aleatorios independientes, distribuidos


normalmente y se define un vector de valores y simulados como: y = Lω. Resulta ser que la
variable aleatoria Y posee unas propiedades muy convenientes.

E(Y) = 0 :la esperanza (promediada) de la variable Y aleatoria es 0.


Cov(Y) = C :La covarianza de Y reproduce la matriz de covarianza.

Por lo tanto el vector de los valores y simulados entrega una simulación incondicional. Esta
simulación puede hacerse condicional a través de la realización de un poco más de trabajo
en la matriz L. Resulta ser que el vector de los puntos condicionalmente simulados es:

Y= Y*sk + L22ω

Donde: L22 es una porción de la matriz de covarianza involucrando


los puntos simulados
ω es un vector de números aleatorios normalmente distribuidos

Eso es todo. Trabaje un poco sobre una matriz de covarianza que incluya todos los puntos
datos y los puntos que están siendo simulados. Realice El krigeado simple en cada punto
simulado. Luego sume adicione un componente aleatorio para obtener una ley simulada y
la simulación condicional estará hecha.

Note que el componente de El krigeado simple del valor simulado no cambia sin importar
cuantas simulaciones sean requeridas. Para obtener más valores simulados solamente
defina más números aleatorios.

Referencias

Deutch, C.V. y Journel, A., GSLIB- Geostatistical Sortware and User´s Guide, Segunda Edición, Oxford
University Press, Nueva York, 1998

Goovaerts, P., Geostatistical for Natural Resources Evaluation, , Oxford University Press, Nueva York, 1997

Glaken, I.M., Change and Support By Direct Conditional Block Simulation, Tesis de Master, Stanford
University, Marzo 1996

Davis, M., Production of Conditional Simulation Via the LU Decomposition of the Covariance Matrix,
Mathematical Geology, Volumen 19, No. 2, 1987
22

Módulo 4.3 – Ejemplos de simulación condicional

Para ejemplificar el método de simulación condicional de datos continuos (es decir, leyes) y
datos categóricos (es decir, litología), en este módulo se entregan tres estudios de caso de
simulación. Al realizar estos estudios de caso, se hace referencia directa a las rutinas
GSLIB, SGSIM, SISIM y LUSIM y los requisitos necesarios para hacer funcionar estos
programas se describirán en detalle. Se hace referencia directa a estos programas porque a
diferencia del krigeado que es ofrecido por un número grande de vendedores de software,
éstos son los programas de simulación mas ampliamente usados. Más aún, estas rutinas de
simulación se encuentran disponibles para cualquiera que adquiera un libro (Deutsch y
Journel, 1992).

Simulación de datos continuos

La simulación de datos continuos se demostrará utilizando datos de un nivel del yacimiento


de óxido de Damiana en El Salvador. Se encontró que la mineralogía del cobre era la
variable control más relevante en este yacimiento con tres grandes tipos de mineralogía
definidos. Las leyes más altas se encuentran dentro de cuerpos discretos que contienen
minerales negros (wad/pitch de cobre) y verdes (Crisocola y malaquita). Las leyes medias
se encuentran en áreas que contienen D a t a L o c a t io n a n d G r a d e C o n to u r
sólo minerales negros, mientras que
las leyes más bajas se encontraron en 2 0 4 0 0
donde no habían minerales de cobre.
La zona rica (minerales negros +
20200
verdes) se da en una superficie
inclinada, por lo tanto se desplegó el
yacimiento antes de realizar los 2 0 0 0 0
modelos. Se demostrará una
simulación utilizando la 1 9 8 0 0
aproximación secuencial Gaussiana
en una de las superficies 1 9 6 0 0
desplegadas.
-1 1 4 0 0 -1 1 2 0 0 -1 1 0 0 0 -1 0 8 0 0 -1 0 6 0 0 -1 0 4 0 0 -1 0 2 0 0

Lognormal Probability Plot


Estadística y correlación 3 Statistics Declustered Statistics
365 Data 365 Data
Average = 0.66% Average = 0.56%
2 Std. Deviatio n = 0.44% Std. Devia tion = 0.41%
Coef. of Variatio n = 0.66 Coef. of Variatio n = 0.73
Expected Normal Value

Maximum = 2.20% Maximum = 2.20%


1

-1

-2

-3
0.04

0.07
0.08

0.20

0.40

0.60

1.00
0.03

0.05
0.06

0.09
0.10

0.30

0.50

0.70
0.80
0.90

2.00

Total Copper Grade (%)


23

La zona del yacimiento estudiada (Damiana central) se investigó en varias campañas de


sondajes. Los últimos programas se centraron en las porciones del yacimiento
que poseían leyes altas. Se muestran en la figura adjunta la densidad de los
datos (en el nivel estudiado) y el contorneo simple de las leyes de cada muestra.

Como resultado de la estrategia de sondeo, la distribución espacial de las muestras no es


regular (agrupada) y las porciones del yacimiento donde hay leyes altas estan muestreadas
con una densidad mayor que las zonas donde hay leyes bajas. Debido a la agrupación de
los datos, se realizó un desagrupamiento por celdas para determinar un peso espacialmente
representativo para asignar a cada dato en los cálculos de las estadísticas. Luego de la
desagrupación, el promedio de la ley en el nivel decayó en un 15%. Las diferencias en la
distribución acumulada y las estadísticas antes y después de la desagrupación se muestran
en el gráfico logarítmico de probabilidad.

Para realizar la simulación, las leyes reales deben ser transformadas a valores normales
(datos normales estándar). La distribución desagrupada se utilizó para definir la
transformación a valores normales de los datos. Al revisar la simulación, se examinará el
impacto de usar la representación desagrupada en vez de la representación de igual peso de
la función de distribución.

Una vez que están


disponibles los datos Experimental Variograms
1.1
transformados, el 1.4
variograma de los datos y 1.0

los datos transformados se 0.9 1.2

puede examinar y modelar. 0.8


1.0
Existen relativamente 0.7

pocos datos (365) en este

Lag Mean
0.6 0.8
Lag Mean

banco, por lo tanto es difícil


0.5
0.6
obtener un variograma que 0.4
Models
pueda ser modelado. Al 0.3
Data :
Norm Trans:
 (h) = 0.40 + .20 Sph
 (h) = 0.50 + .25 Sph
25 (h) + .20 Sph
300
(h) + .25 Sph
(h)
(h)
0.4
25 300
definir este modelo, se 0.2
0.2
utilizó la experiencia 0.1
Lag Mean - Normal Transform

obtenida al modelar todos 0.0 0.0


0 100 200 300 400 500
los niveles de este
Distance (m)
yacimiento. En particular,
se sabe que el efecto pepita (determinado por todos los datos) es aproximadamente un 50%
de la meseta. Este factor se usa para asignar el efecto pepita para este nivel. Otro
problema con este conjunto de datos es que debido al agrupamiento de cuerpos de alta ley,
el promedio de la ley de los datos utilizados en el variograma en intervalos cortos es mayor
que las leyes en intervalos largos. Debido a esta diferencia en la ley como función de la
distancia de los intervalos y del efecto proporcional, los valores del variograma en
distancias cortas se incrementan. Para compensar este efecto de intervalo medio, se
modeló el variograma general relativo de la ley (el variograma se divide por el cuadrado de
la media del intervalo). Es importante saber que luego de la transformación de los valores
normales de los datos, la relación entre las leyes de la media del intervalo y la distancia
24

permanece. Esta dependencia entre la media del intervalo y la distancia indica que aunque
la transformación normal de los datos sigue perfectamente una distribución normal
univariante, los datos no están, casi por seguro, distribuidos normal multivariante. Por lo
tanto, el algoritmo secuencial Gaussiano no es teóricamente aplicable en este caso. A pesar
de esta inconsistencia teórica, el yacimiento será simulado y los chequeos detallados se
realizarán para asegurar que la simulación represente adecuadamente las características de
los datos.

Uso de la rutina SGSIM

La rutina SGSIM es la implementación de la aproximación secuencial Gaussiana del


paquete de GSLIB. Una explicación detallada de este método de simulación se puede
obtener al describir las entradas del programa. La información necesaria para realizar la
simulación se entrega a la rutina vía un archivo de parámetros. El archivo de parámetro es
un simple archivo ASCII de texto, separado por espacios. El archivo de parámetros que se
utilizó para preparar la simulación de Damiana se expone en este módulo y los diferentes
parámetros incluidos en este archivo se discuten en la siguiente sección. La discusión se
organiza por el número de línea del archivo que está en paréntesis al final de cada línea.

Archivo de los datos y columnas de entrada


Parameters for SGSIM
Las líneas (1) y (2) entregan información START OF PARAMETERS:
c:\datafiles\course\sim\declus.out \file with data (1)
con respecto a la estructura del archivo 1 2 3 4 6 0 \ columns for X,Y,Z,vr,wt,sec.var. (2)
de entrada. Primero se específica la -10. 1.0e21 \ trimming limits (3)
1 \ transform the data (0=no, 1=yes) (4)
ubicación del archivo de entrada. Este sgsim.trn \ file for output trans table (5)
es un archivo de texto ASCII (espacio, 0 \ consider ref. dist (0=no, 1=yes) (6)
histsmth.out \ file with ref. dist distribution (7)
tab o coma delimitada). El archivo 1 2 \ columns for vr and wt (8)
contiene NV+2 líneas de encabezamiento 0.0 2.3 \ zmin,zmax(tail extrapolation) (9)
1 0.0 \ lower tail option, parameter (10)
(donde NV es el número de variables). 1 2.3 \ upper tail option, parameter (11)
La primera línea describe el archivo. La 2 \debugging level: 0,1,2,3 (12)
sgsim.dbg \file for debugging output (13)
línea siguiente describe el número de c:\datafiles\course\sim\sim.out \file for simulation output (14)
variables y la línea NV que le sigue 20 \number of realizations to generate (15)
150 -11495. 10. \nx,xmn,xsiz (16)
entrega los nombres de las variables. 100 19505. 10. \ny,ymn,ysiz (17)
Las variables se pueden colocar en 1 1 2. \nz,zmn,zsiz (18)
69069 \random number seed (19)
cualquier columna. Las columnas que 4 10 \min and max original data for sim (20)
contienen las variables de interés son 10 \number of simulated nodes to use (21)
0 \assign data to nodes (0=no, 1=yes) (22)
mencionadas en la línea (2). En la 1 3 \multiple grid search (0=no, 1=yes),num (23)
simulación de Damiana, los datos 0 \maximum data per octant (0=not used) (24)
160.0 160.0 4.0 \maximum search radii (hmax,hmin,vert) (25)
requerían ser desagrupados. Los pesos 0.0 0.0 0.0 \angles for search ellipsoid (26)
de desagrupamiento de las celdas son 0 0.60 1.0 \ktype: 0=SK,1=OK,2=LVM,3=EXDR,4=COLC (27)
../data/ydata.dat \ file with LVM, EXDR, or COLC variable (28)
4 \ column for secondary variable (29)
2 0.5 \nst, nugget effect (30)
1 0.25 0.0 0.0 0.0 \it,cc,ang1,ang2,ang3
25.0 25.0 25.0 \a_hmax, a_hmin, a_vert
1 0.25 0.0 0.0 0.0 \it,cc,ang1,ang2,ang3
300.0 300.0 300.0 \a_hmax, a_hmin, a_vert
25

proporcionados en la columna 6 del archivo de entrada, mientras las leyes sin


transformación se encuentran en la columna 4.

Límites de corte

Si se cambian los valores de la línea (3), algunos datos se pueden excluir de este análisis.
En este caso, no se excluirá ningún dato.

Transformación de los datos (línea 4)

Para realizar la simulación, los datos deben ser transformados para seguir una distribución
normal con una media de cero y una desviación estándar de uno. La transformación se
puede realizar por el usuario fuera de la rutina (en dicho caso el parámetro se coloca en
cero) o dentro de la rutina. En la aplicación en Damiana, los datos serán transformados
utilizando los pesos desagrupados entregados, por lo tanto este parámetro se iguala a uno.
En general, es más conveniente permitir a la rutina realizar la transformación porque
cuando se requiere la transformación, la rutina automáticamente retransformará
nuevamente la simulación. Si las leyes simuladas no vuelven a ser transformadas por la
rutina, entonces los datos dirigidos al archivo de salida seguirán una distribución estándar
normal y el usuario tendrá que pasar por otra rutina para realizar una transformación
nuevamente.

Función de transformación (línea 5)

Nombre del archivo de salida que contendrá información acerca de la transformación de los
datos. El archivo tiene dos columnas. La primera columna es la ley y la segunda columna
es el valor normal para el valor de la ley.

Distribución de referencia

Si se requiere que la distribución de las leyes simuladas igualen una distribución


exactamente a una distribución particular, entonces se requieren entradas en las líneas 6, 7 y
8. La línea (6) se determina en uno o cero, dependiendo si la distribución de referencia se
da a lugar o no. En la mayoría de los casos, este valor se determina en cero ya que no es
conveniente igualar exactamente una distribución particular. Por naturaleza, las
simulaciones contienen una componente aleatoria y en una parte en donde aparece esta
aleatoriedad es en la distribución de las leyes simuladas. Cuando se crean simulaciones
múltiples, generalmente no se realiza la igualación de las distribuciones.

En algunas aplicaciones, sólo se genera una simulación. En esta situación, puede resultar
razonable requerir que la distribución de las leyes simuladas igualen la distribución de los
datos de entrada . En este caso, la línea (6) se sitúa en 1 y el archivo que contiene la
función de referencia se menciona en la línea (7). El archivo de referencia está en formato
ASCII y contiene pares de datos que describen la transformación (mapeo) o leyes a datos
26

de valores normales. La línea (8) define el número de columna que contiene la ley y la ley
transformada. Si la línea (6) se determina en cero, las líneas (7) y (8) se ignoran.

Extrapolación de la cola

Durante la transformación reversa, seguramente habrán valores simulados que están afuera
del rango de los datos. Para la simulación de Damiana, la ley máxima fue de 2.2% de
cobre y ésta fue transformada a 2.996. Se crearon valores simulados más grandes que 3.
No existe ninguna manera de transformar estos datos nuevamente sin entregar información
de la cola de la distribución. La línea (9) describe el mínimo y el máximo de valores
posibles para transformaciones reversas. Para Damiana, los valores 0 y 2.3 fueron
seleccionados luego de examinar el gráfico logarítmico de probabilidad. La línea (10) y
(11) describen cómo la cola de la distribución será ajustada. La aproximación más común
es introducir una cola lineal de tal manera que el primer parámetro de la línea (10) y (11) se
fija en 1. El segundo parámetro en estas líneas no se usa cuando se requiere un ajuste
lineal.

Salida de comprobación

Para revisar lo que está haciendo el programa, se pueden especificar varios niveles de
comprobación. La línea (12) define el nivel de comprobación (el nivel 3 debe ser evitado,
a menos que sólo unos pocos puntos estén siendo simulados) y la línea (13) define el
archivo en donde se escribirá el resultado.

Salida de la simulación

Los resultados de la simulación están escritos en el archivo que se muestra en la línea (14).
Los resultados son una sola columna de números.

Número de simulaciones

El número de simulaciones a realizar está especificado en la línea (15). Se requiere un


mínimo de 20 simulaciones para estudiar la variabilidad. Nótese que los resultados serán
escritos en una sola columna. Si no se realiza una simulación en un punto particular
(debido a la falta de datos condicionados, por ejemplo), un valor de –99 se entrega como
salida. El número de registros en el archivo de salida será igual al número de simulaciones
por el número de puntos simulados. Los resultados deben ser procesados posteriormente
en el mismo registro.

Red de puntos simulados

Las líneas (16), (17) y (18) definen la red de puntos que serán simulados.

Valor semilla
27

La línea (19) define el valor semilla para el generador de números aleatorios. Es


importante saber que la misma secuencia de (pseudo) números aleatorios siempre es
generado desde una semilla específica. Por lo tanto, si se requieren simulaciones
múltiples, pero éstas no se pueden realizar de una sola vez en el programa, se puede
cambiar este valor después de cada uso del programa. Si no se cambia el valor, exactamente
la misma simulación será generada cada vez que se use el programa.

Cómo simular

Las líneas (20) a (29) describen cómo se realizará la simulación. La línea (20) define el
número de los datos que serán utilizados en la simulación, mientras la línea (21) define el
número de los puntos previamente simulados que serán utilizados. La línea (22) permite el
movimiento de datos puntuales a nodos krigeados. Si este valor se determina en 1, datos
puntuales se trasladan a los nodos más cercanos y se aplica un solo radio de búsqueda
tanto para los datos como para los puntos previamente simulados. Esto acelera la
simulación, sin embargo, se pierde la distinción entre los datos y los puntos previamente
simulados y todos los puntos son ubicaciones en la red de puntos sin importar si son datos
cercanos o no. Se recomienda que este valor siempre se determine en cero. Esto hace que
la rutina busque los datos reales para condicionar la simulación. En este caso, si no hay
datos cercanos suficientes, el punto no es simulado. La línea (23) permite la
implementación de la aproximación de malla múltiple que se discutió en el Módulo 4.2.
las líneas (24), (25) y (26) describen el método para buscar los datos que se usarán en la
simulación. Las líneas (27), (28) y (29) describen el tipo de el krigeado que se debe
realizar. Se recomienda el krigeado simple. Se recomienda un cuidado extremo si se
utilizan variables secundarias (líneas 28 y 29) a modo de soslayar la movilidad de los datos
(ver comentarios al final de este Módulo).

Modelo de variograma

La línea (30) es la primera de varias líneas que se han utilizado para especificar el modelo
de variograma. Es importante recordar que este es el modelo de los valores normales de
los datos y no los datos en sí. Primero, se especifican el número de las estructuras y el
efecto pepita. Las líneas que siguen describen las propiedades de cada estructura.

Resultados de la simulación

Se prepararon un total de veinte simulaciones condicionales utilizando el archivo de


parámetro previamente discutido y la rutina SGSIM. Para revisar los resultados
simulados, se comparan las distribuciones de las leyes simuladas con las distribuciones de
los datos originales. Esto es seguido por la revisión de los variogramas y la comparación
de los bloques de leyes simuladas y Lognormal Probability Plots
krigeadas. 20 Simulations vs. Data
4

Revisión de las distribuciones de la ley 3

2
Expected Normal Values

Como se muestra, la distribución de las 1 Simulations


Data

veinte simulaciones es iguala casi a la 0

-1

-2

-3

-4
0.01

0.02

0.03

0.04
0.05
0.06
0.07
0.08
0.09
0.10

0.20

0.30

0.40
0.50
0.60
0.70
0.80
0.90
1.00

2.00

3.00

Total Copper (%)


28

perfección a la distribución de los datos. La única diferencia significativa se ve bajo


0.03% de cobre. Se espera alguna dispersión en este rango de la ley ya que el valor menor
de los datos es de 0.03%. Bajo esta ley, la transformación reversa no está bien controlada.
Se puede observar en leyes altas, el impacto de la decisión de limitar los valores a 2.3%.
La cola de ley alta muestra una inclinación más pronunciada de lo esperado por los datos.
En otras palabras, la selección de 2.3% fue más bien conservadora. Hubiese sido aceptable
un máximo de 2.4 o incluso 2.5%.

Revisión de la correlación espacial

Los variogramas de la transformación reversa de los valores simulados iguala más o menos
bien el modelo de variograma hecho para Variograms of the Simulations vs Model
los datos. Sin embargo, hay una 0.18

diferencia en la forma de los variogramas


0.15
en distancias que van de un rango de 25 a
100 metros. Esta diferencia es asociada 0.12

con la relación entre la media del “lag” y la 0.09


distancia observada en los datos. Como se


0.06
mostró previamente en el variograma
experimental de los datos, la ley promedio 0.03

de los pares en distancias de separación 0.00


0 50 100 150 200 250 300 350 400
corta es mayor que cuando la distancia de Distance (m)

separación es mayor. Por esta razón, se


modeló el variograma relativo general. Es importante notar que las leyes de la media del
“lag” de la simulación siempre están muy cercanas a la media de los datos y no varían con
la distancia. Esto implica dos cosas: el variograma experimental estándar (en vez de un
variograma relativo) puede ser mostrado para las simulaciones. Los variogramas de las
simulaciones se deben comparar con el modelo general relativo escalado para igualar la
varianza de los datos. Es más importante aún notar que los datos simulados no reproducen
una característica de los datos. El usuario ahora debe decidir cuán importante es esta
característica y si las simulaciones deben ser utilizadas.

Para fines de esta demostración, esta característica de los datos no es tan importante. Se
utilizará la simulación debido a la buena igualación entre los datos simulados y reales y la
igualación razonablemente buena en la correlación espacial.

El impacto del desagrupamiento

Debido a que los datos están agrupados dentro de la porción de leyes altas del yacimiento,
los pesos desagrupados se definieron y usaron en la transformación de los datos. Para
demostrar la importancia del desagrupamiento, se realizaron un conjunto de 20
simulaciones utilizando el mismo archivo de parámetros que se explicitó anteriormente con
un solo cambio: no se ocuparon desagrupamientos en la transformación.
29

Las simulaciones desagrupadas qq Plot - Impact of Declustering


y no desagrupadas son 2.4

comparadas para una simulación Statistics


Declustered Not Declustered
en particular. Las dos 2.0
Average
Data Simulation Data Simulation
0.56 0.58 0.66 0.61
simulaciones se realizaron con Std. Dev. 0.41 0.43 0.44 0.43

Declusterized Transform
1.6
la misma semilla aleatoria, por
lo tanto, la simulación sólo se 1.2

diferencia en la forma en que los


datos son transformados. Un 0.8

gráfico qq de las simulaciones 0.4


muestra las diferencias
introducidas por la 0.0
0.0 0.4 0.8 1.2 1.6 2.0 2.4
transformación. El gráfico Unweighted Transform
muestra que en la mayoría del
rango de las leyes, la transformación no ponderada entrega una ley simulada mayor que la
transformación desagrupada. El gráfico también muestra un conjunto de escalones. Éstos
son introducidos por los pesos de desagrupación.

Otra diferencia que muestra el gráfico está en la estadística de los datos y la simulación.
La diferencia en el promedio de la ley de los datos ponderados y desagrupados es de 0.1%
de cobre (.66% v/s .56%). Esto es muy significativo. La diferencia en la ley promediada
de las dos simulaciones es sólo 0.03% (.61% v/s .58%). Claramente, el proceso de
simulación (el cual se basa en el krigeado) tiene algunas propiedades de desagrupamiento y
después de la simulación, la mayoría de los efectos del agrupamiento de los datos son
removidos. Los problemas se originan cuando la distribución de los datos se compara con
la distribución de las leyes simuladas. El promedio no ponderado de los datos y el
promedio de la simulación nunca serán iguales si los datos son agrupados. Por lo tanto, si
el usuario no se da cuenta de que los datos requieren ser desagrupados y realiza una
transformación sin ponderar los datos, el promedio de la ley de la simulación y los datos no
serán iguales. Parecerá que la simulación es errónea cuando, de hecho, el error se genera
en el manejo de los datos.

Comparación de las leyes de bloque simuladas y krigeadas

Una revisión adicional que se puede realizar en la simulación es crear leyes de bloque y
comparar las leyes de bloque simuladas y krigeadas. En este caso, las leyes puntuales son
simuladas en un malla de 10x10m. Al promediar las nueve leyes simuladas de cada bloque
generan leyes de bloques de 30x30m. El objetivo de esta revisión no es ver si la
distribución de las leyes de bloque krigeadas igualarán las simuladas. De hecho, no lo
harán ya que las leyes krigeadas están alisadas. Los dos conjuntos de leyes de bloque
serán comparados en un gráfico para buscar sesgos condicionales en rangos de leyes
particulares que pueden ser introducidos por la transformación de la ley. El gráfico
también permite otra oportunidad para investigar los efectos del desagrupamiento al
presentar las leyes simuladas no ponderadas y desagrupadas.
30

El gráfico muestra claramente el sesgo condicional del el krigeado. Sin embargo, el sesgo
condicional es consistente a lo largo de todo el rango de la ley, por lo tanto no hay razón
para sospechar que la Kriged vs. Simulated Block Grades (30m Blocks)
transformación reversa introduce 1.8
sesgos específicos o locales en el Declustered Transform
Unweighted Transform
1.6
rango de la ley. Si se comparan
1.4 6x
los dos tipos de simulaciones, es + .7

Simulated Block Grades


.17
y =0
fácil observar que la 1.2

transformación sin ponderar 1.0

entrega leyes simuladas mayores 0.8

en casi todas las ubicaciones. En 0.6

cualquier rango de ley particular, 0.4 Summary Statistics


Kriging Simulation Simulation

la variabilidad de los bloques de 0.2


Decluster No Declus.
Average 0.58 0.58 0.61
Std. Dev. 0.22 0.26 0.26
leyes simulados es mucho mayor 0.0
que la variabilidad de los bloques 0.0 0.2 0.4 0.6 0.8
Kriged Block Grades
1.0 1.2 1.4 1.6

de leyes el krigeados. La
variabilidad en las leyes simuladas debería dejar claro que las simulaciones no pueden ser
utilizadas para la estimación de leyes.

Salida de las simulacion

Después de promediar las leyes puntuales simuladas para producir leyes de bloques, los
resultados de la simulación pueden ser revisados de diversas maneras. Las simulaciones
pueden ser estudiadas una a la vez para adquirir una apreciación cualitativa en la
variabilidad espacial de las leyes. La distribución condicional de las leyes de bloques (la
distribución de las 20 leyes de bloques simuladas en cada localidad) pueden ser evaluadas
para definir la variabilidad local o para determinar la probabilidad de que la ley del bloque
sea mayor que la ley de corte.

Primero, la ley de una sola simulación se comparará con las estimaciones krigeadas para
resaltar (una vez más) las diferencias entre una simulación y una estimación.

Simulated Block Grades


Kriged Block Grades

20400 20400

20200 20200

20000 20000

19800 19800

19600
19600

-11400 -11200 -11000 -10800 -10600 -10400 -10200 -11400 -11200 -11000 -10800 -10600 -10400 -10200
31

Las estimaciones de las leyes krigeadas claramente son menos variables. Mientras las dos
imágenes muestran las mismas tendencias generales, hay mucho más detalle en la imagen
simulada. Si se comparan los contornos de las dos imágenes se puede apreciar que éstos
siguen la misma tendencia general, pero son mucho más variables. Como se discutió, la
simulación es sólo una de las veinte que fueron creadas. Si se observasen los contornos de
las veinte simulaciones, los límites esperados de cada línea de contorno podrían ser
definidos. Éste podría ser un mapa muy útil si los contornos correspondiesen a las leyes de
corte y la incertidumbre en el tonelaje del mineral fuese un asunto clave. Una imagen que
se refiere a un asunto similar (pero es más fácil de producir) es la probabilidad de que cada
bloque exceda la ley de corte.

Para este ejemplo se asume que ley de corte es de 0.5% de cobre. Para cada bloque hay
veinte leyes simuladas. La proporción de las leyes simuladas que exceden el corte es una
estimación de la probabilidad de que la ley verdadera del bloque exceda el corte. Si se
envía un bloque a la planta, esta probabilidad describe la posibilidad de que la decisión de
selección sea correcta. Otra manera de ver esta probabilidad de clasificación errada de un
bloque (es decir, enviar un bloque estéril a la planta) es de uno menos la probabilidad de
que la ley verdadera sea mayor que la de corte. En otras palabras, una vez que se ha
tomado una decisión de selección de mineral estéril para un bloque, la distribución de la ley
condicional describe la probabilidad de clasificación errada. La selección del mineral
estéril basado en la distribución condicional simulada y el costo de la clasificación errada se
está transformando en una práctica de uso común de la técnica de simulación. Este tema
será discutido detalladamente en el Módulo 4.4.

P r o b a b ilit y o f E x c e e d in g 0 . 5 % C o p p e r
La probabilidad de exceder el
0.5% de cobre entrega una 2 0 4 0 0
imagen bastante tenue de la
ubicación del material de la ley
del mineral. 2 0 2 0 0
Sorprendentemente, casi no hay
áreas en donde exista completa 2 0 0 0 0
seguridad de que el material
enviado a la planta no se
encuentre bajo la ley de corte. 1 9 8 0 0
Otra manera de decir esto es
que no existe una probabilidad 1 9 6 0 0
de contorno del 100% y las
áreas en donde hay una -1 1 4 0 0 -1 1 2 0 0 -1 1 0 0 0 -1 0 8 0 0 -1 0 6 0 0 -1 0 4 0 0 -1 0 2 0 0

probabilidad de que la ley exceda el corte sea mayor que 90% son mínimas. Por lo tanto, la
probabilidad de enviar estéril a la planta es mayor que 10% para todos los bloques.
32

La probabilidad de exceder el corte está relacionada con la certeza de una estimación de


recursos debido a que hay menos riesgos en un proyecto si sólo se denominan como
mineral aquellos bloques con una probabilidad alta de contener realmente material con ley
de mineral. Este tipo de análisis se puede expandir para entregar un análisis completo de la
incertidumbre para cada bloque en el modelo. Debido a que la distribución condicional es
accesible a cada bloque, se pueden establecer límites de confianza en las leyes estimadas.
Aquí existen dos posibilidades. Por un lado, se puede asumir que la distribución
condicional de las leyes es normal y se pueden seleccionar los límites basados en una
distribución normal. Por otro lado, los límites de confianza se pueden definir desde los
mismos valores simulados. El uso de la distribución normal es necesaria cuando se ha
realizado un número pequeño de simulaciones. La práctica ha demostrado que los dos
métodos entregan límites de confianza bastante similares (ver los comentarios al final de
este módulo). Sin embargo, son preferibles los intervalos simulados para evitar la
dependencia de cualquier modelo particular de distribución.

Otro asunto en la evaluación de la incertidumbre es si se debiese examinar la incertidumbre


absoluta o relativa. La mayoría de los yacimientos muestra un efecto proporcional, por lo
tanto las áreas con las leyes más altas naturalmente mostrarán una variabilidad mayor. Si
se divide la medida de la incertidumbre por el promedio de la ley mostrará mucho mejor la
incertidumbre real en una ubicación específica. Para mostrar la diferencia entre la
incertidumbre relativa y absoluta, se exponen imágenes de las desviaciones estándares
condicional relativas y absolutas.
C o n d itio n a l S t a n d a r d D e v ia tio n R e la tiv e C o n d itio n a l S ta n d a r d D e v ia tio n

20400 20400
0 .3 4 1 .0 0

0 .3 0
20200 20200 0 .8 5

0 .2 6
0 .7 0
20000 0 .2 2 2 0 0 0 0
0 .5 5
0 .1 8
19800 19800 0 .4 0
0 .1 4

0 .1 0 0 .2 5
19600 19600

0 .0 6 0 .1 0
-1 1 4 0 0 -1 1 2 0 0 -1 1 0 0 0 -1 0 8 0 0 -1 0 6 0 0 -1 0 4 0 0 -1 0 2 0 0 -1 1 4 0 0 -1 1 2 0 0 -1 1 0 0 0 -1 0 8 0 0 -1 0 6 0 0 -1 0 4 0 0 -1 0 2 0 0

Las unidades de la imagen de desviación estándar condicional son el porcentaje del cobre.
Debido al efecto proporcional la incertidumbre mayor se encuentra en las áreas en donde
existen las leyes mayores, por lo tanto la imagen de la desviación estándar condicional no
difiere de la imagen de la ley estimada. La imagen de la simulación condicional relativa
no tiene unidades debido a que la desviación estándar condicional se divide por la ley. Una
vez que el efecto proporcional es eliminado, la incertidumbre es menor en áreas donde la
densidad de los datos es mayor. En las áreas coloreadas en gris, la varianza condicional
relativa es menor que 25%. Si la distribución condicional es normal, el resultado quiere
decir que hay una confianza de un 90% que la ley verdadera está dentro +/- 41% de la ley
estimada (ó 1.64*.25 donde 1.64 proviene de la tabla de la distribución normal).
33

Para calcular los intervalos de confianza a partir de las mismas simulaciones, se ordenan los
valores simulados para cada bloque y se
seleccionan los valores que
corresponden a los porcentajes
apropiados. En este ejemplo, hay veinte
simulaciones para cada ley de bloque.
Se toman los valores 2º y 19º como
valores representativos de los límites del
90% de las leyes de bloque. Se grafica
la diferencia entre estos valores.
Obviamente este método es más exacto
cuando el número de simulaciones es
mayor. El gráfico del ancho del 90% de
los intervalos certeros se puede
comparar con el gráfico de desviación
estándar (arriba), sin embargo los contornos de la desviación estándar condicional deben
ser multiplicados por 3.18(1.64*2) para mostrar la extensión del intervalo estimado con un
90% de confianza. Claro esta que las imágenes no son idénticas pero hay una fuerte
similitud (Vea la sección de comentarios para más discusión al respecto).

Finalmente, las imágenes para cualquier porcentil pueden ser creadas e interpretadas. Para
este ejemplo, las imágenes de los porcentiles 50 (mediana) y 90 fueron producidas.
Median Copper C o n t o u r s o n t h e 9 0 t h P e r c e n t ile G r a d e
Grade
20400
2 0 4 0 0 .0 0
1 .4 5

20200 1 .3 0
2 0 2 0 0 .0 0

1 .1 5

20000
2 0 0 0 0 .0 0 1 .0 0

0 .8 5
19800
1 9 8 0 0 .0 0
0 .7 0

19600 0 .5 5
1 9 6 0 0 .0 0

-11400 -11200 -11000 -10800 -10600 -10400 -10200 0 .4 0


-1 1 4 0 0 .0 0 -1 1 2 0 0 .0 0 -1 1 0 0 0 .0 0 -1 0 8 0 0 .0 0 -1 0 6 0 0 .0 0 -1 0 4 0 0 .0 0 - 1 0 2 0 0 .0 0

La mediana de la ley provee una imagen mucho más pareja de las leyes del cobre que lo
que entrega la ley media. La imagen del percentil número 90 puede ser interpretada como
un tipo de intervalo de confianza. En cada ubicación solo existe una posibilidad de un
10% de que una ley real sea excedida por el valor indicado.

Simulación de datos categóricos

La simulación de datos categóricos será demostrada nuevamente utilizando datos del


yacimiento de óxidos Damiana. Como ya fue descrito con anterioridad la mineralogía del
cobre es la variable de control primordial para éste yacimiento con tres tipos mineralógicos
principales definidos . Las leyes más altas se encuentran dentro de cuerpos discretos que
contienen minerales negros (Cooper wad/pitch) y verdes (crisocola y malaquita). Las leyes
34

intermedias se encuentran en áreas que contienen minerales negros mientras que las leyes
bajas fueron encontradas en donde no había minerales de cobre visible. La distribución
espacial para estos tres tipos minerales será simulada en un nivel del yacimiento utilizando
la simulación del indicador secuencial.

Estadísticas y Distribución de los datos.

Durante el mapeo de testigos de sondajes de diamante y de circulación inversa, se registró


la presencia y ausencia de varios minerales. En el análisis estadístico de los datos, fue
encontrada una asociación entre la ley del cobre y los minerales de cobre y cada muestra
fue ubicada en la clase mineralógica negra, no visible o verde+negra. Para simular la
mineralogía, esta codificación debe ser transformada a indicadores. La siguiente tabla
muestra la trasformación.

Implementación de la transformación del indicador para la mineralogía de Cu


Si la muestra se codifica Indicador Indicador Indicador no
como: negro negro+verde visible
Negro 1 0 0
Negro+verde 0 1 0
No Visible 0 0 1

Como se muestra arriba en la tabla, la transformación de indicadores alcanza a crear tres


nuevas variables que tienen un valor de 0 ó 1 dependiendo de la codificación del muestreo.
Un mapa de los indicadores muestra la distribución de cada tipo mineralógico.

El Gráfico de los datos


indicadores muestra que las
mineralogías de negro y
verde+negro son las más
comunes mientras que la
mineralogía no visible ocurre
en pequeños cuerpos. Hay
muchas áreas en éste nivel
donde dos o las tres
mineralogías aparecen
intermezcladas. A pesar de
esto la rutina de contorneo
utilizada para producir el mapa
(un tipo de estimación)
produce contornos alisados de
cada mineralogía.

Para simular la mineralogía se requiere tanto la proporción de cada mineralogía y el


variograma del indicador. La proporción de cada mineralogía es el promedio de los datos
indicadores. Como con las estadísticas de la ley, las estadísticas de los datos indicadores
deben ser desagrupados para proveer un valor más representativo. Las proporciones
35

desagrupadas (el desagrupamiento fue realizado utilizando el método del polígono de


influencia) son:

Proporciones Estimadas
Estimaciones Sin Estimaciones
Mineralogía
Ponderar Desagrupadas
Minerales Negros 0.355 0.356
Minerales
0.548 0.529
Negro+Verdes
No Visible 0.096 0.115

Los variogramas del indicador son Indicator Variograms of Mineralogy


calculados con los datos del indicador 0.28

de la misma manera que los 0.24

variogramas de la ley . Los datos 0.20

experimentales y los modelos son


mostrados aquí. El modelamiento de
0.16

cualquier anisotropía geológica es 0.12

importante para la simulación de 0.08

variables geológicas. Los variogramas Black Minerals  (h) = 0.08 + .10 Sph 45 (h) + .06 Sph 500 (h)
0.04 Black + Green  (h) = 0.09 + .08 Sph (h) + .05 Sph (h)
de indicadores direccionales no Not Visible  (h) = 0.03 + .05 Sph
50
80 (h) + .01 Sph
400
200 (h)

mostraron ninguna anisotropía 0.00


0 100 200 300 400 500

entonces: Distance

Solo el variograma omni-horizontal se ha modelado.

Uso de la rutina SISIM.

La simulación del indicador es implementada a través de SISIM de GSLIB. La entrada


para esta rutina se especifica a través del archivo de parámetros. SISIM puede ser utilizada
para simular tanto leyes como variables categóricas(como la mineralogía). Aquí solo
describimos la simulación de variables categóricas y vamos a ignorar los parámetros
utilizados para la simulación de leyes.
36

Tipo de simulación del indicador.

La información de las líneas (1) a la (4) describe el tipo de simulación de indicador. Para
los datos categóricos la línea
(1) debe ser 0. La línea (2) Parameters ********************
for SISIM

define el número de categorías


(en este caso el número de START 0
OF PARAMETERS:
\1=continuous(cdf), 0=categorical(pdf) (1)
mineralogías) y la línea (3) 3 \number thresholds/categories (2)
define los valores 0.356 .529 .115
1.0 2.0 3.0 \ thresholds /
\ global cdf / pdf
categories (3)
(4)
correspondiendo a cada c:\datafiles\course\sim\inddata.csv \file with data (5)
categoría. La rutina creará direct.ik
1 2 0 7 \ columns for
\file with soft indicator input
X,Y,Z, and variable (6)

datos indicadores basados en 1 2 0 3 4 5 6 7 \ columns for X,Y,Z, and indicators


los valores enumerados en esta 00.61 0.54 0.56 0.53 0.29 \ Markov-Bayes simulation (0=no,1=yes)
\ calibration B(z) values
línea. En la línea (4) esta la -1.0e21 1.0e21 \trimming limits
lista de las proporciones 0.0 1
30.0
0.0
\minimum and maximum data value
\ lower tail option and parameter
desagrupadas del nivel 1 1.0 \ middle option and parameter
correspondientes a cada 1cluster.dat
30.0 \ upper tail option and parameter
\ file with tabulated values
categoría. 3 0 \ columns for variable, weight
2 \debugging level: 0,1,2,3 (7)
sisim.dbg \file for debugging output (8)
Archivo de datos. c:\datafiles\course\sim\sisim3.out \file for simulation output (9)
1 \number of realizations (10)
150 -11495. 10. \nx,xmn,xsiz (11)
La ubicación del archivo 100 19505. 10. \ny,ymn,ysiz
ASCII de entrada 1
69069
1 2. \nz,zmn,zsiz
\random number seed
(12)
esta en la línea (5). 6 \maximum original data for each kriging
(13)
La línea (6) 12
1
\maximum previous nodes for each kriging
(14)
\maximum soft indicator nodes for kriging
enumera las 1 \assign data to nodes? (0=no,1=yes)
(15)
columnas que 1 3
0
\multiple grid search? (0=no,1=yes),num
(16)
\maximum per octant (0=not used)
(17)
contienen las 120.0 120.0 20.0 \maximum search radii
variables. El 0.0 0.0 0.0
0 2.5
\angles for search ellipsoid
\0=full IK, 1=median approx. (cutoff)
(18)
archivo de entrada 0 \0=SK, 1=OK
(19)
especificado 2 0.08
1 0.1 0.0 0.0 0.0
\One nst, nugget effect
\
(20)
it,cc,ang1,ang2,ang3
contiene siete 45.0 45.0 45.0 \ a_hmax, a_hmin, a_vert
variables: X, Y, Z, 1 0.06 0.0 0.0 0.0
500.0 500.0 500.0
\
\
it,cc,ang1,ang2,ang3
a_hmax, a_hmin, a_vert
indicador negro, 2 0.09 \Two nst, nugget effect
indicador 1 0.08 0.0 0.0 0.0
50.0 50.0 50.0
\
\
it,cc,ang1,ang2,ang3
a_hmax, a_hmin, a_vert
verde+negro, 1 0.05 0.0 0.0 0.0 \ it,cc,ang1,ang2,ang3
indicador no visible 400.0 400.0 400.0
2 0.03
\ a_hmax, a_hmin, a_vert
\Three nst, nugget effect
y code. Code es 1 1 0.05 0.0 0.0 0.0 \ it,cc,ang1,ang2,ang3
si la muestra está 80.0 80.0 80.0
1 0.01 0.0 0.0 0.0
\
\
a_hmax, a_hmin, a_vert
it,cc,ang1,ang2,ang3
codificada como 200.0 200.0 200.0 \ a_hmax, a_hmin, a_vert
negra, 2 si esta
como verde+negra, y tres si no es visible. La rutina usa el valor del Code y los
valores en la línea (3) para regenerar datos indicadores.

Archivo de salida.
37

Las líneas (7) y (8) proveen información sobre la operación del programa. Valores de 2 ó
menos son sugeridos para la línea (7). La información será escrita en el archivo
de la línea (8). Los resultados de la simulación serán escritos en el archivo de
línea (9). Para esta aplicación, la salida es una simple columna de números que
son ya sea el 1, 2, ó 3. Los valores simulados corresponden a la variable de
código de entrada.

Método de simulación.

Para este ejemplo de aplicación solo se realiza 1 simulación (línea 10) dado que el objetivo
consiste en observar las diferencias entre un mapa de litología estimado y uno simulado.
Simulaciones múltiples podrían ser realizadas para examinar, por ejemplo, la `probabilidad
de que cada punto de simulación corresponde a una mineralogía particular. La red de
puntos simulados esta definida en la línea (11). La semilla en la línea (12) inicia la serie de
números aleatorios.

Método de búsqueda

Las líneas (13) y (14) especifican el numero de datos y los puntos previamente simulados
para usarlos en la simulación. La línea (15) define si acaso datos puntuales serán movidos
hacia la malla de nodos más cercana. Como lo hemos mostrado los datos son trasladados
hacia el nodo más cercano. Esto fue realizado para mejorar la calidad del resultado. Este
tema es discutido con más detalles en la sección de discusión al final de este módulo. La
línea (16) especifica que la aproximación de la simulación en malla múltiple debería ser
utilizada y la línea (17) permite la implementación de una búsqueda octántica.

Método de El krigeado.

La línea (18) permite la aproximación del krigeado del indicador de la mediana. Cuando
esta aproximación es especificada un solo modelo de variograma es utilizado para todas las
categorías. En esta aplicación, serán utilizados modelos separados para todas las tres
categorías; por lo tanto este valor se fija en 0. La estimación del krigeado simple es el
método más apropiado entonces la línea (19) se fija en 0.

Parámetros de variogramas.

En las líneas que siguen a la línea (20), los parámetros de los modelos del variograma del
indicador son especificados. Dado que hay tres categorías, hay tres conjuntos separados de
parámetros de modelos de variogramas.

Resultados de las la simulación.

Tal como con la simulación de las leyes, los resultados de la simulación del indicador deben
ser revisados antes de comenzar a analizar los resultados. La revisión de las estadísticas de
38

la simulación es simple. La proporción de los puntos simulados asignado a cada


mineralogía es comparado con el promedio de los datos indicadores desagrupados.

Revisión de las Proporciones Simuladas


Estimaciones
Mineralogía Simulación
Desagrupadas
Minerales Negros 0.368 0.356
Minerales
0.524 0.529
Verde+Negro
No Visible 0.108 0.115

Estas proporciones coinciden


Variograms of Simulated Data vs Input Models
cercanamente por lo que aquí no 0.28
se presenta problema alguno.
Luego el variograma de los datos 0.24

indicadores simulados es 0.20


comparado con el modelo del
variograma de entrada. En este 0.16

caso los variogramas


0.12

experimentales de los datos


simulados no coinciden de 0.08

manera exacta con los modelos 0.04


Black Minerals
Black + Green

de entrada para la mineralogía no Not Visible

visible, el variograma de los 0.00


0 100 200 300 400 500

puntos simulados muestra una Distance

variabilidad levemente más alta en todas las distancias. Sin embargo, la forma de los
puntos experimentales es casi igual a la forma del modelo de entrada. Para las
mineralogías negra y verde+negra, la variabilidad de los puntos experimentales también es
mayor que el modelo a grandes distancias pero a distancias cortas el modelo coincide de
manera cercana con los puntos de experimentación. En distancias entre 50 y 200 metros,
el variograma experimental de la simulación no coincide muy bien con los modelos de
entrada. A pesar de que el variograma experimental de los puntos simulados no coincide
con los modelos exactamente, las diferencias no son extremadamente grandes y parecen
estar dentro de las fluctuaciones
estadísticas posibles a esperar con
el proceso de simulación. Las
simulaciones serán aceptadas
quedando pendiente revisiones en
el mapa de los datos simulados.
39

El mapa de los datos indicadores simulados es superpuesto sobre el mapa de los datos. La
simulación parece ser una buena representación de la posible distribución de
cada mineralogía. Como se muestra, la distribución de la mineralogía simulada
es más complicada (más entremezclado de mineralogías) que en el gráfico
original de los datos indicadores. Dado que las leyes del cobre contenidas en
cada mineralogía son diferentes, una evaluación de la dilución minera basada en
distribuciones estimadas y simuladas de las mineralogías podría entregar
resultados muy diferentes.

En casos como este en donde variables categóricas controlan la distribución de las leyes, es
común que se requiera de una aproximación de simulación que implique dos pasos.
Primero la distribución de las variables categóricas son simuladas como se ha discutido
aquí. Luego, la distribución de las leyes dentro de cada categoría se simulan y finalmente
las leyes simuladas se ajustan con la simulación de las variables categóricas. Para este
ejemplo, otra forma de decir esto es que cada punto en la red de simulación sería simulado
4 veces: una para la mineralogía y tres veces para la ley (una ley para cada mineralogía).
Si la categoría simulada corresponde a minerales de cobre negro, entonces la ley simulada
para minerales negros sería utilizada y las otras dos leyes simuladas serían descartadas.

Simulación rápida de datos continuos.

El procedimiento de simulación LU es utilizado par simular de manera rápida datos


continuos. Cientos de simulaciones pueden ser realizadas de manera rápida. Debido a las
manipulaciones de matrices requeridas, sin embargo, el número de puntos simulados debe
ser pequeño. Para ilustrar esta aproximación, leyes de cobre serán simuladas sobre una
pequeña porción del área previamente simulada utilizando la aproximación secuencial de
Gauss. Los resultados obtenidos por los dos métodos luego serán comparados.

El área de simulación seleccionada es un cuadrado de una malla de 10x10 de 81 puntos. El


origen de la malla esta ubicado en 10,505E y 19,865N. Un total de 100 leyes simuladas
serán creadas en cada punto. Los puntos simulados luego serán promediados dentro de
bloques de 30x30m. Luego de estos pasos, habrá 9 bloques cada uno de 30x30m con 100
leyes simuladas.

Uso de la rutina de LUSIM.

La rutina LUSIM tiene bastante menos variables de entrada que otras rutinas de simulación.
Existen dos principales razones para esto. Primero, tanto la entrada como la salida de la
rutina son transformaciones normales de los datos. Eso es, que en la rutina no se realizan
transformaciones a los datos. Como fue descrito previamente, los datos pueden ser
transformados hacia una variable normal estándar utilizando funciones que se encuentran
en el Excel o Statistica. La transformación inversa no es tan sencilla entonces es mejor
utilizar la rutina de GSLIB BACKTR o una equivalente. Segundo, la rutina utiliza todos
los datos entregados en la simulación entonces no hay búsqueda de datos cercanos.
40

Casi todos los parámetros mostrados acá a estas alturas deberían ser familiares dado que
son utilizados en otras rutinas. Aquellos parámetros que son distintos son discutidos más
adelante.

Entrada de datos.
Parameters for LUSIM
Las líneas (1), (2), y (3) describen ********************
el archivo de datos. START OF PARAMETERS:
La Estructura de archivo es la c:\datafiles\course\sim\declusl.csv \file with data (1)
misma que en las otras rutinas 1-1.0e21 2 3 5
1.0e21
\ columns for X,Y,Z, normal scores
\ trimming limits
(2)
(3)
exceptuando que solo los valores 2 \debugging level: 0,1,2,3 (4)
lusim.dbg \file for debugging output (5)
normales transformados son leídos. c:\datafiles\course\sim\lusim.out \file for realization(s) (6)
En esta aplicación, solo 21datos 100 \number of realizations (7)
ubicados dentro de un cuadrado de 99 -10505 19865 10
10 \nx,xmn,xsiz
\ny,ymn,ysiz
(8)

200x200 centrado en la malla 1 0.00 1.0 \nz,zmn,zsiz


112063 \random number seed (9)
simulación se incluyen en el 2 0.5 \nst, nugget effect (10)
archivo. La transformación a 1 0.25 0.0 0.0 0.0 \it,cc,ang1,ang2,ang3
25.0 25.0 25.0 \a_hmax, a_hmin, a_vert
valores normales utilizada es la 1 0.25 0.0 0.0 0.0 \it,cc,ang1,ang2,ang3
misma transformación general 300.0 300.0 300.0 \a_hmax, a_hmin, a_vert
utilizada en SGSIM. En algunas
aplicaciones, tendrá sentido tener una transformación normal diferente para distintas partes
del yacimiento. Al realizar la transformación global, se hace un fuerte supuesto de
estacionaridad, (el cual rara vez se cumple en la practica). Una serie de transformaciones
de la ley local podrían mejorar la calidad de las simulaciones.

Salida de los datos (líneas (6)).

La salida es una serie de valores (1 valor por registro). El número total de registros en la
salida de archivo es equivalente al número de simulaciones multiplicado por el número de
puntos, entonces incluso para este pequeño ejemplo el archivo de salida era grande. El
desarrollo de una rutina para procesar los resultados de la simulación es necesario para la
transformación inversa y manejar los datos.

Resultados de simulación.

Las 8,100 leyes simuladas fueron


qq Plots For 9 Simulated Block Grade Distributions
transformadas inversamente y luego
promediados dentro de los bloques de 1.6

30x30m. Este proceso produjo 100 1.4


LUSIM Simulated Block Grade

realizaciones de la ley del cobre para 9 1.2


bloques. Para comparar los métodos
LU y la simulación secuencial 1.0

Gaussiana, la salida SGSIM para los 0.8

mismos 9 bloques fue utilizada y 0.6


gráficos qq fueron producidos para
comparar las dos distribuciones 0.4

condicionales simuladas. 0.2


0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6
SGSIM Simulated Block Grade
41

En el gráfico qq hay 9 líneas que representan la comparación entre la distribución


condicional definida por las rutinas SGSIM y LUSIM para cada uno de los 9 bloques
seleccionados. Si las dos distribuciones de leyes simuladas fueran idénticas, el punto
caería en la línea negra sólida. Para más o menos la mitad de los bloques se podría
argumentar que la distribución es muy similar. Para los bloques restantes, sin embargo, las
distribuciones son definitivamente diferentes.
Cuando las dos distribuciones son diferentes, la pendiente de la recta en el gráfico de la
línea gráfico qq es cercana a los 45 grados pero los puntos están trasladados desde la línea
y=x. Este tipo de traslado es consistente con una constante diferencia entre las leyes de
ambas distribuciones. Si esta fuera una comparación de leyes reales y estimadas, la
diferencia sería llamada sesgo. Este traslado en la ley promedio o “sesgo” puede ser
explicado examinando como las dos rutinas simulan leyes.

Las leyes SGSIM simuladas están basadas en un krigeado simple que utiliza tanto los datos
cercanos como los puntos previamente simulados. El número y ubicación de los datos
utilizados puede ser controlado. Mientras que el número máximo de puntos previamente
simulados puede ser controlado, el usuario no puede controlar la ubicación de estos puntos.
Los puntos son simulados siguiendo un camino aleatorio a través de la malla de simulación.
La rutina LUSIM realiza un el krigeado simple utilizando solo los datos entregados al
programa. No se utilizan datos simulados. La importancia de esto es que las
ponderaciones del krigeado simple consideran los datos y la ley promedio del yacimiento.
Cuando la configuración de los datos cambia también lo hace la del ponderador de la
media. El traslado de la cantidad de peso dada a la ley promedio general podría fácilmente
cambiar la ley promedio del bloque e introducir “sesgo” aparentes vistos en el gráfico qq.

La pregunta obvia llegado a este punto es ¿cuál simulación es la correcta? La respuesta es


que ambas lo son. Este ejemplo demuestra claramente que la simulación no es estimación.
La simulación busca reproducir la distribución de las leyes y la correlación espacial a la vez
que está condicionada a los datos.

No hay nada en una simulación que garantice que es un buen estimador de la ley del
bloque. Dos simulaciones pueden dar leyes promedio muy diferentes. Dicho esto la
aproximación LU pareciera ser la aproximación más consistente ya que las simulaciones
son desarrolladas directo desde la matriz de correlación y el krigeado de los datos
(solamente). Desafortunadamente, este método no es viable sobre volúmenes grandes
entonces la aproximación de simulación secuencial es requerida para escala comercial.

Comentarios.

En lo casos previamente estudiados hay un número de asuntos técnicos que surgieron que
no pudieron ser tratados en profundidad dentro del desarrollo del texto. En esta sección,
estos asuntos serán discutidos con más detalle.

Reubicación de los datos condicionantes en la malla de simulación.


42

En ambas rutinas secuenciales de simulación, el usuario tiene la opción de mover el punto


de los datos hacia el nodo de simulación más cercano. Cuando esto está hecho,
las rutinas de simulación no realizan búsquedas separadas para ambos datos y
puntos previamente simulados. Solo son buscados los puntos previamente
simulados (los datos son transformados en efectivo hacia un punto simulado).
El lado positivo es que, mover la ubicación de los datos acelera la simulación
significativamente, ya que la búsqueda de datos para puntos cercanos es lenta.
Agréguese a esto, que el condicionamiento local de la simulación mejora.
Cuando un valor de los datos es movido hacia un nodo, el valor del nodo
simulado es la ley del dato. No se requiere más condicionamiento. El lado
negativo consiste en que, una vez que los datos han devenido puntos simulados,
es imposible tener un control para los datos reales en las cercanías al nodo que
esta siendo simulado. De hecho, los valores simulados serán definidos para
cada ubicación en la malla de simulación aunque hallan o no datos cercanos.
Súmese que, cuando varios puntos de los datos están más cerca de un nodo
particular solo el punto de los datos más cercano es retenido para la simulación.
Los otros datos ubicados cerca de este nodo son eliminados del análisis.

Como hemos discutido hay pros y contras cuando se mueven los datos hacia los nodos de la
simulación. Lo que debiera decidirse es específico de cada proyecto; sin embargo,
haremos la siguiente recomendación. Para datos continuos (ley por ejemplo) no mueva los
datos. Para datos categóricos (mineralogía por ejemplo) mueva los datos hacia el nodo de
simulación. Con datos numéricos es importante que los datos reales sean utilizados en la
simulación. La flexibilidad para buscar los datos de manera separada y prevenir la
simulación en áreas no muestreadas compensa la velocidad y las ventajas que implica
mover los datos condicionantes. Los datos categóricos son parte de otra historia. Dado
que los datos utilizados en la simulación son todos 0 ó 1, el alisamiento es alto. Sin
condicionamiento fuerte, el mapa simulado no reproducirá el mapa de los datos muy bien.
Para mostrar la importancia del condicionamiento en simulaciones categóricas, la
simulación del indicador de mineralogía presentada con anterioridad fue realizada a través
de ambos métodos. Estas distribuciones simuladas de mineralogía para cada método son
como se muestra a continuación.

Como lo muestran las imágenes, mover datos puntuales hacia los nodos mejora en gran
manera la apariencia del mapa.
43

Intervalos de confianza.

El modulo previo (modulo 3.4- Varianza de estimación e incerteza), se mostro (por lo


menos para algunos yacimientos) que factorizar la meseta del variograma o corregir el
efecto proporcional eran métodos efectivos de definición de la varianza condicional. Las
varianzas condicionales estimadas a través de éste método fueron casi idénticas a la
varianza condicional definida desde las simulaciones múltiples. Sí, además de definir
correctamente la varianza condicional, se puede demostrar que las distribuciones
condicionales son aproximadamente normales, entonces es posible proponer una especie de
simulación “hermano pobre”. En este enfoque, solo se utiliza el krigeado ordinario, la
varianza condicional es estimada, y la forma de la distribución condicional es supuesta
como normal. Este es definitivamente un método más rápido para definir la distribución
condicional y la incerteza. La pregunta es si acaso el supuesto es aceptable.

Para probar este método, será asumido que la varianza condicional puede ser
razonablemente estimada (como se muestra en el modulo 3). Llegado este punto la
pregunta es si acaso esta varianza sola puede ser utilizada para predecir los intervalos de
confianza entregados por la simulación. Utilizando la rutina de SGSIM, 20 leyes de
bloque fueron simuladas. La varianza condicional fue calculada e intervalos de un 90% de
confianza fueron determinados Comparison of Confidence Limits
Basados en el supuesto de normalidad. 3.0
Estos intervalos paramétricos fueron
comparados con el 90% de intervalos 2.5
Simulated Upper 90% Conf. Limit

determinados directamente desde los 2.0


bloquesde leyes simulados. El gráfico
de la derecha muestra la 1.5

correspondencia entre los superiores 1.0


90% intervalos calculados a través de
ambos métodos (el intervalo inferior 0.5

no es interesante dado que casi 0.0


siempre esta cercano a cero). 0.0 0.5 1.0 1.5
Normal Dist. Upper 90% Conf. Limit (Conditional Variance)
2.0 2.5 3.0

Basados en este gráfico pareciera ser


que los métodos más simples a utilizar que la simulación pueden ser usados para inferir las
propiedades de la distribución condicional. El problema es que algunos supuestos
distribucionales significativos son requeridos para aplicar estos métodos. Para yacimientos
de cobre, sin embargo, estos supuestos no parecieran generar problemas significativos. Se
requiere de más trabajo antes de que éstas aproximaciones puedan ser puestas en una
práctica generalizada.

No estacionaridad de los datos.

Los métodos para simulación de la ley dependen de la estacionaridad del conjunto de la


distribución de la ley. Este es un requisito bastante estricto. En todos los yacimientos hay
zonas de altas y bajas leyes y en algunos yacimientos hay tendencias de leyes en
direcciones particulares. Las técnicas de estimación tales como el krigeado generalmente
son robustas con respecto a las no estacionaridades menores en los datos. Las técnicas de
simulación son menos robustas. Dado que la simulación depende de la estacionaridad del
44

conjunto de la distribución de la ley, leyes altas y bajas separadas del yacimiento son
realmente variables diferentes. Esto significa que la transformación hacia variables
normales debiera ser diferente dado que la distribución de la ley es diferente.

El yacimiento de Damiana utilizado en el ejemplo, es un ejemplo muy bueno para simular


un yacimiento no estacionario. Se ha discutido previamente, que el yacimiento tiene una
superficie enriquecida y fue desplegado relativo a esta superficie previo a la simulación.
Dentro de cada superficie desplegada, las leyes son razonablemente estacionarias. Sin
embargo hay una fuerte tendencia vertical tanto sobre como debajo de la superficie
enriquecimiento. Debido a esta tendencia, las muestras de cada nivel son realmente
variables separadas y no debieran Plot of Average Grade By Depth
ser combinadas por propósitos de 0.75

simulación. Si los datos son 0.70


combinados, las tendencias
verticales de las leyes no serán 0.65
Average Copper Grade (%)

reproducidas (Ver figura 0.60


adyacente, este además es un
problema típico de estimación) y 0.55
Declustered Average Grade

habrán problemas locales con las 0.50


Simulated Average Grade

leyes simuladas.
0.45

Para mejorar la reproducción de 0.40


la tendencia vertical y las -22 -17 -12 -7 -2 2 7 12 17 22

Distance From Enrichment Surface


propiedades locales de la
simulación, existen dos opciones. El yacimiento puede ser dividido en dos zonas
estacionarias y las simulaciones pueden ser realizadas separadamente por zona. Esto
significa realizar simulaciones separadas por nivel o solo utilizar datos del mismo nivel
como datos condicionantes. Esto resolverá el problema de la estacionaridad, pero la
distribución condicional resultante no será correcta dado que los datos cercanos de los
distintos niveles son ignorados cuando se realiza una simulación condicional. En otras
palabras, la varianza condicional será demasiado alta dado que el algoritmo ignora los datos
que pudieran estar solo a 5 metros de distancia del punto que esta siendo simulado (pero en
otro nivel).

La segunda solución a este problema es utilizar todos los datos pero intentar variar la media
de la distribución condicional de manera local para considerar no estacionaridades. Esta
modificación es codificada dentro de la rutina SGSIM (líneas (27) y (28) del archivo de
parámetros). Para aplicar este método, primero el promedio de ley local transformada es
estimado utilizando un método de búsqueda que evita las no estacionaridades (en el caso de
Damiana, la estimación es realizada utilizando solo una búsqueda horizontal). Esta ley
promedio es luego proporcionada a la rutina de simulación para ser utilizada en el krigeado
simple (en vez de suponer que la media local es 0).

En Damiana, ambos métodos de considerar las no estacionaridades fueron probados y la


simulación final fue realizada nivel por nivel (con una corrección posterior de la varianza
condicional local) dado que esta aproximación provee los resultados más consistentes.
45

En resumen, las no estacionaridades impactarán fuertemente la calidad de la simulación.


Debido al requerimiento de la estacionaridad de la transformación de la ley, los
requerimientos de estacionaridad para una simulación son mucho más fuertes que para la
estimación. Cada vez que una simulación este contemplada, las fuentes de no
estacionaridad deben ser identificadas y se deben encontrar estrategias para minimizar los
impactos que esto implica en los resultados. En otras palabras, la simulación no puede ser
realizada sin un análisis extensivo de las estadísticas de los datos y un profundo y claro
entendimiento de la geología del yacimiento.

Realizar simulaciones de manera ciega puede producir errores y llevar a resultados


equivocados.
46

Módulo 4.4 – Las Aplicaciones de una simulación


Las simulaciones se pueden utilizar para tratar asuntos relativos a la incertidumbre y
variabilidad en una gran variedad de áreas. En el presente módulo se presentarán algunos
ejemplos de aplicación en áreas de control de la ley del mineral, incertidumbre de los
recursos, dilución y mezcla. En cada una de estas aplicaciones se realiza la simulación con
el fin de evaluar la variabilidad y no la ley media. Para asegurar que esta diferencia
conceptual esté clara, se presentará una pequeña discusión acerca de una aplicación en
donde la simulación no es apropiada.

El Control de la Ley

Un uso muy común, utilizado cada vez más, de la simulación es en el control de la ley. En
la aproximación de la simulación hacia el control de la ley, las decisiones relativas al
mineral/estéril se toman en base a la distribución de la ley estimada del bloque en vez de
sólo considerar el promedio estimado de la ley del bloque. Para crear una distribución de
la ley del bloque, se discretiza una unidad de selección minera (SMU – unidad básica de
selección) en una serie de puntos. Las leyes de cada punto se simulan y se les calcula la
media para crear una ley simulada del bloque. La realización de múltiples simulaciones de
las leyes en cada punto genera múltiples leyes del bloque y se puede observar la
distribución de cada una de las leyes del bloque. Este procedimiento es una solución
directa al problema de cambio de soporte. Debido a que los datos simulados reproducen la
correlación espacial de los datos, la media de los puntos discretizados y simulados debiera
reproducir la distribución espacial de las leyes del bloque. Ningún otro método de cambio
de soporte entrega una solución más directa al problema del cambio de soporte. Más aún,
no existen suposiciones relativas de la forma de la distribución o ninguno de los problemas
asociados a los otros métodos de cambio de soporte. Debido a que el método de
simulación no asume una forma particular para la distribución de la ley del bloque, la
distribución final puede tomar cualquier forma.

Con la distribución de las leyes del bloque, es posible la toma de decisiones relativas a la
evaluación detallada del mineral/estéril durante el control de la ley. Particularmente, los
costos asociados a la clasificación errada del mineral/estéril se pueden tomar en
consideración para tomar decisiones acerca del control del mineral. Esto se hace para que
las decisiones relativas al control de la ley minimicen los costos de una clasificación errada
y así se optimice la rentabilidad de la operación.
47

Los Costos de una Clasificación errada

Para tener una comprensión mejor de


Misclassification Example
los costos de una clasificación errada, 2.00
considere una distribución bivariada
(gráfico de dispersión) de las leyes 1.75 Quadrant 1
True Grade>Cutoff
Quadrant 2
True Grade>Cutoff

reales y estimadas del bloque. La 1.50


Estimated Grade<Cutoff Estimated Grade>Cutoff

aplicación de leyes de corte divide el

True Block Grade


gráfico en cuatro cuadrantes. El 1.25

cuadrante superior de la derecha y el 1.00

cuadrante inferior de la izquierda (los


0.75
cuadrantes 2 y 3 de la figura adjunta)
representan bloques que fueron 0.50
Quadrant 3 Quadrant 4

correctamente clasificados como 0.25


True Grade<Cutoff
Estimated Grade<Cutoff
True Grade<Cutoff
Estimated Grade>Cutoff

mineral (ambos, estimación y realidad 0.25 0.50 0.75 1.00 1.25 1.50

sobre la ley de corte o estéril) . Para Kriged (estimated) Block Grade

los bloques en estos cuadrantes, los errores de estimación no tienen impacto a corto plazo
en términos de la rentabilidad de la operación debido a que el material se ha enviado hacia
el destino correcto. Algo menos afortunado ocurre con los bloques ubicados en los
cuadrantes 1 ó 4. En el cuadrante 1, los bloques con leyes reales más elevadas que la ley
de corte se clasifican como estéril, mientras que en el cuadrante 4, los bloques con leyes
reales inferiores a la ley de corte se clasifican como mineral.

Cada tipo de clasificación errada tiene un costo asociado. Cuando se envía el estéril a la
planta, el costo de procesamiento del material excede el valor del mineral recuperable.
Debido a que todas las plantas tienen un máximo de rendimiento, también se debe
considerar el costo de oportunidad asociado al desplazamiento del mineral con motivo de
procesar el estéril. Cuando el mineral se envía al botadero, hay un costo asociado a una
pérdida por no procesar el mineral contenido en el bloque, además del costo adicional de
transporte. Los costos reales dependerán de cada operación. Sin embargo, es muy
probable que los costos de una clasificación errada serán una función lineal de la ley, así
como las ganancias son una función lineal de la ley.

La Función de Pérdida

Las pérdidas asociadas a una clasificación errada se pueden generalizar para definir una
función de pérdida. Para cada tipo de función de pérdida, se puede definir un método
óptimo de estimación. Por ejemplo, si la pérdida asociada a un error es parabólica y
simétrica, entonces el estimador óptimo es el krigeado. Es decir, el krigeado no sólo
minimiza la varianza de la estimación sino que también minimiza las pérdidas asociadas a
una clasificación errada. Si, en la práctica, las pérdidas asociadas a una clasificación
errada no son parabólicas y simétricas (es decir, los costos son diferentes para una
clasificación errada del mineral/estéril), entonces surge una pregunta muy importante
acerca de si el krigeado realmente es el estimador que maximiza el potencial de ganancias
de la operación. Potencialmente otro estimador puede superar el krigeado en términos de
una maximización de las ganancias.
48

Para entregar un ejemplo de cómo un estimador diferente del krigeado puede mejorar la
rentabilidad, consideremos una operación simple en donde la mina es un factor limitante de
la producción. Es decir, la planta tiene un diseñado muy sofisticado y puede aceptar
cualquier cosa que la mina produzca y esto puede ser vendido fácilmente al precio actual
del mercado. Bajo este escenario (el cual asume que los costos de procesamiento del
mineral y el estéril son esencialmente iguales), el valor de un bloque en particular se puede
definir como lo siguiente:

Valor = V = Ganancia - Costo


Donde: Ganancia = (recuperación planta)(precio)(ley)
Costo = Costo de Procesamiento

Al combinar lo que se recupera en la planta multiplicado por el precio en una constante R,


anotar la ley como una variable aleatoria Z(X) y anotar el costo de procesamiento como una
constante C, se puede simplificar la ecuación como sigue:

V = R●Z(X) – C

Para que todo este claro, Z(X) representa la ley real del bloque y V también es una variable
aleatoria que define el valor real del bloque.

En el escenario del control de la ley, un bloque se puede enviar a la planta o al botadero,


según sean los criterios utilizados por el ingeniero a cargo del control de la ley. Puesto que
el ingeniero trabaja con algún tipo de ley estimada, una clasificación errada es una
posibilidad definitiva. Debido a esta posibilidad, el valor del bloque ahora depende tanto
de las decisiones tomadas por el ingeniero y la ley real. Aquí se muestran los posibles
valores del bloque dependiendo de la decisión tomada. Para cada decisión, se muestran
dos valores. El valor potencial es el valor del bloque si se ha tomado la decisión correcta
( sin clasificaciones erradas). El valor real es el valor del bloque en función de la decisión
que realmente se tomó. La pérdida en el valor en función de la decisión es el valor real
menos el valor potencial.

Si el bloque es de Mineral (la ley real es superior a la ley de corte):


Bloque enviado a la planta:
Valor real: R●Z(X) – C
Valor potencial: R●Z(X) – C
Pérdida de valor debido a la decisión: 0

Bloque enviado al botadero:


Valor real: 0
Valor potencial: R●Z(X) – C
Pérdida de valor debido a la decisión: -(R●Z(X) – C)
49

Si el bloque es Estéril (la ley real es inferior a la ley de corte):


Bloque enviado a la planta:
Valor real: R●Z(X) – C
Valor potencial: 0
Pérdida de valor debido a la decisión: R●Z(X) – C

Bloque enviado al botadero:


Valor real: 0
Valor potencial: 0
Pérdida de valor debido a la decisión: 0

Debido a que Z(X) es una variable aleatoria, hay una probabilidad p de que la ley sea
superior a la ley de corte. Al incorporar esta probabilidad y al sumar las pérdidas
potenciales resulta en:

Pérdida total de valor = (1 – p) (R●Z(X) – C) – p (R●Z(X) – C)

Para evaluar esta expresión, uno debe recordar que Z(X) es una variable aleatoria (no una
constante) y que en el establecimiento de las pérdidas totales, se hicieron algunas
suposiciones acerca de la ley real del bloque. En un caso, las pérdidas de valor se
definieron después de establecer que la ley real del bloque era superior a la ley de corte.
En el otro caso, se estableció que la ley real del bloque era inferior a la ley de corte.
Además, lo que interesa es el valor esperado (o promedio) de la pérdida de valor. Al
incorporar estas correcciones, la pérdida total de valor esperado es de:

Pérdida Esperada = (1– p)[R●E(Z(X)│z<corte)-C] – p[R●E(Z(X)│z>corte) – C]

Para simplificar las cosas, las esperanzas condicionales se pueden anotar de esta forma:

Z+ = ley esperada superior a la ley de corte


Z- = ley esperada inferior a la ley de corte
Pérdida esperada (si el bloque se envía al botadero) = - p (R Z+ - C)
Pérdida esperada (si el bloque se envía a la planta) = (1 - p) (R Z- - C)

Cuando se toma una decisión acerca del mineral/estéril, la idea es tomar la decisión que
minimice las pérdidas de la operación que ocasiona una clasificación errónea. Por lo tanto,
un bloque se envía a la planta si la esperanza de la pérdida esperada como resultado de la
toma de esta decisión es menor que la pérdida esperada asociada al envío del bloque al
botadero. Cuando los dos términos de pérdida son iguales, la decisión nos es indiferente.
La resolución de p bajo estas condiciones es de la siguiente manera:

-p (R Z+ - C) = (1 – p) (R Z- - C)
p R Z- - p R Z+ = R Z- - C
pn = (R Z- - C)/(R Z- - R Z+)

Si la probabilidad de que el bloque exceda la ley de corte es mayor que p n , entonces las
pérdidas esperadas asociadas con el envío del bloque a la planta serán inferiores a las
50

pérdidas esperadas asociadas al envío del bloque al botadero. Por lo tanto, el bloque es
enviado a la planta.

Para el escenario de pérdida definido aquí, la selección mineral/estéril basada en la


probabilidad de que la ley del bloque exceda la ley de corte es una estimación mejor que el
krigeado. Para otros escenarios de pérdida, habrán diferentes estimadores y/o criterios de
selección (ver comentarios).

Para aplicar este sistema de Example Simulated Block Grade Distribution


control de la ley, se requiere la 20%
distribución condicional de las Average = 0.38
17.5%
leyes para cada bloque (lo cual

Cutoff Grade
Std Dev. = 0.11

se obtiene fácilmente mediante 15%

una simulación condicional). 12.5% Percentage of Values

Una vez que esta distribución 10%


de las leyes del bloque este 15% of Simulated Grades Above Cutoff
7.5% Average Grade Below Cutoff = 0.35%
disponible, se puede determinar Average Grade Above Cutoff = 0.58%

las leyes estimadas esperadas 5%

superiores e inferiores a la ley 2.5%

de corte y la probabilidad 0%
estimada de que la ley sea .175 .225 .275 .325 .375 .425 .475 .525 .575 .625 .675 .725

superior a la ley de corte. Un Grade (%)

ejemplo de cómo funciona este


sistema se puede observar si consideramos una posible simulación de la distribución de la
ley del bloque. La ley de corte es de 0.5% cobre. Las leyes promedio superior e inferior a
la ley de corte (Z+ y Z-) son de 0.58% y 0.35% respectivamente. Si asumimos que este es
un proyecto de óxidos de cobre, en donde se considera un precio metal de $0.80/lb, una
recuperación de 0.8 y un costo total (mineral + proceso) de $7.05. estos valores se pueden
usar para determinar pn de la siguiente forma:

pn = (R Z- - C)/(R Z- - R Z+)
pn = (22.04*.8*.8*0.35-7.0)/(22.04*.8*.8*(.35-.58))
pn = 0.64

Si la proporción de los bloques superior a la ley de corte excede este valor, las pérdidas
esperadas resultantes de procesar en la planta el bloque son menores que las pérdidas
esperadas si se envía el bloque al botadero. En este caso, sólo 15% de los bloques de la
distribución simulada excede la ley de corte de 0.5%. Dado que 0.15 es inferior a 0.64, las
pérdidas esperadas se minimizan si el bloque se envía al botadero. Por lo tanto, basado en
la aproximación de la función de pérdida, este es un bloque de estéril.
51

Aplicación al control de leyes

Como ejemplo del


desempeño de esta 20000
aproximación en el control 2.00
de leyes, la simulación de
Damiana será considerada 1.60

nuevamente. Se tomará una 19800 1.20


simulación Gaussiana
secuencial descrita 0.80

anteriormente (módulo 4.3) 0.40

para definir la ley real del 19600


yacimiento. Para hacer el 0.00

control de leyes algo más


realista, sólo se tomará en -11000 -10800 -10600 -10400 -10200
consideración la porción más
densamente muestreada de la simulación. Se puede observar aquí los puntos simulados de
las leyes y los datos disponibles.

Un tamaño de bloque de 30x30m se considerará como una SMU. Este será el tamaño del
bloque más pequeño con el cual se tomarán las decisiones mineral/estéril. Puesto que las
leyes reales (simulación Gaussiana secuencial) se definen en una malla de 10x10m, habrán
9 puntos simulados dentro de cada bloque. La media de estos puntos de leyes simuladas se
definirán como leyes de bloque “reales”. Para cada bloque de 30m, se tomaran tres
decisiones de mineral/estéril. La primera decisión se tomará en base a la muestra más
próxima (estimación polígono). La segunda decisión se tomará en base a la ley de bloque
estimada (krigeado) y la decisión final se tomará en base a la distribución condicional
(simulación). Para cada decisión, se tabularán el número de bloques clasificados correcta e
incorrectamente. Para aplicar el método de simulación, se realizaron 100 simulaciones
para cada ley de bloque utilizando una aproximación de una simulación LU. Gracias a las
simulaciones se definieron las leyes esperadas superiores e inferiores a la ley de corte, así
como la proporción de los bloques superior a la ley de corte. Utilizando esta información y
los datos de costo y ganancias, el bloque se clasificó como mineral o estéril en la manera
como se describió en el ejemplo anterior.

Síntesis de Clasificaciones Erradas


(Número de Bloques de 30x30x5m)
Clasificación Polígonos Krigeado Simulación
Bloque de estéril enviado 85 50 61
al Botadero
Bloque de estéril enviado a 58 93 82
la planta
Bloque de Mineral enviado 279 376 372
a la Planta
Bloque de Mineral enviado 118 21 25
al Botadero
52

Para los 540 bloques, el estimador de polígonos clasifica erradamente 176 bloques,
mientras que el krigeado clasifica erradamente 114 y la simulación clasifica erradamente
107. claramente hay una mayor reducción en la cantidad de clasificaciones erradas cuando
se utiliza un estimador diferente al polígono. Sin embargo, un número grande
(probablemente la mayoría) de minas en operación insisten en realizar control de la ley en
base a un estimador de polígono (simple contorneo de la ley de los hoyos de tronadura).
Como se mostrará, los costos asociados a esta terquedad pueden ser muy sustanciales.
Entre el krigeado y la simulación hay una mejora marginal en la cantidad de clasificación
errada. Pero incluso esta mejora pequeña tiene una implicancia financiara importante.

Para examinar los costos asociados a una clasificación errada, se realizó un cálculo de las
pérdidas. Si se clasifica correctamente un bloque, no hay pérdidas ya que el bloque se
envió al destino adecuado y la operación recibirá el valor máximo posible para el bloque.
Por lo tanto, los bloques del estéril enviados al botadero o los bloques del mineral enviados
a la planta no entran en este análisis. Para los bloques clasificados erróneamente, se pudo
haber obtenido un valor mayor si el bloque hubiese sido enviado al lugar adecuado. Un
análisis simple de las ganancias operacionales se lleva a cabo para determinar las pérdidas
producidas por una clasificación errada. Al realizar este análisis, se utilizan los siguientes
parámetros:

Ley de Corte = 0.5%


Costo de Procesamiento = $7.05 (Mineral y estéril + chancado + lixiviación +
SX/EW)
Precio del Metal = $0.80/lb
Recuperación = 0.80

Para cada bloque clasificado erradamente, se tabuló la pérdida de las ganancias (mineral
enviado al botadero) o los costos incurridos (estéril enviado a la planta) y la suma de todos
los bloques se calculó. Las pérdidas asociadas a cada uno de los tres esquemas de
clasificación se anotaron en la siguiente tabla:

Síntesis de los Costos de una Clasificación Errada


Método de Selección Mineral/estéril Pérdidas Totales de una Clasificación Errada
Polígonos -$5.202.000
Krigeado -$1.777.000
Simulación -$1.604.000

Claramente la reducción en las pérdidas que surgen de utilizar desde el método de los
polígonos a los otros dos estimadores es sustancial. La reducción en las pérdidas que se
ocasiona al cambiar del krigeado hacia la simulación resulta en la suma de $175.000. El
ahorro se realiza sobre los 4.2 millones de toneladas de mineral o 30.000 toneladas de cobre
fino. Para la producción anual de una mina que produce 150.000 toneladas de cobre al
año, se lograría un ahorro de $875.000 si el control de la ley se hace en base a la
simulación.
53

Como se muestra, el aumento en las ganancias de operación asociados al control de la ley


en base a una simulación no es despreciable. El ejemplo mostrado aquí utiliza
suposiciones de costo y ganancia muy simples. Una característica importante de la
aproximación de simulación es que cualquier tipo de costo producido por una clasificación
errada (por ejemplo, costos de oportunidad asociados con el desplazamiento del mineral o
costos de marketing debido a productos fuera de especificación) puede ser considerado en
el análisis. Los estimadores simples como el krigeado no tienen la capacidad de considerar
dichos costos en el análisis de una clasificación errada. Sólo las leyes promedio estimadas
pueden ser consideradas. La aproximación de simulación, por lo tanto, entrega otra
dimensión en la toma de decisión en la selección de mineral/estéril.

Definición de la Incertidumbre en la Estimación de Recursos

En la aplicación de una simulación a un problema de control de la ley, la distribución local


condicional de las leyes de bloque (tanto su determinación como su uso) se discutió
exhaustivamente. Lo que no se discutió fue la relación entre la distribución condicional y
la calidad potencial de las estimaciones. Si se mantienen otras variables constantes,
cuando la densidad de los datos es alta, la dispersión de la distribución condicional es
menor que cuando la densidad es baja. En otros términos, la varianza condicional
disminuye en la medida en que la densidad de los datos condicionantes aumenta. La
varianza condicional (o el intervalo de confianza condicional) puede, por lo tanto, ser
utilizado para evaluar la disponibilidad de los datos y la calidad esperada de un estimador.
Este tipo de evaluación de incertidumbre puede ser utilizado directamente para clasificar
cada bloque dentro un modelo en una categoría particular de recursos. Por ejemplo, en una
operación particular, se puede determinar que cuando la desviación estándar condicional
relativa es menor que un 25% , un bloque se puede clasificar como medido (nota: esta no
es una recomendación de cómo clasificar los recursos. Sólo es un ejemplo). Para definir
la distribución condicional, se realizan simulaciones múltiples de la ley del bloque; la
desviación estándar de las leyes de bloque simuladas se calcula y divide por el promedio de
la ley para definir la desviación estándar relativa. Si esta cantidad es menor que el valor
umbral, entonces el bloque se clasifica como medido.

Otra forma de ver la incertidumbre es a través de un intervalo de producción particular.


Cuando el tonelaje del mes ha sido programado, hay una esperanza que la mina producirá el
tonelaje requerido en el mes y que el tonelaje contendrá una cierta cantidad de metal. Con
la simulación condicional, se puede definir la incertidumbre en el tonelaje y la ley
esperados que serán explotados. A diferencia de la distribución condicional para un solo
bloque (el cual se puede definir utilizando técnicas geoestadísticas no lineales), la
distribución de tonelajes y leyes superiores a la ley de corte solamente se pueden evaluar
mediante la simulación. Esta aproximación es relativamente simple. El volumen que va a
ser explotado en un periodo determinado es delineado. Se llevan a cabo múltiples
simulaciones en el volumen para definir las leyes simuladas de los bloques. Se determinan
el tonelaje y las leyes superiores a la ley de corte para cada simulación. Puesto que se
realizan múltiples simulaciones, existen múltiples estimaciones para el tonelaje y la ley
superiores a la ley de corte que definen una distribución estadística y el rango probable de
tonelaje real y de ley superior a la ley de corte.
54

Para ilustrar esta aproximación en la medición de la incertidumbre, nuevamente se utilizará


como ejemplo a Damiana. El volumen completo simulado (ver módulo 4.3) contiene cerca
de 17.7 millones de toneladas (para una altura de banco de 5 metros). De este total, 10.3
millones de toneladas excede la ley de corte 0.5% y estas toneladas contiene alrededor de
77.000 toneladas métricas de cobre fino. Para el bien de este ejemplo, esto se tomará como
un año de producción. El subconjunto de la simulación utilizado en el ejemplo anterior de
control de la ley contiene 4.4 millones de toneladas de material que excede la ley de corte
0.5%. Este volumen representará un periodo de 5 meses de producción. Finalmente, el
volumen de los 5 meses se puede dividir en 5 volúmenes iguales, los cuales representan un
mes de producción. Para cada uno de estos volúmenes, se desarrollaron 20 simulaciones
utilizando la aproximación secuencial Gaussiana (módulo 4.3). por lo tanto, hay 20
determinaciones diferentes del tonelaje y de la ley superior a la ley de corte para cada
volumen. Para evaluar la incertidumbre, la desviación estándar e intervalo de confianza
relativo al 95% se calculan para cada volumen en base a los 20 valores. Para mostrar el
impacto de la ley de corte en la incertidumbre, este análisis se repitió en rangos de la ley de
corte de cobre que van desde 0.1% a 0.8%.

Primero, se consideró la Uncertainty in Estimated Grade Above Cutoff


ley estimada superior a la 1.1
ley de corte. La ley
superior a la ley de corte 1.0
se plotea versus la ley de
corte y se observa el
Grade Above Cutoff (%)

0.9 One Month


Five Months
comportamiento conocido One Year

del incremento de la ley 0.8

con la ley de corte. Se


presentan tres líneas 0.7

separadas que
corresponden a la ley 0.6

superior de corte en un Note: One Month and One Year Symbols Are Displaced Horizontally For Clarity
All Symbols Should Plot On The Same Vertical Line
0.5
año, 5 meses y volúmenes 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8

de un mes. Para que sea Cutoff Grade (%)


más fácil leer el gráfico,
los símbolos para la producción de un mes y un año se desplazan horizontalmente. Si los
símbolos no se hubiesen desplazado de esta manera a propósito, los tres símbolos estarían
graficados en la misma línea vertical. De los tres períodos de tiempo, la línea que
corresponde al período de cinco meses tiene las leyes más altas. Esto no es una sorpresa,
ya que este periodo de 5 meses se ubica dentro de la porción del yacimiento que tiene las
leyes más altas. El período de un mes seleccionado es solamente uno de los volúmenes de
5 meses que conforman un volumen de 5 meses. El volumen seleccionado resulta tener
una ley baja (la variabilidad dentro de los volúmenes de 5 meses se comentará más
adelante).

Las tres líneas conectan la ley recuperada estimada para cada uno de los períodos de
tiempo en cada una de las leyes de corte. Las barras verticales de error muestran la
incertidumbre que rodea la ley estimada (intervalo de confianza de 95%). Entonces, por
ejemplo, a un corte de 0.1 % de cobre, la media estimada de la ley superior a la ley de corte
55

es de alrededor de 0.6% y estamos 95% seguros de que la media de la ley está entre .55 y .
65%. lo primero que hay que notar es que el ancho de las barras de error disminuye en la
medida en que el volumen considerado aumenta. Esta es la relación volumen-varianza
previamente presentada. La siguiente característica es que las barras de error tienen la
tendencia a hacerse más anchas en la medida en que la ley de corte aumenta, a pesar que el
aumento en el ancho de las barras de error no es tan grande como el aumento en la ley. Por
lo tanto, la incertidumbre es, en efecto, una función de la ley de corte, pero no de manera
intensa.

Generalmente, en la evaluación de la calidad de una estimación de recurso sólo se


considera la incertidumbre en la ley. Esto, en su mayoría, se debe al hecho de que los
estimadores geoestadísticos normalmente sólo se usan para estimar la ley y la
incertidumbre asociada a la estimación de la ley. La incertidumbre en las estimaciones del
tonelaje en rara ocasión se les toma en consideración, a pesar de que es posible tener una
idea de la incertidumbre en el tonelaje utilizando técnicas como el krigeado del indicador
(con el cambio apropiado de soporte) o con otros métodos no lineales. Si se utiliza una
aproximación de simulación, el cambio de soporte desde leyes puntuales hacia volúmenes
de tamaño SMU es casi automático (simplemente se debe promediar las leyes de los puntos
de simulación discretizados), por lo tanto, la definición del tonelaje estimado superior a la
ley de corte se obtiene con facilidad. En esta aplicación, el número de las leyes de bloque
simuladas superior a la ley de corte se sumó en cada simulación y ley de corte. Puesto que
el tonelaje superior a la ley de corte varió entre las simulaciones, la desviación estándar del
tonelaje recuperado se calculó y los intervalos de confianza se definieron de la misma
forma en como se determinaron los intervalos de confianza sobre la ley.

En este gráfico, el tonelaje sobre la ley de corte se estandariza al total del tonelaje dentro
del volumen de interés. Esto se hace para permitir que los tonelajes en los tres periodos de
tiempo diferentes (mes, 5meses, año) se puedan comparar. Luego de la estandarización, el
tonelaje superior a la ley de corte, en corte 0 es de 1.0 para cada uno de los tres volúmenes.
Así como con la ley superior a la ley de corte, la estimación del tonelaje se representa por
un símbolo y una línea que conecta los símbolos para cada período de tiempo. Las barras
de error representan el 95%
Uncertainty in Estimated Tons Above Cutoff
del intervalo de confianza. Uncertainty as a Function of Volume and Cutoff
Una vez más, la relación
volumen-varianza se aplica 1.0
debido que las barras de
error para un año son más 0.8
Fraction of Total Tonnage

angostas que las barras para One Month


Five Months
Expected Tons
Above Cutoff
5 meses y un mes. Al One Year
Width of 95%
0.6
contrario de la ley superior Total Tons
Confidence Interval

a la ley de corte, la 1 Year = 17.7 Mt


5 Months = 6.1 Mt
0.4
incertidumbre en el tonelaje 1 Month = 1.2 Mt

superior a la ley de corte es


una clara función de la ley 0.2
Note: One Month and One Year Symbols Are Displaced Horizontally For Clarity
All Symbols Should Plot On The Same Vertical Line
de corte. En las leyes de 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8
corte bajas, casi todos los Cutoff Grade (%)
bloques son superiores a la
56

ley de corte y la incertidumbre es baja. En las leyes de corte altas, sin embargo, una
proporción significativa de los bloques tienen leyes reales cercanas a la ley de corte,
entonces la incertidumbre en los tonelajes superiores a la ley de corte es relativamente alta.
Es importante destacar que el ancho de las barras de error para el tonelaje es mayor (sobre
una base relativa) que el ancho de las barras de error para la ley. Esto indica que, por lo
menos, para los cortes altos, el foco en la incertidumbre en las leyes estimadas para la
clasificación de recursos es equívoco. La incertidumbre en el tonelaje superior a la ley de
corte debe también ser considerado.

Para investigar aún más la importancia relativa de la incertidumbre del tonelaje y de la ley,
se considera la
incertidumbre en la ley y Uncertainty in Tonnage and Grade Above Cutoff
en el tonelaje superior a la Monthly Mining Areas
0.5
ley de corte en cada uno
de los períodos de 5 Rel. Conf. Int. By Month
Relative 95% Confidence Interval

0.4 Tons Grade


meses. Para plotear el Month 1
Month 2
tonelaje y la ley a una Month 3
0.3 Month 4
misma escala, se Month 5

considera una medida 0.2


relativa de incertidumbre.
La mitad del ancho del 0.1
intervalo de confianza de
95% se calcula y se divide 0.0
por la media estimada. 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8

Cutoff Grade (%)

Los gráficos contienen 10


líneas que corresponden a la incertidumbre en el tonelaje estimado y la ley en los periodos
de explotación de 5 meses (el mes número 5 se consideró en el análisis previo). Puesto
que el eje y está en términos relativos, se interpreta un valor y de 0.2 debido a que hay un
95% de confianza de que el error en la estimación es menor que el 20%.

Al examinar primero las leyes superiores a la ley de corte, la incertidumbre es


relativamente constante a lo largo de los cortes y, a pesar de que existen diferencias a través
de los periodos de explotación mensuales, las diferencias no son grandes. Para las leyes de
corte que pueden resultar económicas (>0.4%), la incertidumbre relativa en la ley estimada
superior a la ley de corte es menor que el 10%. Puesto que la ley superior a la ley de corte
aumenta a medida que la ley de corte aumenta y que la incertidumbre no aumenta con tanta
rapidez, la incertidumbre relativa en la ley estimada superior a la ley de corte disminuye
con la ley de corte creciente. En otras palabras, por lo menos para este ejemplo, la
incertidumbre estimada en corte cero es una estimación conservadora de la incertidumbre
relativa en la ley estimada superior a la ley de corte.

El tonelaje estimado superior a la ley de corte aparentemente es mucho más incierto que la
ley estimada superior a la ley de corte. En la medida que aumenta la ley de corte, el
tonelaje superior a la ley de corte disminuye. Por lo tanto, aun si la incertidumbre absoluta
se mantuviese constante a medida que la ley de corte aumentara, la incertidumbre relativa
aumentaría con la ley de corte. En este ejemplo, la incertidumbre absoluta en el tonelaje
57

superior a la ley de corte aumenta con la ley de corte, entonces la incertidumbre relativa
aumenta bruscamente. La dependencia de la incertidumbre de la ley de corte es
significante. En cortes muy bajos, casi no existe incertidumbre (todo es mineral), sin
embargo, en cortes más altos existe gran cantidad de incertidumbre tanto si las leyes de
bloques individuales son superiores o inferiores a la ley de corte. Esto se traduce en una
alta incertidumbre en el tonelaje del mineral. Esta alta incertidumbre causaría problemas
operacionales significativos si este yacimiento se operara en un corte de 0.7 o 0.8. En
algunos meses, habría mineral insuficiente, mientras que en otros habría exceso de mineral.
Los operarios se percatarían muy pronto que se requiere de acopios para cumplir las metas
de producción. La incertidumbre en la estimación de la ley no permite darse cuenta de este
tipo de problemas. Sólo una simulación puede revelar el potencial de ocurrencia de este
tipo de problema operacional.

Definición de una Altura de Banco

Un asunto frecuente cuando se evalúa el alcance de un proyecto, es la selección de la altura


de banco. Debido a la relación volumen-varianza, se espera que un tonelaje menor con una
ley más alta serán explotados en la medida en que la altura de banco disminuya. En la
medida en que la altura de banco disminuye, las ganancias incrementadas asociadas a leyes
más altas son compensadas por un incremento en los costos de explotación. Para cada
yacimiento, existe una altura de banco óptima que es lo suficientemente pequeña para que
la operación sea suficientemente selectiva, pero no es tan pequeña como para que los costos
de explotación sean excesivos. En esta altura de banco óptima, la rentabilidad se
maximiza. Para seleccionar las aproximaciones de altura de banco óptimas, en ocasiones
se utiliza la estimación de leyes en bancos pequeños (alrededor de 2.5m) y luego la
evaluación las curvas tonelaje-ley para bancos más grandes creados al promediar las leyes
de los bancos pequeños (se pueden crear bancos de 5.75 y 10m desde leyes de banco de
2.5m). Con las curvas tonelaje-ley para las diferentes alturas de banco presentes, las
ganancias esperadas se comparan con los costos de explotación para seleccionar la altura
de altura en funcionamiento. El problema con esto (o cualquier aproximación en base a las
leyes de krigeado o la varianza de estimación) es que las leyes estimadas utilizadas en el
análisis son altamente suavizadas. La suavización que introduce el estimador puede
fácilmente incorporar errores en el análisis que pueden causar la selección incorrecta de la
altura de banco. Este tipo de problema se puede tratar con mucha más sagacidad con una
simulación.

Para mostrar la diferencia entre la simulación y la estimación en este tipo de problema,


consideremos el caso de una sobrecarga estéril entorno a un yacimiento de óxido de cobre.
Una vez más, se utilizará el yacimiento de Damiana con propósitos ilustrativos. En este
ejemplo, la elevación de la sobrecarga se simuló sobre una porción de 800m por 550m de
una parte central del yacimiento. Esta área se ha investigado a través de 168 sondajes.
Para cada sondaje, se definió la elevación del contacto entre la sobrecarga y la zona de
óxido. El conjunto de los datos de elevación se utilizó para condicionar la simulación.

La interfase sobrecarga/óxido se simuló utilizando el método de la simulación Gaussiana


secuencial. Primero, se creó y examinó una superficie simple triangulada que define la
interfase. Es de particular interés en el examen de esta superficie, la presencia o ausencia
58

de tendencias de elevación debido a que, como se discutió anteriormente, la no-


estacionaridad puede impactar severamente la calidad de una simulación. Gracias a la
revisión de la superficie triangulada, se clarificó que las elevaciones disminuyen
sistemáticamente hacia el oeste. Esta no-estacionaridad se trató con la incorporación de
una tendencia de superficie a los datos, así como creando datos residuales (elevaciones
medidas en los sondajes menos la elevación de la tendencia de la superficie). Puesto que la
tendencia se ha removido de los datos residuales, estos datos son estacionarios. A pesar de
que son estacionarios, los residuos no son elevaciones de los datos. Para crear la
simulación final, los residuos se simularán y luego se transformaran nuevamente a
elevaciones utilizando las tendencias de superficie.

De la misma forma con que se Variogram of Normal Score Transform


simulan cualquier otro tipo de datos,
los residuos se transformaron de 1.2

manera tal que siguieran una 1.0

distribución normal (media 0,


varianza 1) y se modeló el 0.8

variograma de los datos


0.6

transformados. Sólo un variograma


0.4
omnihorizontal se examinó debido  (h) = 0.4 + 0.6 Sph (h) 550

al número pequeño de datos y a la 0.2

tendencia. El efecto pepita


0
modelado es igual al 40% de la 0 100 200 300 400 500

meseta, lo cual es bastante alto para Distance

datos de elevación. Debido a este efecto pepita relativamente alto, la superficie simulada
será bastante irregular a través de los datos condicionantes.

Dado el variograma de los datos transformados, la elevación residual se simuló en una


malla de 2.5x2.5m en el área de estudio y luego, la tendencia de superficie se utilizó para
transformar los residuos simulados en elevaciones simuladas. Para comparar la interfase
simulada de sobrecarga/óxido
con elevaciones de interfase Example Section
estimadas, también se utilizó un Slice Through Estimated and Simulated Surfaces

estimador de inverso de la 2580

distancia para definir la 2575


superficie estimada. La
2570
diferencia entre las superficies
Elevation (m)

estimada y simulada se puede 2565

mostrar al examinar una sección 2560

cortando las dos superficies. 2555


Claramente, la superficie
2550 Estimated Surface
simulada varía más que la Simulated Surface
Data
superficie estimada. En 2545

ubicaciones de datos puntuales, -10450 -10400 -10350 -10300 -10250 -10200


Easting (m)
las dos superficies son muy
parecidas (las superficies no son exactamente iguales debido a que algunos datos se
proyectan a la sección), pero lejos de los datos, la superficie simulada se aleja de la
59

superficie estimada. Se destaca que hay una exageración vertical significativa en esta
figura, por lo tanto, la variabilidad no es tan grande como aparenta.

Una comparación breve de las superficies estimadas y simuladas muestra rápidamente que
las decisiones relativas a la altura de banco o a la selectividad (tamaño de los equipos)
pueden ser muy diferentes, dependiendo de la superficie utilizada en el análisis. Para
mostrar cómo la variabilidad de este tipo de superficie de mineral/estéril puede impactar las
decisiones, se realizó un análisis simple del tonelaje y de la ley superior a la ley de corte
como una función del tamaño del bloque. Para que todo resulte más claro, se asumió que
los bloques superiores a la interfase tienen una ley cero, mientras que los bloques inferiores
a la interfase tienen una ley 1. los bloques se consideran como mineral si la ley es superior
a 0.5 (en otras palabras, un bloque es seleccionado si 50% es inferior a la interfase
sobrecarga/óxido).

Para evaluar el impacto que tiene el pasar por alto la variabilidad en este tipo de análisis, se
asumirá que las decisiones mineral/estéril se toman en base a la interfase estimada. para
varias alturas de banco diferentes, los bloques se consideran como mineral si la ley
estimada es superior a la ley de corte y el tonelaje y la ley superior a la ley de corte se
tabulan. Los bloques seleccionados como mineral por la superficie estimada también
tienen leyes estimadas y simuladas (es decir, la proporción del bloque que es mineral
definido por la superficie simulada), por lo tanto, para cada altura de banco existe tanto una
ley estimada como una ley simulada para el tonelaje seleccionado. Si se comparan estas
dos leyes promedio, resulta claro que ya que la superficie estimada subestima la
variabilidad de la interfase, la selección basada en esta interfase subestima el mezclado del
mineral y el estéril en bloques ubicados cerca de la interfase. Como resultado, la ley
promedio de la simulación es significativamente menor que la ley promedio de las
estimaciones y es posible, ciertamente, que decisiones diferentes acerca de la
economía/producción se pueden tomar considerando la altura de banco o tamaño de los
equipos en base a las diferencias entre las leyes simuladas y estimadas.

Selección en base a la Superficie Estimada


Altura de Banco Tonelaje Relativo Ley Promedio de las Ley Promedio de la
Estimaciones Simulación
5 1.00 0.97 0.77
7.5 0.94 0.95 0.76
10 0.91 0.93 0.75
12.5 0.83 0.91 0.74
15 0.79 0.91 0.74

Este tipo de análisis se puede expandir fácilmente para tratar temas específicos de los
yacimientos tales como la presencia de diques, zonas de mineral angosto o contactos tri-
dimencionales de mineral/estéril. Un análisis completo del problema típicamente
consideraría simulaciones múltiples de tanto la ley como la geología (contactos
mineral/estéril) para desarrollar definiciones probabilísticas del tonelaje y de la ley del
mineral que sería recuperado en cada altura de banco.
60

Simulación del Proceso de Explotación

Los usos de la simulación discutidos anteriormente tratan situaciones específicas en donde


se desean respuestas específicas y cada simulación se desarrolla para tratar sólo la situación
de interés. Más que entregar ejemplos específicos de una simulación aplicada a un número
amplio de problemas, se sugiere otra aproximación al problema y se procede a entregar una
lista de los posibles usos de una simulación.

Una mina en funcionamiento se ve enfrentada a muchas decisiones de producción a corto y


mediano plazo. El personal de la mina podría tratar rápidamente muchos de estos temas
con el uso de técnicas de simulación. Sin embargo, no hay el tiempo suficiente para
realizar como de costumbre una simulación para cada problema que surge. Como una
alternativa, se puede desarrollar una simulación múltiple y detallada de los 5 próximos años
de funcionamiento y cada vez que se presentara un problema, se podría revisar rápidamente
la simulación. Para que sea útil, este tipo de simulación debe ser bastante compleja y dicha
simulación debería incluir:

☻Simulaciones categóricas de las unidades litológicas más relevantes


☻Simulaciones de superficies mineralógicas significativas, tales como el techo de
súlfuros primarios y/o secundaros
☻Simulación de leyes
☻Propiedades metalúrgicas simuladas, tales como índice de trabajo o recuperación
esperada

una vez que este tipo de simulaciones estén disponibles, diversos tipos de preguntas se
pueden evaluar directamente para períodos de tiempo específicos. En particular, lo
siguiente se puede evaluar directamente:

☻Incertidumbre en reservas recuperables a lo largo de cualquier período de tiempo


☻Definición de áreas en donde la incertidumbre es alta y sondajes adicionales
pueden ser necesarios
☻Impacto de esquemas posibles de mezclas
☻Dilución de contacto
☻Optimización de la secuencia de explotación (ver Nota 1)
☻Reducción potencial de alimentación a planta de áreas de baja recuperación

Potencialmente, existen muchos otros usos para dicha simulación. Como sucede con
muchas cosas, los usos de una herramienta no se conocen por completo hasta que la
herramienta se ha hecho accesible. Los geólogos e ingenieros no están acostumbrados a
tener una simulación a su disposición para asistirlos en las decisiones. Pero una vez que ya
se ha hecho accesible, no cabe duda que la simulación se hará por lo menos tan útil como es
hoy en día el modelo de las leyes de bloque.
61

Notas

Una de las extensiones naturales de la disponibilidad de leyes de bloque simuladas es la


optimización de la programación de producción. Los métodos de programación de
producción utilizados actualmente son completamente determinísticos y de ninguna manera
dan cuenta de la incertidumbre en las leyes estimadas. Más aún, las leyes que están siendo
programadas son estimaciones de leyes de bloque que se sabe que son suavizadas. Para
tratar cada uno de estos problemas, el uso de técnicas de investigación operacional
avanzadas (programación de objetivos, programación de enteros mezclados) se pueden
aplicar a simulaciones múltiples del yacimiento para optimizar la programación de
explotación. Smith y Birge entregan una revisión del estado actual de este arte en el
campo en una investigación llamada “Integrating Conditional Simulation and Stochastic
Programming: An application in production scheduling”, incluido en APCOM 2001,
Beijing China.

Вам также может понравиться