Вы находитесь на странице: 1из 11

REDES NEURONALES

PARA LA
CARACTERIZACIN DE
YACIMIENTOS: DEL MITO
A LAS APLICACIONES
PRCTICAS
En los ltimos aos, a medida que han proliferado
las aplicaciones tecnolgicas de la llamada inteligencia
artificial, algunos mitos existentes en torno a estas
tecnologas emergentes han ido desapareciendo. Sin
embargo a estas alturas, la definicin precisa de
inteligencia sigue siendo incierta y la de inteligencia
artificial ms an. Aunque su inicio se remonta a ms
de medio siglo cuando los psiclogos presentaron sus
primeros modelos del cerebro y el aprendizaje
(McCulloch y Pitts, 1943) no fue sino hasta finales de
los 80, cuando la tecnologa computacional estuvo lista,
que la aplicacin prctica de estos conceptos a
problemas de la vida diaria, la industria y la ciencia
comenz a materializarse.
Primero fueron los sistemas expertos (Waterman,
1986) y luego llegaron las redes neuronales (Fahlman
y Hinton, 1987), la fascinacin del pblico no haba
terminado an cuando llegaron los algoritmos
genticos (Holland, 1992) seguidos de la lgica difusa
(McNeill y Freiberger, 1993). Hoy en da se habla de
cualquier combinacin y/o permutacin de estos
trminos y es una forma segura y rpida de vender
tecnologa. El problema de todas estas tecnologas
radica en que para la mayora del pblico en general,
e incluso para un gran nmero de sus usuarios,
continan siendo cajas negras que siempre arrojan
una solucin.
Este trabajo tiene un doble objeto; en primer lugar,
pretende desmitificar un poco el concepto de las redes
neuronales mediante la presentacin de los aspectos
ms fundamentales de su teora y la discusin de sus
ventajas y desventajas como mtodos de inferencia;
Redes Neuronales para la carectizacin de yacimientos

en segundo lugar, presenta un resumen de las estructurales en que se pueden disponer los
aplicaciones comerciales ms populares que usan redes perceptrones dentro de una red definen lo que se
neuronales en problemas de caracterizacin de denomina la arquitectura de la red. Por otra parte, el
yacimientos y dos aplicaciones especficas desarrollas y tipo de informacin provista en los datos y la naturaleza
aplicadas en yacimientos venezolanos. del problema en cuestin, determina la forma de
aprendizaje que debe ser utilizada y a su vez la
arquitectura ms idnea. Independientemente de la
arquitectura, el tipo de aprendizaje y los datos, el
Nociones bsicas sobre perceptrn cmo unidad bsica de procesamiento es
bsicamente el mismo para cualquier arquitectura y/ o
redes neuronales tipo de red. La figura 1 presenta una neurona biolgica
Una red neuronal artificial es un modelo matemtico y una neurona artificial indicando cada una de sus
entrenable que permite encontrar relaciones partes constitutivas.
funcionales entre dos conjuntos de datos. En este Cmo se observa de la figura, tanto la neurona
articulo se pretende explicar con lujo de detalles el biolgica como la artificial son sistemas que reciben
significado de esta definicin. varias entradas estmulos y producen una salida o
El concepto de neurona artificial se deriva de los respuesta. En una red neuronal, las salidas de unas
primeros modelos que los psiclogos presentaron neuronas constituyen entradas de otras neuronas. La
sobre el funcionamiento de las neuronas biolgicas interconexin de una de las terminaciones de un axn
en cuanto a dos aspectos bsicos: la respuesta a con una dendrita de otra neurona se denomina
estmulos y el aprendizaje. Un perceptrn, o neurona sinapsis.
artificial, es la unidad de procesamiento fundamental En el funcionamiento de una neurona biolgica, la
de toda red neuronal. La red, como su nombre lo preponderancia relativa de cada estmulo en la
indica, constituye la interconexin de varias de estas generacin de la respuesta depende del nmero de
unidades de procesamiento. La estructura de la neuro-transmisores y neuro-receptores existentes en
interconexin, as como los distintos niveles cada sinapsis y se ha demostrado que las sinapsis se
Banchs Rafael

refuerzan o debilitan segn sea la historia de su


actividad; sta es, como veremos ms adelante, la
base del aprendizaje Hebbiano que debe su nombre al
neuropsiclogo Hebb quin fue el primero en plasmar De esta forma, la ecuacin 3 es una funcin de los
estas ideas en su obra 'The Organization of Behavior' datos de entrada, sus respuestas deseadas y los pesos
(1949). del filtro, y su valor mnimo ocurre cuando el valor
En el modelo artificial de una neurona, la fuerza de esperado para el error es cero. Calculando su gradiente
una sinapsis se representa mediante un peso que e igualndolo a cero, podemos calcular los valores de
multiplica al valor de la entrada o estmulo. Finalmente, los pesos que minimizan el error. Este procedimiento
como se ilustra en la figura 1, la respuesta de una no es nada ms que el problema de filtraje lineal ptimo
neurona artificial est definida por el resultado de resuelto por Wiener a mediados del siglo pasado
aplicar una funcin de activacin (generalmente no (Widrow y Stearns, -1985); y en su honor, a este
lineal) a la suma pesada de todas las entradas de la conjunto de pesos ptimo se le denomina filtro Wiener.
neurona. De esta forma, el modelo de neurona artificial El clculo de estos pesos ptimos no es siempre
est compuesto por un combinador lineal seguido de sencillo ya que una buena estimacin del valor
una funcin de activacin. esperado del cuadrado del error no es siempre posible.
Existen mtodos recursivos, tales como el Steepest
Descent y el Least-Mean-Square, que permiten la
bsqueda de los pesos ptimos de una forma ms
Redes neuronales y filtros robusta (Haykin, 1996). En general, cualquier mtodo
de optimizacin, incluyendo algoritmos genticos y
Consideremos por un momento el modelo ms sim- simulated annealing, puede ser usado.
ple de neurona que podamos definir. Sera aquella en En el contexto de las redes neuronales, los
la que la funcin de activacin est definida por la conjuntos de datos de entrada para los cuales se
funcin identidad y=x. El modelo se reduce al conocen sus salidas deseadas se denominan los
combinador lineal para el cual la salida est dada por la datos de entrena-miento; y entrenar una red neuronal
suma pesada de sus entradas: no es otra cosa ms que buscar un conjunto de pesos
ptimos para representar de la mejor manera posible
una relacin funcional entre el espacio de los datos
de entrada y el espacio de los datos de salida. El
gran poder de las redes neuronales radica en la
La ecuacin 1 es exactamente la misma ecuacin funcin de activacin. La inclusin en el modelo de la
de un filtro lineal e invariante en tiempo de respuesta neurona artificial de una funcin de activacin no
impulsiva finita (Oppenheim y Schafer, 1989). Si lineal permite la representacin de relaciones
conocemos la respuesta deseada (a) para un conjunto funcionales no lineales entre el espacio de los datos
de datos de entrada (ik), podemos definir el error como de entrada y el espacio de los datos de salida. De
la diferencia entre la respuesta deseada y la respuesta esta forma una red neuronal no es ms que un gran
del filtro: filtro no lineal construido a partir de la combinacin de
pequeos filtros no lineales.

e = d - y Ecuacin 2
Clasificacin con redes neuronales
Y podemos buscar un conjunto de pesos (w) tal Veamos con un ejemplo sencillo, como una
que minimice el error. Una forma de hacer dicha neurona artificial se puede utilizar en un problema
bsqueda es mediante el uso de una funcin de costo de clasificacin en un espacio de dos variables.
definida a partir del error cuadrtico medio, la cual se Considere el ejemplo de la figura 2.
define como el valor esperado (sobre el universo de Cmo puede observarse de la figura 2, se
datos) del cuadrado del error, como se muestra a implementa un clasificador con una neurona de tres
continuacin: entradas y una funcin de activacin del tipo escaln
(funcin de heaviside). Este modelo de neurona se
denomina el modelo de McCulloch-Pitts (Haykin,
Redes Neuronales para la carectizacin de yacimientos

1994). Cuando la entrada de la funcin de activacin Para ilustrar el poder de combinar elementos no
es negativa, la respuesta de la neurona ser cero lineales en un problema de clasificacin,
(neurona inactiva); y cuando la entrada de la funcin consideremos el siguiente ejemplo.
de activacin es positiva, la respuesta de la neurona
En el ejemplo ilustrado en la figura 3, se
ser uno (neurona activa). Recordemos que la entrada
implementa un clasificador con una red neuronal de
a la funcin de activacin est dada por la salida del
tres neuronas organizadas en dos niveles o capas.
combinados lineal, y en este caso en particular, como
Esta configuracin le da a la red la potencialidad de
se ilustra en la figura, est dada por la suma pesada
discriminar zonas complicadas en el plano X Z En
de la entradas X Zv K Ntese como la condicin
este ejemplo particular se desea discriminar el primer
umbral define una recta en el plano
cuadrante del resto del plano. La red presentada en
X Zseparndolo en dos
el ejemplo es capaz de resolver este problema, el
semiplanos. El entrenamiento de este clasificador
cual es imposible de ser resuelto con una sola
consiste en encontrar un conjunto de valores para w1
neurona como en el caso del ejemplo de la figura 2.
w2, w3 y K tales que las dos clases definidas por los
La solucin del problema es relativamente sencilla,
puntos grises y los puntos blancos queden
cada una de las dos neuronas de la primera capa (o
confinadas en semiplanos diferentes.
Banchs Rafael

capa de entrada) se encargan de dividir el plano X Z en En la figura 4 se ilustra un problema sencillo de


dos semiplanos, tal y cmo se ilustr en el ejemplo de la estimacin mediante el uso de una red neuronal del
figura 2. Por otra parte, la neurona de la segunda capa tipo RBF. En dicho ejemplo, se pretende aproximar
(o capa de salida), se encarga de interceptar las una funcin lineal (5Y=7X+21) en el intervalo
soluciones generadas por las neuronas de la capa de 2<X<2 Esta aproximacin se realiza con una red
entrada logrando as discriminar el primer cuadrante del neuronal de dos capas, tal y como se ilustra en la
plano X Z figura. La primera capa esta constituida por seis
El problema planteado en la figura 3 admite ms neuronas que poseen dos entradas y una funcin de
de una solucin vlida. De hecho, existen infinidad de activacin gaussiana:
combinaciones de valores para W 11, W12, W13, W14,
W , W W
21 22 23 y K que resuelven el problema de clasificar
las clases Ay Ben el espacio X Z se invita al lector a
encontrar algunas de ellas. En general, la arquitectura
de red presentada en la figura 3, permite discriminar
cualquier rea del plano definida por la interseccin donde s, corresponde a la suma pesada de las
de dos rectas. entradas Xy Z y kes un factor de escala predefinido
(para el problema en cuestin se uso k=16/25). La
segunda capa est constituida por una nica neurona
con una funcin de activacin lineal (funcin identidad
Estimacin con redes en este caso).
neuronales
Como se observa en la figura, la respuesta de la
Al igual que el problema de clasificacin, el red neuronal aproxima bastante bien a la funcin lin-
problema de estimacin puede ser abordado con una eal en el intervalo -2<X<2. Dicha respuesta es la suma
red neuronal. En este caso, de la misma forma en que pesada de las respuestas individuales de cada una de
una serie de funciones puede ser usada para aproximar las seis neuronas de la primera capa. Cada una de
otra funcin, la red neuronal puede aproximar una estas neuronas contribuye al resultado total en una
funcin mediante la combinacin de aproximaciones forma localizada segn el valor de Z, Xy sus pesos.
individuales generadas por cada uno de los En cada neurona, Z y su peso asociado definen el
perceptrones de la red. Tal es el caso de las centroide correspondiente a la gaussiana.
denominadas RBF:Radial Basis Functions (Haykin,
1994).
Redes Neuronales para la carectizacin de yacimientos

En el ejemplo mostrado en la figura 4, el valor de Z artculo abordar con lujo de detalles cada uno de los
fue 1 y los pesos fueron: algoritmos de aprendizaje. Por el contrario, slo sern
descritos brevemente algunos de ellos con el objeto de
aclarar conceptos y fijar algunas ideas bsicas.
El aprendizaje Hebbiano (Hebb, 1949) y el
De la misma manera en que se aproxim una aprendizaje competitivo (Willshaw y von der
funcin lineal en el ejemplo anterior, es posible Malsburg, 1976) son reglas basadas en
aproximar cualquier funcin genrica en una, dos o consideraciones neurobiolgicas. En el caso
ms dimensiones usando arquitecturas de redes particular del aprendizaje Hebbiano, tal y como se
neuronales similares a la de la figura 4, y diversos tipos coment en la primera seccin de este artculo, las
de funciones de activacin. sinapsis neuronales (pesos) se refuerzan o debilitan
segn sea la historia de su actividad. De acuerdo a
este postulado, la actualizacin de los pesos se hace
de la siguiente manera:
Algoritmos y paradigmas de
aprendizaje
En los ejemplos presentados anteriormente se
ilustr cmo las redes neuronales pueden ser
utilizadas para problemas de clasificacin y donde x.y y constituyen la actividad pre-sinptica
estimacin. Esto se ilustr con una arquitectura par- y post-sinptica (entrada y salida de la neurona en
ticular denominada perceptrn de capas mltiples y cuestin) respectivamente, y h se denomina la
los pesos de las neuronas fueron propuestos o constante de aprendizaje. Versiones ms
calculados en forma intuitiva. Este procedimiento, en elaboradas de esta regla de aprendizaje consideran
cualquier aplicacin prctica, carece de validez y la inclusin de un trmino de olvido, que evita el
sentido ya que la determinacin directa de los pesos posible crecimiento exponencial de los pesos
implica el conocimiento de la solucin del problema. durante el entrenamiento de la red (Kohonen, 1988).
La verdadera utilidad prctica de una red neuronal
En el aprendizaje competitivo, las neuronas de una
cmo mtodo de inferencia, radica en el hecho de
red compiten por activarse (responder) ante la
que para un problema dado es posible determinar los
presencia de un estmulo dado. Generalmente, a
pesos de las neuronas de una red mediante el uso de
diferencia de otros tipos de entrenamiento, en el
un procedimiento especfico denominado algoritmo de
aprendizaje competitivo slo una neurona se activa a
aprendizaje (Haykin, 1994).
la vez. En la regla de aprendizaje competitivo, slo se
El proceso de aprendizaje de una red neuronal se actualizan los pesos de la neurona que responde con
lleva a cabo mediante la ejecucin de ciertos cambios ms fuerza a un estmulo dado. Segn este postulado,
en la configuracin de la red, especficamente, sus la actualizacin de los pesos se hace de la siguiente
pesos. Desde el punto de vista algortmico, estos manera:
cambios se realizan a modo de una actualizacin que
se representa de la siguiente forma:

donde x representa el estmulo en un momento dado,


donde n constituye in ndice temporal, y DW u. k es el ndice que identifica a la neurona ganadora y
representa el valor de la actualizacin en un momento d(k-j) es una funcin pulso que vale 1 cuando k.= y O
determinado. Una regla o conjunto de reglas que cuando k j. Como resultado del uso de una regla de
permite calcular el valor de la actualizacin de los aprendizaje competitivo, cada una de las neuronas
pesos es lo que se denomina un algoritmo o regla de de la red termina por asociarse a un estmulo o grupo
aprendizaje. Aunque hay muchos algoritmos de de estmulos en particular, por lo cual, las redes que
aprendizaje diferentes, existen tres reglas bsicas que operan bajo esta regla de entrenamiento son ideales
son las ms comnmente usadas: el aprendizaje para abordar problemas de clasificacin basados en
Hebbiano, el aprendizaje competitivo y el aprendizaje anlisis de clusters (Haykin, 1994).
por correccin de error. No es la intencin de en este
Banchs Rafael

A diferencia de los antes expuestos, el ticular es reforzada. Por el contrario, si el


aprendizaje por correccin de error tiene sus desempeo no es satisfactorio la tendencia a
fundamentos en la teora de filtraje ptimo, la cual responder de esa forma es debilitada. A diferencia
fue brevemente discutida en la segunda seccin de del aprendizaje supervisado, en el cual se conoce un
este artculo. Segn esta regla de aprendizaje, conjunto de respuestas deseadas a partir de las
tambin conocida como la regla Delta (Widrow and cuales el sistema es entrenado, en el aprendizaje
Hoff,1960), la actualizacin de los pesos se hace de por refuerzo, el sistema debe "explorar" por s mismo
acuerdo a la siguiente expresin: el dominio de los datos y aprender basado en las
penalizaciones o recompensas que recibe.
Finalmente, en el aprendizaje no supervisado, no
existe ningn agente externo a la red neuronal capaz
de guiar el proceso de aprendizaje (Becker, 1991). En
este caso el aprendizaje se lleva a cabo mediante la
donde xi representa el estmulo y e es el error de
extraccin por parte de la misma red neuronal de las
ajuste tal y como se defini en la ecuacin 2.
tendencias estadsticas existentes en los datos. De
Otro aspecto determinante en el proceso de esta manera la red neuronal se convierte en una
entrenamiento de una red neuronal es el representacin o mapa del espacio de los datos. Este
denominado paradigma de aprendizaje. El paradigma de aprendizaje es el ms comnmente
paradigma de aprendizaje depende de la forma en usado en los problemas de clasificacin basados en
que la red neuronal interacta con su entorno, lo cual anlisis de clusters y reconocimiento de patrones.
depende directamente de la naturaleza del problema
en cuestin y los datos disponibles. Existen tres
paradigmas de aprendizaje en inteligencia artificial;
ellos son: aprendizaje supervisado, aprendizaje por
refuerzo y aprendizaje no supervisado.
Redes neuronales en
En el aprendizaje supervisado existe la figura de un caracterizacin de yacimientos
"tutor" o "maestro", externo a la red neuronal, capaz En los ltimos aos ha proliferado el uso de redes
de cuantificar el desempeo de la red. En el contexto neuronales en problemas de estimacin y clasificacin
de las aplicaciones prcticas, esto se traduce en la en caracterizacin de yacimientos. A la fecha, existen
disponibilidad de un subconjunto de datos de entrada gran cantidad de programas comerciales que permiten
o estmulos para los cuales se conoce su salida o estimar y/o identificar propiedades de yacimientos, tipo
respuesta. Este subconjunto de datos es el de litologa, ambientes sedimentarios, a partir de datos
denominado conjunto de entrenamiento. El ejemplo de campo usando diversas arquitecturas de redes
clsico de aprendizaje supervisado lo constituyen los neuronales y distintos paradigmas de entrenamiento.
perceptrones de mltiples capas entrenados mediante Entre los ms populares podemos mencionar:
el algoritmo de backpropagation (propagacin hacia
atrs del error). Backpropagation es una versin
SE/SCLASS' Es una herramienta de la compaa
Schlumberger para clasificacin de facies ssmicas
generalizada del problema de minimizacin del error
que ofrece, entre otros mtodos, redes neuronales
cuadrtico medio (el cual fue definido en la ecuacin
no supervisadas como una alternativa para
3); y debe su nombre a la forma en que el gradiente
realizar anlisis de clusters.
del error respecto a los pesos de las neuronas en cada
capa es calculado y propagado hacia "atrs" desde la ROCKCELL ` Tambin de Schlumberger, ofrece la
capa de salida hacia las capas previas (Haykin, 1994). posibilidad de usar redes supervisadas y no
El aprendizaje por refuerzo, debe su nombre al supervisadas para la identificacin de electro-facies
hecho de que existe la figura de un "crtico", externo a partir de registros de pozo con posible calibracin
a la red neuronal, que es capaz de decidir si el o no con datos de ncleo.
desempeo de la red fue satisfactorio o no EMERGE` Es una herramienta de la compaa
satisfactorio, pero no tiene manera alguna de Hampson & Russell, que permite predecir
cuantificar el desempeo de la red (Barto, 1992). De parmetros del yacimiento usando combinacin de
esta forma, cuando el desempeo es satisfactorio, el mltiples atributos ssmicos. Este programa,
"crtico" "recompensa" a la red y la tendencia de la basado en el uso de esquemas supervisados,
misma para responder al estmulo de esa forma par ofrece las alternativas de perceptrones de mltiples
Redes Neuronales para la carectizacin de yacimientos

capas y redes neuronales probabilsticas Clasificacin litolgica


(Hampson et al, 2001).
GDI: Es una herramienta de la compaa dGB. Este En esta seccin se ilustra un ejemplo de
programa ofrece tanto tcnicas supervisadas, como clasificacin litolgica usando los datos ssmicos de
no supervisadas. Las tcnicas supervisadas son un campo al sureste de Venezuela. En este ejercicio
usadas para problemas de clasificacin, cmo se realiz una clasificacin de tipos de arenas a partir
identificacin litolgica, y para estimacin de de los resultados de un anlisis fractal basado en
propiedades. Las tcnicas no supervisadas son wavelets de los datos ssmicos en un horizonte de
usadas para anlisis de clusters en aplicaciones inters. El anlisis fractal basado en wavelets (WBFA)
cmo por ejemplo, la clasificacin de formas de es una tcnica que permite analizar cmo vara la
ondcula ssmica a lo largo de un horizonte. energa de la seal respecto a la escala (Jimnez et
a/., 1999).
D-TECT: Tambin de dGB, es una herramienta de
clculo de atributos y reconocimiento de patrones En el rea donde se realiz el ejercicio, se dispona
que permite entre otras cosas clasificacin de de informacin de 24 registros de pozos, una
facies ssmicas mediante esquemas supervisados. caracterizacin a priori de los ambientes sedimentarios
en un intervalo de inters, un volumen de datos
LITHANN; es la herramienta de la compaa Rock
ssmicos y los horizontes interpretados en el intervalo
Solid Images para clasificacin y calibracin de
de inters. El objeto de este estudio era evaluar la
volmenes de mltiples atributos. Este programa
factibilidad de delimitar las reas que presentan mayor
utiliza un esquema de clasificacin no supervisada
contenido de arenas limpias, las que presentan arenas
basado en el uso de redes neuronales de Kohonen
sucias y sus respectivas zonas de transicin. El mtodo
(K-SOM: Kohonen 's Self Organizing Map).
se aplic a los pozos en primer lugar, utilizando
(Kohonen, 1990)
registros del tipo gamma ray, donde se logr apreciar
una evidente separacin de los distintos tipos de arena.
En Venezuela, tambin se han desarrollado Para obtener un mapa de toda el rea se aplic el
numerosas aplicaciones basadas en el uso de redes mtodo WBFA al volumen de datos ssmicos y se
neuronales para problemas de estimacin y entren una red neuronal con la informacin
clasificacin. Cmo ejemplo de ellas se pueden correspondiente a las localidades de los pozos.
mencionar:
Para este ejemplo se us un perceptrn de capas
Clasificacin con redes neuronales de rangos de multiples y el algoritmo de aprendizaje de
porosidad y permeabilidad a partir de datos de backpropagation. En la figura 5 se muestra el mapa
resonancia magntica nuclear medidos en ncleos de distribucin de arenas obtenido para el intervalo
(Rodrigues et al, 2000). de inters. En dicho mapa el color amarillo representa
Anlisis de similitud ssmica basado en redes las arenas de buena calidad, el color gris representa
neuronales de Kohonen (Rondn y Banchs, 2002) y las arenas de mala calidad y el rojo las zonas de
de Hopfield (Banchs y Jimnez, 2002). transicin.
Estimacin de cubos de pseudo registros y/o El porcentaje de xito estimado para la
propiedades de yacimientos con sus respectivos clasificacin fue de aproximadamente un 80%, el cual
intervalos de confianza usando perceptrones de se puede verificar a partir de las clases obtenidas
capas mltiples (Banchs y Michelena, 2000, 2002). para cada uno de los pozos usados en el estudio.
Combinacin de mtodos geoestadsticos y redes Adicionalmente, el resultado obtenido corrobora el
neuronales para mejorar la calidad de las modelo sedimentolgico previamente existente para
estimaciones de mapas de propiedades a partir de el rea, segn el cual la cantidad de arenas de mala
datos de pozos (Blunda eta/., 2002). calidad aumenta en la direccin sudoeste.

En las siguientes dos secciones se muestran dos


ejemplos especficos de la aplicacin de algunas de
estas tcnicas a datos de campo en yacimientos
venezolanos. En el primer caso se presenta un
ejemplo de clasificacin litolgica, y en el segundo
se presenta un ejemplo de estimacin de pseudo-
propiedades de yacimiento.
Banchs Rafael

capas mltiples constituido por 4 capas (con 10, 12,


12 y 1 neuronas en cada capa, respectivamente). La
red se entren con el algoritmo de backpropagation.
En este ejercicio se llev a cabo una estimacin de
intervalos de confianza para el volumen generado
(Banchs y Michelena, 2000). Para tal fin, un total de 70
estimaciones independientes fueron realizadas. De
esta forma, se obtuvo un total 70 volmenes de
potencial espontneo, para los cuales se observaron
sus distribuciones y se calcularon sus estadsticos.
Asumiendo una ley de distribucin gaussiana, se
gener el volumen de potencial espontneo ms prob-
able a partir de los valores medios de la propiedad en
cada punto del volumen. Para calcular el volumen de
intervalos de confianza, se utiliz la varianza de la
propiedad en cada punto del volumen. La figura 6
muestra una seccin del volumen de potencial
espontneo y su respectiva medida de incertidumbre.
En la seccin promedio de potencial espontneo
mostrada en la figura los valores ms negativos del
Volumen de pseudo registros potencial espontneo (que se interpretan como arenas)
se ilustran en azul y los valores menos negativos (que
En este ejemplo se estima un volumen de potencial se interpretan como arcillas) se ilustran en rojo.
espontneo a partir de un volumen de atributos Obsrvese en la figura la presencia de "lentes" de
ssmicos 3D. En esta rea en particular el potencial arena; este resultado concuerda con lo establecido en
espontneo resulta ser un buen indicador litolgico. La el modelo sedimentolgico de este yacimiento.
2
extensin total del rea de inters es de 5.73 Km y el
intervalo de inters es de 100 ms. Un total de 25
registros de potencial espontneo fue usado para
entrenar la red neuronal, la cual fue un perceptrn de
Redes Neuronales para la carectizacin de yacimientos

Conclusiones y Referencias
recomendaciones
Banchs, R.; Jimnez, J.; 2002, "Content addressable
memories for seismic attribute pattern recognition",
El uso de redes neuronales en problemas de
64th EAGE Conference & Exhibition.
estimacin y clasificacin en caracterizacin de
yacimientos ha incrementado en forma espectacular Banchs, R.; Michelena, R.; 2000, "Well log estimates
en los ltimos aos. Sin embargo, a estas alturas and confidence intervals by using artificial neural
todava las redes neuronales son vistas por muchos networks", SEG 2000 expanded abstracts.
cmo cajas negras y misteriosas capaces de dar Banchs, R.; Michelena, R.; 2002, "From 3D seismic
respuestas que muchas veces no se sabe como attributes to pseudo well log volumes using neural
validar o verificar. networks: practical considerations", The Leading
En el fondo, las redes neuronales no son ms Edge, octubre.
que filtros no lineales que tienen la gran ventaja de Barto, A.; 1992, "Reinforcement learnng and adaptive
poder ser "entrenados" para representar relaciones critic methods', Handbook of Intelligent Contr%
complejas entre conjuntos de datos, que los mtodos 469-491, New York, Van Nostrand-Reinhold.
lineales tradicionales de interpolacin y/o clustering Becker, S.; 1991, "Unsupervised learning procedures
no son capaces de representar. Este trabajo for neural networks",
pretendi desmitificar un poco el concepto de las /nternationa/JournalofNeural Systems, 2, 17-
redes neuronales mediante la presentacin de los 33.
aspectos ms fundamentales de su teora; e ilustrar
Blunda, Y.; Camacho, L.; Porjesz, R.; Banchs, R.;
su uso en problemas especficos de caracterizacin
2002, "Estimaciones de porosidad empleando
de yacimientos.
mtodos basados en geoestadstica y redes
Aunque las redes neuronales son y seguirn siendo neuronales", X/ Congreso Venezolano de
una gran herramienta de trabajo en problemas de Geofsica.
inferencia, deben usarse con mucho cuidado. El prin-
cipal problema de las redes neuronales es que siempre Fahlman, S.; Hinton, G.; 1987, "Connectionist
dan una respuesta. Sin embargo, debe tenerse en architectures for artificial intelligence", IEEECorn-
cuenta que la calidad y validez de una representacin putel 20, 100-109.
obtenida a partir de una red neuronal depender Hampson, D.; Schuelke, J.; Quirein, J.; 2001, "Use of
siempre de algunos aspectos prcticos que la mayora multiattribute transforms to predict log properties
de las veces no son sencillos de controlar. Entre ellos from seismic data", Geophysics, 66, 220-236.
podemos mencionar el hecho de que tan bien los datos Haykin, S.; 1994, Neural networks: a
de entrenamiento representan el espacio de los datos, comprehensive foundation, New York, Macmillan.
que tan adecuada es una arquitectura especfica Haykin, S.; 1996, Adaptive filtertheory, Upper
para un problema en cuestin, as como cul es el Saddle River, Prentice-Hall.
nmero de neuronas ptimo en la red para resolver un
Hebb, D.; 1949, The organization of behavior: a
problema especfico, cual es el conjunto de variables
neuropsycho%ogica/theory, New York, Wiley.
de entrada que realmente son significativos para la
solucin de un problema. Son precisamente estos Holland, J.; 1992, Adaptation in natural and
problemas, para los cuales todava no hay respuestas artificial systems, Cambridge, MIT Press.
tericas claras, los que le dan esa imagen algo mtica y Jimenez, J.; Michelena, R.; Peinado, A.; 1999, "Facies
misteriosa al uso de estas herramientas. recognition using wavelet-based fractal analysis on
En definitiva, se puede decir que el uso de redes compressed seismic data", SEG 1999 expanded
neuronales en cualquier contexto es en parte una abstracts.
tcnica y en parte un arte. Y es precisamente de la Kohonen, T.; 1988, "An introduction to neural
experiencia que da su propio uso que se refina el computing",Neura/Networks, 1, 3-16.
tcnico y se perfecciona el artista. Kohonen, T.; 1990, "The self-organizing map", Pro-
ceedings of the IEEE, 78, 1464-1480.
McCulloch, W.; Pitts, W.; 1943, "A logical calculus of the
ideas immanent in nervous activity", Bulletin
of MathematicalBiophysics, 5, 115-133.
Banchs Rafael

McNeill, D.; Freiberger, P.; 1993, Fuzzy Logic,


New York, Simon & Schuster.
Oppenheim, A.; Schafer, R.; 1989, Discrete-time sig-
nalprocessing, Englewood Cliffs, Prentice-Hall.
Rodrigues, P.; Alcocer, Y.; Matheus, J.; 2000, "NMR
Signal Pattern Classification for Estimation of
Petrophysical Properties", SPE Annual Technical
Conference and Exhibition. SPE 63258
Rondn, O.; Banchs, R.; 2002, "Obtencin de mapas
de similitud ssmica 2D mediante redes
neuronales", X/ Congreso Venezolano de
Geofsica.
Waterman, D.; 1986, A guide to expert systems,
Addison-Wesley.
Widrow, B.; Hoff, M.; 1960, "Adaptive switching circuits
; IRE WESCON Convention record, 96-104.
Widrow, B.; Stearns, S.; 1985, Adaptive signal
processing, Englewood Cliffs, Prentice-Hall.
Willshaw, D.; von der Malsburg, C.; 1976, "How pat-
terned neural connections can be set up by self-
organization", Proceedings of the Royal Society
of London, 194, 431-445.

Вам также может понравиться