Вы находитесь на странице: 1из 65

UNIVERSIDAD MAYOR DE SAN ANDRES

FACULTAD DE INGENIERIA
INGENIERIA PETROLERA

PROSPECCION GEOFISICA
METODOS GEOFISICOS Y SUS APLICACIONES
NERCY KAREN, LIMACHI QUISPE
28 DE SEPTIEMBRE

1
1
OBJETIVO

 Conocer los métodos geofísicos a detalle


 Llegar a identificar en cuales áreas son útiles los diferentes métodos geofísicos
 Conocer el equipo utilizado para los métodos geofísicos
 Llegar a interpretar los datos que se obtiene de los equipos de cada método.
 Interpretación de graficas
 Conocer las ventajas y desventajas de cada método

3
INTRODUCCION

Los métodos geofísicos son pruebas realizadas para la determinación de las características
geotécnicas de un terreno, como parte de las técnicas de reconocimiento de
un reconocimiento geotécnico.
Intentan evaluar las características del terreno basándose en la medida de ciertas
magnitudes físicas tomadas generalmente en la superficie del terreno.
Si las características de los terrenos son tales que las magnitudes físicas medidas son
bastante diferentes entre sí, es posible localizar los contactos entre las distintas capas de
terreno. Sin embargo, esto no siempre sucede así, por lo que estos métodos tienen serias
limitaciones.
No obstante, gracias a su rapidez y economía, están especialmente indicados para
investigar áreas extensas o alineaciones de gran longitud entre sondeos que se encuentren
alejados, y de esta forma poder interpolar los resultados obtenidos en las prospecciones
extremas, o establecer, en su caso, la necesidad de realización de sondeos intermedios.
Los métodos geofísicos deben ser considerados siempre como métodos complementarios
de reconocimiento, debiendo estar acompañados por prospecciones directas como
sondeos, y los datos obtenidos mediante estos sistemas refrendados y contrastados por los
resultados de dichos sondeos.
Los trabajos de campo e interpretación de las medidas deben estar realizados por personal
altamente cualificado y con experiencia en la ejecución y procesamiento de resultados.

4
1. GRAVIMETRIA

Un método muy importante en la búsqueda de depósitos minerales, aprovechando las


diferencias de la gravedad en distintos sectores.

La gravitación normal en la tierra es


9,80665 m/s2, es la aceleración de
un objeto que cae a superficie.

Grande cuerpos mineralizados


pueden aumentar la gravitación en
una región, porque las rocas de
mayor densidad incrementan la
aceleración.

El método hace uso de campos de


potencial natural, observado se
compone de los contribuyentes de las formaciones geológicas, que construyen la
corteza. Generalmente no se puede distinguir las contribuciones a este campo
proveniente de una formación o una estructura geológica de aquella de otras
formaciones o estructuras geológicas por este método, en casos especiales se puede
lograr la separación de los efectos causados por una formación o estructura geológica
individual.

Se realiza mediciones relativas, es decir, se mide las variaciones laterales de la


atracción gravitatoria de un lugar al otro puesto que en estas mediciones se pueden
lograr una precisión satisfactoria más fácilmente en comparación con las demás
mediciones del campo gravitatorio

Los datos reducidos apropiadamente entrega las variaciones en la gravedad, que solo
dependen de variaciones laterales de la densidad del material ubicado en la vecindad
de la estación de observación.

1.1. Gravímetro

Es un equipo que puede medir diferencias muy finas de la gravedad, cada balanza es
un gravímetro, porque mide el peso (potencia que aplica la aceleración) de un objeto.

5
1.2. Principio

Si cualquier cuerpo inicialmente


estando en reposo cae sin ser
estorbado después un segundo
tendrá una velocidad de 9,80m/s
en la dirección vertical. Después de
un segundo más su velocidad será:
9,80m/s + 9,80m/s = 19,60m/s. El
aumento de la velocidad vertical
de 9,80m/s de un cuerpo cayendo sin ser estorbado durante cada segundo se denomina
aceleración de gravedad o sólo gravedad y se la expresa como 9,80m/s 2. El primer término
por el segundo indica la velocidad medida como distancia pasada durante un segundo, el
otro por segundo indica la variación de la velocidad de 9,80m/s, que corresponde a un
intervalo de 1s. La aceleración de la gravedad g se debe a la aceleración gravitatoria, que
la tierra ejerce en cada cuerpo, menos la fuerza centrífuga causada por la rotación de la
tierra y dirigida en dirección perpendicular al eje de rotación de la tierra y hacia afuera.

La fuerza total, que actúa en el cuerpo, es igual al producto de su masa m y de la


aceleración de gravedad g. Por consiguiente la atracción gravitatoria en cualquier lugar de
la superficie terrestre tiene numéricamente el mismo valor como la fuerza gravitatoria
ejercida a una masa unitaria en el mismo lugar.

1.3. Anomalías de la gravedad

Se define como la variación de los valores medidos de la gravedad con respecto a la


gravedad normal después de haber aplicado las correcciones necesarias.
a) La anomalía de aire libre resulta de las correcciones de la influencia de las mareas,
de la derive del instrumento de medición, de la latitud y de la altura.
b) La anomalía de Bouguer se obtiene aplicando todas las correcciones mencionadas.

1.4. Correcciones de los datos (reducciones)

Se introduce las reducciones comúnmente aplicadas a los datos gravimétricos tomados en


terreno. Un valor reducido es igual al valor observado de la gravedad menos el valor
previsto de la gravedad basándose en el modelo terrestre elegido.
En consecuencia una anomalía es la diferencia entre lo observado y lo previsto de acuerdo
con el modelo terrestre aplicado.

a. Calibración
b. Reducción para la deriva del gravímetro
c. Reducción de la influencia de las mareas
d. Corrección para la latitud
e. Corrección para la altura

6
f. Corrección topográfica
g. Corrección por la losa de Bouguer

1.5. El gravímetro de HARTLEY

Se constituye de un peso suspendido de un resorte. Por variaciones en la aceleración


gravitatoria de un lugar al otro el resorte principal se mueve y puede ser vuelto a su
posición de referencia por medio de un movimiento compensatorio de un resorte
auxiliar o de regulación manejable por un tornillo micrométrico. El giro del tornillo
micrométrico se lee en un dial, que
da una medida de la desviación del
valor de la gravedad con respecto a
su valor de referencia. Por la
posición del espejo en el extremo
de la barra, su desplazamiento es
mayor que el desplazamiento del
resorte principal y como el
recorrido del haz luminoso es
grande, se puede realizar medidas
de precisión cercanas al miligal.

7
2. MAGNETOMETRÍA
Es como la gravimetría, método geofísico relativamente simple en su aplicación. El
campo magnético de la tierra afecta también yacimientos que contienen magnetita
(Fe).
Estos yacimientos producen un campo magnético inducido, es decir su propio campo
magnético. Un magnetómetro mide simplemente las anomalías magnéticas en la
superficie terrestre, las cuales podrían ser producto de un yacimiento.

2.1. Principio
La tierra genera un campo magnético en el rango de aproximadamente 0,30000 a
0,65000G (= Gauss, o Oersted). Este campo se puede comparar con el campo
correspondiente a un dipolo (como un imán de barra) situado en el centro de la Tierra,
cuyo eje está inclinado con respecto al eje de rotación de la Tierra. El dipolo está
dirigido hacia el Sur, de tal modo en el hemisferio Norte cerca del polo Norte
geográfico se ubica un polo Sur magnético y en el hemisferio Sur cerca del polo Sur
geográfico se ubica un polo Norte magnético. Por convención se denomina el polo
magnético ubicado cerca del polo Norte geográfico polo Norte magnético y el polo
magnético situado cerca del polo Sur geográfico polo Sur magnético. El campo
geomagnético no es constante sino sufre variaciones con el tiempo y con respecto a su
forma.
La imantación inducida depende de la susceptibilidad magnética k de una roca o de un
mineral y del campo externo existente.
La imantación remanente de una roca se refiere al magnetismo residual de la roca en
ausencia de un campo magnético externo, la imantación remanente depende de la
historia geológica de la roca.

8
2.2. Aplicación

El método magnético es el método geofísico de prospección más antiguo aplicable en


la prospección petrolífera, en las exploraciones mineras y de artefactos arqueológicos.
En la prospección petrolífera el método magnético entrega informaciones acerca de la
profundidad de las rocas pertenecientes al basamento. A partir de estos
conocimientos se puede localizar y definir la extensión de las cuencas sedimentarias
ubicadas encima del basamento, que posiblemente contienen reservas de petróleo.

En las exploraciones mineras se aplica el método magnético en la búsqueda directa de


minerales magnéticos y en la búsqueda de minerales no magnéticos asociados con los
minerales, que ejercen un efecto magnético mensurable en la superficie terrestre.
Además el método magnético se puede emplear en la búsqueda de agua subterránea.

2.3. Magnetómetros

Existen varios métodos de medición y varios tipos de magnetómetros, conque se


puede medir una componente del campo magnético. El primero método para
determinar la intensidad horizontal absoluta del campo geomagnético desarrolló el
matemático alemán Carl Friedrich Gauss (desde 1831).

a. Los magnetómetros, que se basan en principios mecánicos, son entre otros:

 la brújula de inclinación
 la superbrújula de Hotchkiss
 el variómetro del tipo Schmidt
 el variómetro de compensación.
 El 'flux-gate-magnetometer' se basa en el principio de la inducción
electromagnética y en la saturación y mide variaciones de la intensidad
vertical del campo magnético.

b. El magnetómetro nuclear se basa en el fenómeno de la resonancia magnética


nuclear y mide la intensidad total absoluta del campo magnético a tiempos
discretos.

c. El magnetómetro con célula de absorción se funda en la separación de líneas


espectrales (absorción óptica) por la influencia de un campo magnético. Este
instrumento mide la intensidad total del campo magnético continuamente, con
sensibilidad alta y una exactitud hasta 0.01gamma.

9
2.4. Realización de mediciones magnéticas en el campo y correcciones necesarias
para las mediciones magnéticas

Aplicando el método magnético en la prospección minera se quiere delinear


variaciones del campo geomagnético o es decir anomalías magnéticas relacionadas
con un depósito mineral con un cierto contenido en magnetita o pirrotina por
ejemplo. Generalmente las mediciones magnéticas se realizan a lo largo de perfiles en
estaciones de observación en distancias regulares.

Combinando perfiles paralelos se obtiene un mapa de observaciones magnéticas. La


mayoría de los magnetómetros disponibles para la prospección minera mide
variaciones de la intensidad vertical (interpretación más clara en comparación a la
medición de variaciones en las intensidades total y horizontal). Por lo tanto se trata de
mediciones relativas, cuya precisión es más alta en comparación a las mediciones
absolutas. El campo geomagnético sufre variaciones con respecto al tiempo y a su
forma como la variación diurna por ejemplo.

Estas variaciones, que no están relacionadas con un depósito mineral con un cierto
contenido en magnetita por ejemplo superponen los valores medidos. Por esto se
debe corregir los valores medidos. La variación diurna se corrige repitiendo la
medición de la variación de la intensidad vertical en una estación de base en intervalos
de tiempo regulares desde el principio hasta el fin de la campaña de medición. Los
valores medidos en la estación de base se presentan en función del tiempo, que
permite calcular el valor de corrección correspondiente a cada medición en una
estación de observación. Los valores reducidos se presentan en perfiles y/o mapas.

10
3. SÍSMICA DE REFRACCIÓN
En este método se mide el tiempo de propagación de las ondas elásticas, transcurrido
entre un sitio donde se generan ondas sísmicas y la llegada de éstas a diferentes puntos de
observación, donde una serie de sensores en línea recta a distancias conocidas, formando
un tendido sísmico o línea de refracción sísmica.
A una distancia conocida del extremo del tendido, en el punto de disparo, se generan
ondas sísmicas, con la ayuda de un martillo o por la detonación de explosivos, las cuales
inducen vibraciones en el terreno que son detectadas por cada uno de los sensores en el
tendido.
El equipo básico consiste:
 Los sensores
 La unidad de adquisición, donde se almacenan los movimientos del terreno.
 Los cables de conexión entre los sensores y la unidad de adquisición
 el cable del trigger, se encarga de marcar el momento de inicio de registro.

En cada sensor se tiene información de los movimientos del terreno en función del tiempo
y son conocidos como sismogramas, que son analizados en la refracción sísmica para
obtener el tiempo de llegada de las primeras ondas a cada sensor desde el punto de
disparo, y en la reflexión para obtener información de las ondas que son reflejadas en las
diferentes interfaces de suelo, para lo cual es estudiado el sismograma completo.

3.1. PROPAGACIÓN Y TRAYECTORIA DE LAS ONDAS


Cuando se generan ondas sísmicas, a partir de golpes en el suelo éstas incluyen tantas
ondas sísmicas internas como superficiales ondas. Las ondas P, también conocidas como
ondas longitudinales, son las de mayor interés.
Las leyes que rigen la propagación y la trayectoria de las ondas sísmicas en la refracción,
son las mismas que se utilizan en óptica:
1. Principio de Huygens
2. Principio de Fermat
3. Ley de refracción (o de Snell).- el seno del ángulo incidente es al seno del ángulo
de refracción como la velocidad de la onda incidente es a la velocidad de la
correspondiente onda refractada.
Para explicar la trayectoria de las ondas en el método de la Refracción sísmica,
consideremos un medio, con velocidad C1, que suprayace un medio semi infinito, con
velocidad C2, mayor que C1. Una vez se han generado las ondas en el punto de disparo,

11
éstas empiezan a viajar por el medio superior
conformando unos frentes de onda en el
espacio. Modelo de dos capas, la inferior de
mayor velocidad Al hacer un corte vertical
por el punto de disparo, el frente de ondas
luciría como se ilustra Dicho frente se
conocen como frente de ondas directas.

 En la parte b) el frente de ondas se ha


encontrado con el límite de los medios
y ocurren las primeras refracciones
hacia la capa inferior.
 En la parte c), ha pasado más tiempo y
se pueden observar claramente 3
frentes de onda:
o las ondas directas
o las ondas refractadas hacia la capa
inferior
o las ondas reflejadas hacia la capa
superior.
o El frente de ondas refractado hacia
la capa inferior, no tiene una
curvatura constante, de tal manera que corresponde a dos frentes de onda, el que
se refracta hacia abajo, y el que se refracta hacia la capa superior. Como se puede
observar, este frente de ondas está más alejado del punto disparo que el frente de
ondas directas en la primera capa, por lo que llegará más rápido a los geófonos
donde aún no había llegado el frente de ondas directas.

 En la parte d), de la figura, ha pasado aún más tiempo desde el momento de disparo, y
los 4 frentes de onda se diferencian claramente. Adaptado de Boyd, 1999.
Propagación de las ondas en un medio de dos capas. El frente de ondas refractadas
hacia el medio superior se genera cuando los rayos provenientes de la fuente
alcanzan en ángulo crítico, la
interfaz entre los medios.
La refracción a 90º del ángulo crítico,
implica que las ondas no se propagan
por el contacto entra ambas capas con la
velocidad v2 de la capa inferior,
siguiendo la ley de los recorridos
mínimos o Principio de Fermat.

12
3.1.1. Fenómenos en la propagación
Cuando el medio en que se propagan las ondas sísmicas no es homogéneo, se producen
los fenómenos de difracción, dispersión y scattering.
a) Difracción.- desvío de los rayos, en cierta extensión, ocurrido cuando se limita
parte del frente de ondas.
b) Dispersión.- variación de la velocidad de una onda con el cambio de frecuencia.
En un medio elástico homogéneo no hay dispersión, pero si la hay en un medio
imperfectamente elástico como en la tierra.
c) En refracción sísmica no hay evidencia de que exista dispersión apreciable,
excepto cuando se usan explosivos en inmediaciones de la explosión.
d) Scattering.- formación de pequeñas ondas que propagan la energía en todas las
direcciones. Se produce cuando un frente de ondas choca con partículas libres u
objetos pequeños comparados con su longitud de onda.

La disminución de la energía sísmica con la distancia, causada por los tres fenómenos
explicados, va acompañada de pérdidas debidas a la absorción de la energía, produciendo
amortiguamiento.

3.2. EQUIPO DE MEDICIÓN

3.2.1. Fuente de generación de ondas sísmicas.-


Las ondas que se utilizan en refracción son generadas por una perturbación artificial
instantánea, que se conoce como impulso sísmico. Lo que se busca con éste es generar
el tipo de ondas sísmicas (de volumen y superficiales), producidas por un único
“evento” de duración “instantánea”, para que no haya superposición de ondas en los
movimientos del terreno detectados por los geófonos. Para esto se buscan fuentes de
generación que se puedan controlar en términos del tiempo de inicio y localización.
Existen tres tipos:

a) Fuentes de impacto.- martillos o porras, la energía transmitida al suelo por


este tipo de fuente no es muy grande, se apilan varias decenas de golpes para

13
modelar mejor las llegadas y suprimir el ruido, también se utilizan otros
medios mecánicos, por ejemplo dejando caer un gran peso de una altura de 2
– 3 metros. La energía asociada con cada uno de los golpes depende la energía
cinética (E) que relaciona la masa del martillo (m) y la velocidad aplicada al
martillo (v), obteniendo E = m*v2.
b) Cargas explosivas.- de mayor energía, son usadas especialmente para
prospección petrolera. La explosión puede ocurrir en un tiempo de micro a
milisegundos, dependiendo de la naturaleza y cantidad del explosivo y, del
material que rodea sitio de explosión
c) Disparos.- se utilizan balas o cartuchos de fogueo, la energía es mayor que la
generada por martillo.

3.2.2. Detección de los movimientos del terreno


A través de geófonos de una componente vertical, el movimiento del terreno es
observado en diferentes puntos a lo largo del tendido de refracción sísmica.
Actualmente se usan 12, 24 ó 48 geófonos. Estos sensores exigen mayor resistencia
mecánica 15 que aquellos usados en la sismología tradicional debido a que en
refracción se requiere geófonos con frecuencias naturales de vibración mucho mayor,
entre 8 y 40 Hz.

3.2.3. Adquisición y almacenamiento.


Las partes que componen el equipo de adquisición y almacenamiento son:
a) Unidad de apilamiento y digitalización.- la unidad donde se adquiere, digitaliza
y procesan los datos. Tiene puertos especializados para recibir las señales
enviadas por los geófonos; a cada geófono le corresponde un canal y sus
señales son filtradas y digitalizadas de acuerdo con las opciones definidas por
el usuario.
b) Cables sísmicos.- se usan dos cables para conectar en cada uno la mitad de los
geófonos. Cada cable contiene a su vez cableado para llevar la señal de cada
geófono a la unidad de adquisición; cada uno de estos se llama canal.
c) “Trigger”.- cable conectado apropiadamente a la fuente sísmica, de tal manera
que en el instante en que se golpea el suelo con el martillo o cuando la carga
explosiva es detonada, el sistema de registro empieza a grabar.

3.3. CURVAS TIEMPO-DISTANCIA


Se construyen con los tiempos de llegada de las ondas P a cada uno de los sensores, y la
distancia de cada sensor al punto de disparo. Los tiempos de llegada pueden ser leídos
directamente en la pantalla de la unidad de adquisición; o en la computadora, a través de

14
un software especializado, una vez los datos hayan sido transferidos de la unidad de
adquisición al computador. El conjunto de registros como se pueden apreciar en una
impresión realizada desde la unidad de adquisición. Para tener información más detallada
del subsuelo a analizar, se realizan
tendidos de refracción conjugados,
llamados tendido directo, reverso e
intermedio. En el primero el punto de
disparo se ubica en un extremo del
tendido a una distancia conocida,
mientras que en el segundo el punto de
disparo se ubica al otro extremo del
tendido; en el tendido intermedio, el
punto de disparo es colocado
usualmente hacia el centro del tendido. Cuando se van a estudiar terrenos muy extensos,
o cuando se necesita información muy detallada, se acostumbra hacer tendidos
traslapados que permiten modelar mejor la topografía de las discontinuidades.
Las curvas de diferentes puntos de
disparo de un mismo tendido se dibujan
sobre una misma gráfica como se ilustra
a continuación: Curva tiempo – distancia
para disparos directo y reverso 0 0.2 0.4
0.6 0.8 1 1.2 1.4 1.6 1.8 A = 0 10 20 30
40 50 60 70 80 90 100 B = Distancia de A
hacia B (m) 110 Tiempo (s). Cuando se
realizan tendidos de refracción
traslapados, las curvas tiempo – distancia también se dibujan en relación con el traslape
de los tendidos. La distancia crítica16 c x , es
aquella medida entre el punto disparo y el sitio
donde emerge la primera onda refractada en
superficie. Dependiendo de las velocidades de la
capa superior, y del refractor y de la profundidad
a éste, la distancia crítica puede ser o no menor
que la longitud del tendido en observación.
La relación entre el contraste de velocidades de
la primera capa v1 y del refractor v2, versus la
relación entre la distancia crítica c x y la
profundidad h, conocida en inglés como cross
over distance Adaptado de Sheriff & Geldart. A medida que aumenta la relación v2/ v1 la
relación x h c disminuye. Como regla práctica, las longitudes de los tendidos de refracción

15
deben ser mayores que el doble de la profundidad al refractor para observar refracciones
sin interferencias indebidas de las ondas P originales

3.4. SUPOSICIONES DEL MÉTODO


La parte de la física que trata los rayos como líneas es llamada óptica geométrica, y está
basada en las siguientes suposiciones:
a) Los rayos viajan en líneas rectas por el vacío o por un medio homogéneo.
b) Si un rayo se devolviera, seguiría la misma trayectoria hasta el punto de origen.
c) No hay interacción entre rayos, pueden avanzar independientemente.
d) Los rayos siguen las leyes de la reflexión y refracción.
Las ondas sísmicas se propagan como un conjunto de rayos a través de las rocas, los suelos,
o la litosfera en general. La suposición general del método de refracción sísmica es:

 Las velocidades aumentan con la profundidad: el método no permite identificar


capas o estratos de suelo con velocidades inferiores a la superior.

3.5. PRINCIPIOS GENERALES DE INTERPRETACIÓN EN REFRACCIÓN


Una vez construidas las curvas tiempo-distancia (t-x) se procede a su interpretación. La
tarea principal es identificar las secciones de las curvas que pertenecen a un mismo
refractor. El conjunto de puntos que pertenecen a un refractor conforma lo que se conoce
como dromocrona. La identificación de las dromocronas es la parte más importante de la
interpretación de los datos de refracción sísmica. Hay algunas características del subsuelo
que se pueden prestar para malas interpretaciones, a saber:

 Un cambio de pendiente de la curva T-x no significa necesariamente un cambio de


refractor, sino un cambio de pendiente del primer refractor.
 Cuando existe un estrato o una capa delgada de suelo cuya velocidad es menor que
la de la capa superior, no hay refracción crítica, de tal manera que no habría indicios
de su presencia en las primeras llegadas en cada punto de la línea de sísmica.
 Cuando existe una capa demasiado delgada, a pesar de tener velocidades mayores
no alcanza a producir primeros arribos por el hecho mismo de ser tan delgada.
Hay 5 principios (y/o leyes) generales que conforman la base para la interpretación de un
conjunto de datos de refracción sísmica. Dichos principios que se explican a continuación:
a. Leyes de Snell
b. Ley de las velocidades aparentes
c. Principios de reciprocidad.
d. Principio del tiempo de intercepto en el origen
e. Principio de paralelismo

16
4. SÍSMICA DE REFLEXIÓN
Cualquiera sea el soporte de la información, las estrategias de interpretación no varían
mucho. En áreas nuevas, sin pozos, asignar las interfaces reflectivas a ciertos límites
formacionales o secuenciales resulta
sumamente especulativo. Es por esto
que resulta fundamental contar con
datos de acústica y/o sísmica de pozo,
para posicionarse con certidumbre al
menos en esa unidimensionalidad del
sondeo, para después extenderse con
alguna confianza en el espacio bi o
tridimensional que provee la sísmica
disponible. Aun así, suele decirse que
hay tantas interpretaciones como
intérpretes, lo que en verdad no es correcto: hay más.
4.1. Interfaces Reflectoras
Los cambios litológicos de toda índole casi siempre promueven contrastes en las
impedancias, pero hay casos en que esto no sucede. También debe recordarse que, incluso
en el mejor de los mundos, hay ruidos remanentes en las secciones o cubos sísmicos que
podrían propender a interpretaciones erróneas. Y debe recordarse que la escala vertical
normalmente es de tiempos sísmicos, no de distancias z, y entre lo uno y lo otro no existe
una relación lineal. En las cuencas sedimentarias los reflectores tienden a seguir líneas de
tiempo geológico, es decir superficies de sedimentación contemporánea y no
necesariamente las líneas por
cambios en las condiciones del
ambiente sedimentario dentro de un
mismo tiempo geológico, cambiarán
entonces lateralmente las
impedancias acústicas y por tanto la
amplitud y en general el aspecto o
carácter de la reflexión: su amplitud
pero también quizá su frecuencia, y
eventualmente el modo en que se
interfiere con otras reflexiones supra
o infrastantes.
La continuidad lateral mayor o menor resultará de cuán extensas sean las condiciones
sedimentarias en el tiempo geológico dado. Los contrastes verticales, a su vez, serán
indicativos de los cambios en las condiciones de depositación a través del tiempo, sea con
energía estable que resultará en reflexiones débiles por los bajos contrastes de

17
impedancias acústicas, o bien energía cambiante en el medio sedimentario y
consecuentemente reflectores fuertes alterados por la tectónica posterior. De modo que
mapear un reflector es echar luz sobre el final de una larga historia que está bueno intentar
inferir.
Si se quisiera observar el paleorrelieve, a nivel de una definida interfaz reflectora, se
debería poder quitar todos los efectos tectónicos posteriores con algún modelo
razonablemente certero.
Pero una forma de
aproximarse a ese
objetivo es aplanar un
reflector suprayacente
que se vea bien, es decir
ponerlo perfectamente
horizontal, técnica que
se denomina
aplanamiento
(flattening).
Ahora bien, muchas veces los reflectores no siguen líneas tiempo. Pueden corresponder a
líneas-roca cuando existen particulares configuraciones estratigráficas.
4.2. Visualización Estructural
Las precedentes secciones sísmicas verticales se despliegan con orientación
respectivamente ortogonal (S-N) y
paralela (W-E) paralela (W-E) al
arrumbamiento tectónico general de
esa área y se ve claramente la
dificultad de interpretar las fallas e
incluso los niveles guía en la segunda
de ellas. Este es un aspecto a tener
siempre presente: no es lo mismo
mirar estratos, fallas, intrusiones u
otras estructuras en forma ortogonal
que paralelamente a su máxima
inclinación (normal al rumbo). Y resulta
claro por cuál orientación conviene comenzar a interpretar. De hecho, en las secciones
paralelas al rumbo el seguimiento de fallas u otras configuraciones de alto ángulo se
termina ajustando habitualmente a partir de los puntos dados por la interpretación previa
en las secciones sísmicas perpendiculares a ellas (cuyos puntos de cruce se marcan con el
color previamente asignado).

18
4.3. Mapeo de Sísmica de Reflexión
El mapa sísmico básico es el isócrono conformado por curvas de igual tiempo de ida y
vuelta de las ondas sísmicas en sentido vertical. Otra posibilidad de mapeo es la de producir
un plano isocronopáquico pero en magnitud
de tiempo sísmico de ida y vuelta, el cual se
obtiene a partir de la operación de resta
entre dos grillas correspondientes a dos
isócronos previamente elaborados. La
fiabilidad dada por un mapa isócrono o un
isocronopáquico es función, entre otras
variables, de la dimensionalidad de la
sísmica de reflexión registrada
En cambio, un mapa de amplitud muestra la
variación de amplitud sobre una superficie guía, que ha debido ser previamente
interpretada con sumo detalle sobre toda el área de interés en una 3D. Permite visualizar
las variaciones sobre un nivel estratigráfico a través del cambio de sus amplitudes.
El objetivo general de la
interpretación de sísmica de reflexión
es producir un modelo geológico
estructural y estratigráfico que
permita obtener una descripción
detallada con finalidades diversas de
acuerdo al campo de aplicación
considerado.
4.4. RESOLUCIÓN SÍSMICA
La resolución sísmica es un asunto relevante a tener presente.
a) La resolución vertical es el espesor geológico mínimo que podemos identificar y
corresponde a un cuarto de la longitud de onda sísmica (1/4 λ), recordando que λ =
V / f (V es la velocidad y f la
frecuencia a la profundidad
considerada). El ancho
mínimo resoluble o
resolución horizontal resulta
de la zona o radio de Fresnel
y es función del mismo 1/4 λ,
siendo:

19
4.5. INTERPRETACIÓN ESTRUCTURAL

a) Evaluación Geológica General.- si en el área ya se han perforado pozos, puede


hacerse un primer abordaje
tendiente a definir el modelo
estructural. La identificación de
tramos estratigráficos faltantes o
repetidos permite localizar fallas
directas o inversas,
respectivamente. Así se podrán
delimitar los bloques a estudiar
luego con detalle. Es importante
determinar si hubo control
tectónico en los procesos sedimentarios.

b) Correlación Zonal o Regional de Pozos - primero se trabaja en la correlación de los


niveles guía o marcadores en la zona o región, donde se define la posición de las
fallas en los pozos que luego permitirán delimitar los bloques principales que
componen el área. De este modo
los geólogos de subsuelo
consiguen una primera
aproximación del modelo
evolutivo de las fallas en
profundidad.
Luego se procede a la confección
de cortes (cross-sections) zonales
o regionales tanto longitudinales
como transversales a las principales estructuras reconocidas en el área.

c) Correlación Estratigráfica de Pozos - Los geólogos hacen la elección de bloques a


estudiar y secuencias a interpretar
mediante la correlación
estratigráfica: son correlacionadas
todas las arenas, en películas en
escala 1:1000 ó en pantalla,
seleccionando para el control de
esta labor una serie de horizontes
guía locales más otros regionales.
Esta correlación se realiza por grillas
con pozos nodales y control de
cierre Al final pueden hacerse diagramas de paneles.

20
4.6. Carga de Datos
Es una etapa imprescindible antes de la interpretación sísmica. Incluye la carga de:

 planimetría de sísmica y de pozos - archivos SEG Y de la sísmica procesada,


incluyendo sísmica de pozo (los VSP también en formato SEG Y)
 archivos de perfiles geológicos de pozo
 datos geológicos, de los cuales los relevantes son: topes y bases de capas,
espesores útiles y permeables, valores de porosidad medidos por perfil, puntos
de corte de fallas en cada pozo.
 datos de ingeniería de perforación y de terminación, etc.
Adicionalmente, se deben confeccionar los sismogramas sintéticos que hagan
falta.
4.7. Pautas de la Interpretación Sísmica

Lo más conveniente es partir del punto con mejores datos de correlación sísmico-
geológica. En ese lugar elegir
dos o tres reflectores continuos
con importante significación
geológica y/o prospectiva, y
desde ahí ir llevando el picado
o rayado de los reflectores, con
colores y nombres distintivos,
en dirección a algún otro pozo
con atado de datos entre
sísmica y geología, si lo hay.
Durante este avance se van
interpretando las fallas, al
menos las de mayor rechazo en una primera etapa, en general sin asignarles nombres
o números identificatorios o haciéndolo
sólo tentativamente, salvo que se tenga
pronta certeza de cuál es cuál entre
línea y línea. Este progresivo avance del
rayado es conveniente hacerlo en la
sísmica 2D cerrando rectángulos de la
malla, para ir con mayor certidumbre,
dado que si al terminar la vuelta se llega
un reflector arriba o uno abajo del
punto de partida, significa que habrá
que revisar dónde se ha cometido el
error. Con el avance de la

21
interpretación se podrá nominar las fallas, agregar las más pequeñas, rayar reflectores
adicionales y eventualmente recurrir al cálculo y visualización de atributos sísmicos,
etc. Por último, o en forma progresiva, se podrá hacer el grillado y curveo de mapas
isócronos y otros. Para ello deben dibujarse previamente los polígonos de falla en
planta, para cada nivel guía que se desee mapear, de modo que las curvas o contornos
luego se ajustarán al esquema de bloques geológicos interpretado. Como puede verse
en la figura abajo, las fallas directas dejan una franja (polígono alargado) donde no
existe el nivel M mapeado (si es un reservorio delgado, ahí un pozo no lo hallará). En
cambio las fallas inversas causan superposición, la capa se repite y casi siempre se elige
mapear la parte superior (con mayor interés prospectivo) porque los programas no
permiten duplicar el marcador (arriba y abajo a la vez) y el polígono de falla se estrecha
hasta ser una línea gruesa. Queda sin rayar el tramo de marcador bajo el plano de falla
y su contacto con la misma (acá esbozados en trazos a fines didácticos).
La alternativa es mapear cada
bloque por separado (con
distinto nombre de marcador
para cada sector, tipo M1, M2,
etc.) y luego combinar los varios
mapas, resultando así la
superposición de los contactos
de las fallas inversas en los
límites entre ellos.
Sección sísmica mostrando de izquierda a derecha las sucesivas etapas de empleo de
un polígono de correlación. El polígono de correlación (aquí arriba) puede dibujarse en
forma irregular y es un auxiliar informático útil para ver los rechazos a lo largo de fallas
y la correspondencia entre reflectores o conjuntos de ellos. La interpretación de planos
de falla no siempre es sencilla.
4.8. Caracterización Final de los Bloques
Cruce de secciones 2D, atado corregido subiendo a la derecha. Es la comparación y
ajuste del modelo estructural previo –si existiese– o la creación del mismo a partir de
la interpretación hecha desde un mallado de sísmica 2D, o bien de un volumen 3D,
pudiendo desplegarse isócronos y planos de falla en perspectiva con un programa de
visualización en computadora. Se cotejan interpretaciones de líneas 2D de rumbos
apropiados, o bien de secciones en líneas (inlines) y traversas (crosslines) de la 3D con
los cortes creados por correlación de pozos. Podrán entonces corregirse correlaciones
y mapas estructurales hechos sólo con datos de pozos, o bien construirse estructurales
nuevos a partir de los mapas isócronos siempre que se cuente con adecuados
controles de velocidad (relación tiempo-profundidad) en varios pozos
estratégicamente situados en el área mapeada. En este caso lo más recomendable es

22
construir un mapa de isovelocidades a cada nivel de interés (ver Tema 18) y luego
efectuar en cada caso la operación de producto entre grillas: valores de velocidad
multiplicados por valores de tiempo darán valores de profundidad, que entonces se
mapearán como un estructural.
4.9. ENGAÑOS SÍSMICOS (Pitfalls)
La interpretación de secciones de reflexión debe partir de la premisa de que las
imágenes sísmicas que se perciben no son cortes geológicos, ni los isócronos son
mapas estructurales, sino sólo aproximaciones a éstos. Las consecuencias de ignorarlo
son las metidas de pata en las trampas sísmicas.
Cuando se observa una sección vertical
procesada pueden aparecer significativos
problemas si ésta no ha sido migrada, sobre todo
si se trabaja en un área de medios o altos
buzamientos: los reflectores sísmicos no estarán
en su verdadera posición relativa y además habrá
difracciones sobre planos de falla y en toda
geología que presente variaciones laterales
bruscas como muestra la figura colindante, en
cuyo caso se deberá ser cauto y eventualmente
intentar unas pocas migraciones manuales de los
reflectores de mayor interés. Ya casi no hay
sísmica sin migrar para ser interpretada porque
los costos han disminuido mucho y hasta la
sísmica vieja se reprocesa para poder verla
migrada Pero en casos de geología complicada
(faja plegada, intrusiones de complejo emplazamiento, etc.) una migración
convencional puede no ser suficiente y sólo se tendrá alguna certeza de una correcta
interpretación cuando el proceso de migración se C haya realizado antes de
apilamiento (pre-stack).

23
5. SONDEOS ELECTRICOS VERTICLAES

Existen técnicas geofísicas eléctricas o electromagnéticas que miden la resistividad de


los materiales, o en algún caso la conductividad. Algunas de estas técnicas son mas
modernas y mucho más precisas, pero los sondeos eléctricos verticales se siguen
utilizando por su sencillez y la relativa economía del equipo necesario.
El objetivo es delimitar carias capas en el subsuelo, obteniendo sus espesores y
resistividades. En una segunda etapa de interpretación, se intentara identificar el tipo
de roca de acuerdo con el valor de su resistividad.

5.1. Fundamentos de electricidad

a) Carga eléctrica. Campo eléctrico


Una carga eléctrica (positiva y negativa) genera a su alrededor un campo eléctrico
que atrae a otras cargas de signo contrario y repele a las cargas de su mismo signo.
La fuerza con que el campo repele o atrae una carga unitaria se denomina
Intensidad de campo.
b) Potencial
Potencial de un campo eléctrico en un punto es el trabajo que realiza el campo
para repeler una carga de 1 colombio hasta el infinito.
c) Diferencia de potencial
Es el trabajo que hay que realizar para mover una carga de 1 culombio de un punto
a otro con las fuerzas de campo.
d) Superficiales equipotenciales
Son el lugar de los puntos que tienen el mismo potencial. Aunque se trata de
superficies tridimensionales, cuando hacemos una representación en un papel, la
traza de la superficie equipotencial sobre el papel es la línea equipotencial.
e) Flujo eléctrico, intensidad
Si existen cargas eléctricas libres en un campo eléctrico, se moverán empujadas
por las fuerzas de campo. La medida de este flujo de cargas eléctricas es la
intensidad.

f) Resistencia eléctrica, Resistividad, Ley de Ohm


Se demuestra que la intensidad de corriente que atraviesa un cuerpo por unidad
de sección es linealmente proporcional al gradiente del potencial:

24
5.2. Resistividad de los materiales naturales
Los valores de la resistividad en una roca están determinados más que por su
composición mineralógica, por el agua que contienen, fundamentalmente por la
porosidad y por l salinidad del agua(mas salinidad más conductividad). Los valores
varían desde 10-8 en los metales nativos hasta 1015 en micras.
Resistividad de cada tipo de roca presente, encontramos valores de este orden:

 Roas ígneas y metamórficas inalteradas: >1000 Ωm.


 Rocas ígneas y metamórficas alteradas, o fuertemente diaclasadas: 100 a
1000 Ω m.
 Calizas y areniscas: 100 a más de 1000 Ω m.
 Arcillas: 1 a 10 Ω m.
 Limos: 10 a 100 Ω m.
 Arenas: 100 a 1000 Ω m.
 Gravas: 200 a más de 1000 Ω m.

Es importante que en materiales detríticos la resistividad aumenta con el tamaño


de grano. Por tanto, en una investigación hidrogeológica en materiales detríticos,
buscaremos resistividades elevadas que indican los materiales más gruesos, mayor
permeabilidad.

5.3. Dispositivos electródicos


En el trabajo real, los cuatro electrodos se colocan con una estructura determinada, es
lo que se denomina “dispositivo electródico”.
Los más utilizados disponen los
cuatro electrodos alineados y
simétricos respecto del centro,
aunque hay otros dispositivos en
que no están alineados.

5.4. Sondeos eléctricos y calicatas eléctricas


Ya indicamos que si el subsuelo se compone de formaciones de diferentes
resistividades, la medida que realizamos no corresponde a ninguna de ellas, sino que
tendrá un valor intermedio.
Básicamente, existen dos estrategias para deducir la estructura del subsuelo con una
serie de medidas sucesivas de ρa .

25
Esquema simplificado de un
sondeo eléctrico. A medida
que se abre la distancia AB,
aumenta la profundidad de
investigación.

5.5. Realización de un SEV, curva de resistividad aparente

Vamos a referirnos en adelante a sondeos eléctricos realizados mediante el


dispositivo, abreviadamente SEV. Las distancias a las que se sitúan los electrodos
dependen de los objetivos planteados y del modo de trabajo del investigador. Las
distancias se van espaciando de modo que al representarse en escala logarítmica
queden equidistantes.
Los resultados se representan en un gráfico logarítmico: en abscisas la distancia AB/ 2
de cada medida, y en ordenadas la resistividad aparente de cada punto. Esta curva es
la que vamos a interpretar para conseguir los espesores y resistividades de las
formaciones geológicas de la zona en que hemos realizado el SEV.
5.6. Cortes geológicos, Nomenclatura
a) Cortes de dos capas.- solamente pueden presentarse dos posibilidades:
ρ1 > ρ2 y ρ1 < ρ2 , no reciben
nomenclatura especifica.

Si él es espesor de la primera capa es


mayor la curva comenzara a bajar más
tarde, es decir, será necesario abrir
más los electrodos AB para que la
corriente comience a circular por la
capa inferior.

b) Cortes de tres capas


Supongamos que bajo las dos capas del ejemplo anterior existe una tercera de
mayor resistividad. En ese caso,
cuando la curva que vimos
estuviera bajando desde 100 hacia
20, en algún momento comenzara
a subir hacia 600. Esto será debido
a que cuando el flujo electico
circule a suficiente profundidad,
una parte comenzara a atravesar

26
la formación más profunda de
600 Ω m, por lo que el valor
medio que calculemos en
superficie debe aumentar.
Variación de la curva con el
espesor de la segunda capa

c) Corte de cuatro y más capas


Se descompone en intervalos de 3 en 3, dándole la nomenclatura correspondiente
a cada tramos de 3.
Curva de resistividad aparente obtenida
realizando un SEV sobre el corte eléctrico
representado en la figura:

5.7. Interpretación de las curvas de resistividad aparente


Antes de interpretar la curva cuantitativamente se debe razonar cualitativamente
el número de capas y la nomenclatura del corte, siguiendo un proceso similar al
que utilizábamos para explicar:.

27
a) Primera fase de la interpretación consiste en conseguir el corte geológico,
formado por espesores y
resistividades, esto puede
realizare suponiendo la
cura obtenida en el campo
a gráficos patrón o
mediante programas de
ordenados.

b) La segunda fase de la interpretación es convertir el corte geo eléctrico en un


corte geológico. Esta etapa precisa de un conocimiento geológico de la región.

5.7.1. Posibles ambigüedades en la interpretación


A partir de un corte geoelectrico solo se puede obtener una sola curva de
resistividad aparente. El proceso de cálculo teórico de la curva es complejo, se
realiza con ordenador, pero de un corte se deduce una única curva.
El sentido inverso, a partir de una curva de resistividad aparente, y en
determinadas circunstancias podemos interpretar varios cortes geoeléctricos
diferentes

 Resistencia transversal.- es producto del espesor de una capa por su


resistividad
 Conductancia longitudinal.- es el cociente de dividir el espesor de una capa
por su resistividad.
 Principio de equivalencia.- una capa mas resistiva que las adyacente con T
grande y S pequeño, puede producir el
mismo efecto en el SEV que otra capa con
valores diferentes de densidad y E pero con
las misma T. Principio de equivalencia:
pueden generarse curvas muy similares con
diferentes valores de la 2da capa, siempre
que el producto densidad, E sea constante.
 Principio de supresión
Una capa delgada, con una resistividad
intermedia entre las adyacentes (tipos Q y
A y sus combinaciones) puede pasar
desapercibida en la interpretación. La
capa de 2m de espesor y resistividad
intermedia pasa desapercibida.

28
6. Polarización inducida
El fenómeno de la polarización inducida se observa cuando se hace pasar corriente
eléctrica a través de un electrolito que contiene cuerpos o partículas de conducción
electrónica (metales, semiconductores). Por ejemplo, supongamos que se coloca en el
terreno un dispositivo tetraelectródico de corriente continua, sobre una bolsada de mineral
conductor. La conducción iónica corresponde a la roca de caja. Si después de haber
mantenido constante durante algún tiempo, la intensidad I en el circuito de emisión AB, se
corta la corriente, la d.d.p. &V entre los electrodos M N no desaparece bruscamente, sino
que se atenúa gradualmente, con una constante de tiempo del orden de varias decenas de
segundos. Análogo efecto se observa en el establecimiento de la corriente, de modo que la
variación de la tensión \V entre M y; V puede representarse por una curva

6.1. Campo de aplicación


La PI se utiliza principalmente para la detección de minerales de conductividad electrónica,
entre los que figuran la calcopirita, pirita, calcosina, galena, magnetita, pirrotita,
molibdenita, cobres grises, grafito, meta cinabrio, etc... Ciertos minerales raros, no
detectables directamente en razón de sus bajas concentraciones, pueden localizarse si
están asociados con otros más abundantes y que presenten conductividad electrónica. Lo
mismo ocurre con el empleo de la PI para investigaciones hidrológicas Son muchos los
ensayos del laboratorio efectuados para estudiar el fenómeno de la Pl y los factores que en
ella influyen. Como resultado de estos estudios, la idea de poder distinguir unos minerales
de otros por medio de la curva de descarga u otra propiedad análoga, ha quedado
desechada. Tampoco puede determinarse la riqueza de sulfures partiendo de la PI
observada, pues ésta depende no sólo del volumen ocupado por aquellos, sino también del
tamaño del grano. En su aplicación minera, es relativamente grande, y se citan casos en los
que han detectado yacimientos a 100 y hasta 200 m de profundidad.
6.2. Parámetros utilizados para medir la PI
Se han propuesto diversos parámetros para la expresión numérica delas observaciones de
PI. EL más sencillo e intuitivo sería la relación UO/UC siendo Uc, la tensión de "carga", esto
es, la registrada entre los electrodos M y N una vez estabilizada la corriente inductora o de
carga y Uo, la tensión medida entre los mismos electrodos en el mismo momento en que
acaba de desaparecer dicha corriente. Ut, o sea la tensión residual observada entre M y N
en un momento posterior en t segundos a la interrupción de la corriente. Fig.1Curva de
descarga, con los puntos que se utilizan en las mediciones de PI en dominio de tiempos.
Como UT< UC suele expresarse la primera en mili voltios, y la segunda en voltios.
Otros geofísicos, que suelen emplear la segunda denominación, miden ambas tensiones en
la misma unidad, y expresan su relación en forma de tanto por ciento
Existen instrumentos que en vez de determinar el potencial U: en un solo instante, lo
integran (por ejemplo, mediante la carga de un condensador) durante un intervalo At = t2-
t1.

29
La tensión Ut suele medirse en mv y la Uc en V. La magnitud resultante, a
veces denominada cargabilidad. Tiene las dimensiones de un tiempo, y se acostumbra a
expresarla en milisegundos.

Si las mediciones se efectúan sobre un terreno homogéneo, cualquiera de las magnitudes


definidas puede servir como medida de su polarizabilidad verdadera, pero si el medio es
heterogéneo. El resultado de la medición dependerá de la posición de los electrodos
respecto de las heterogeneidades polarizables .Resulta, pues, que los datos de campo
expresan polarizabilidades aparentes, que sólo coinciden con las verdaderas cuando el
terreno es homogéneo en lo que concierne a los fenómenos estudiados.

6.3. Dispositivos electródicos

Los dispositivos más utilizados en la ejecución de calicatas de PI son los siguientes:

a) Dispositivos de gradientes, sobre un solo perfil (calicata Schlumberger) o sobre


varios paralelos
b) Dispositivo trielectródico. medio-SchIumberger o medio-
Wenner,simplecombinando o con dos distancias.
c) Dispositivo dipolar axil.
d) Dispositivo Wenner.

Los datos observados al efectuar investigaciones de PI durante los períodos de carga en el


dominio de tiempo o en la frecuencia menor en el de frecuencias se utilizan para el cálculo
de la resistividad aparente. Es decir, que la ejecución de una calicata o sondeo de PI
lleva implícita la de una medición análoga de resistividades aparentes.
Los dispositivos de gradientes, en especial en la modalidad de bloques, destacan por la
facilidad del trabajo de campo, y por su elevada productividad, que pueden aumentarse
mediante el empleo simultáneo de varios receptor es para un mismo emisor, no se
recomiendan para las mediciones en el dominio de frecuencias exentos de inconvenientes.
Por otra parte el método de bloques no debe emplearse en zonas donde los cuerpos
polarizables son sub horizontales, y los contrastes de polarizabilidad aparecen sobre todo
en sentido vertical. En tales casos, las anomalías de PI son complicadas, y aparecen
anomalías "falsas" en la zona central.
El dispositivo medio Schiumberger, denominado en América "polo dipolo", es sensible al
efecto superficial, puede utilizarse tanto para el dominio de tiempos como para el
de frecuencias. Suele aplicarse con varias distancias simultáneamente. . En ésta como es
sabido, los resultados se atribuyen al punto medio O del segmento MN, mientras que los
citados investigadores lo hacen al centro del
AM, cuando trabajan en el dominio de tiempos, y al del segmento .A 0 si !a prospección se
hace en el dominio de frecuencias dispositivo en la modalidad "combinada" con la
consiguiente mejora de resultados, tanto en PI como en resistividades aparentes. En este
caso, el dispositivo empleado en la práctica difiere del utilizado normalmente para CE.

30
El dispositivo dipolar axil se utiliza sobre todo en el dominio de frecuencias, por causa del
reducido acoplo que en él existe entre los circuitos de emisión y de recepción. Tiene la
ventaja de ser muy adecuado para la prospección por resistividades y el inconveniente de
la pequeñez del campo creado.

Por último, el dispositivo Wenner, sólo utilizable en el dominio de tiempos por causa del
fuerte acoplo entre ambos circuitos, es poco adecuado para la prospección simultánea
por resistividades y presenta, además, el inconveniente de requerir el empleo de cuatro
electrodos móviles para la obtención de una sola curva. Su única ventaja parece ser lo
elevado de la señal recibida. Para los sondeos verticales de PI se utilizan los dispositivos
Schiumberger y Wenner.

6.4. Instrumental
Existen en el mercado diferentes modelos de equipos para PI, bien para eltrabajo en el
dominio de tiempos, bien para su empleo en el de frecuencias. Los procesos de la
electrónica de estado sólido han permitido conseguir, en los últimos modelos importantes
reducciones en peso y volumen, e incluso la fabricación de equipos que pueden trabajar
indistintamente en ambos dominios.
Los primeros instrumentos empleados en el dominio de tiempos producían tensiones muy
elevadas en el circuito emisor, a fin de que la tensión residual de PI no fuese demasiado
pequeña. Se llegaron a utilizar, en zonas difíciles, tensiones de 3000 a 5000 voltios y
potencias de hasta 30 KV.
La forma de onda de la corriente aplicada en los aparatos de dominio de tiempos, se
obtenía cortando e invirtiendo periódicamente, por medio de contactores, la tensión
continua producida por un generador movido por un motor de explosión. En los
momentos de corte, la corriente no se interrumpía realmente sino que era desconectada
del terreno y derivada a una carga supletoria ajustable, de modo que el motor no
experimentaba fuertes variaciones de régimen. El potencial espontáneo existente
entre los electrodos M y N era medido y compensado, con lo que se realizaba una
prospección simultánea por P. E. Las lecturas de I e AV durante el paso de la corriente de
emisión se empleaban para el cálculo de la resistividad aparente. La tensión de
polarización se determinaba usualmente por el método de la integral por carga de un
condensador durante varios segundos, la cual se iniciaba poco después de la supresión de
la corriente en el terreno

6.5. Representación de los resultados


Como en muchos otros métodos prospectivos, en el de PI los resultados de las
observaciones se representan gráficamente en forma de curvas y de mapas. Cuando la
modalidad empleada es de! tipo calicata se trazan curvas de la variación de !a magnitud u

31
magnitudes observadas en función de la distancia sobre el perfil Como es obvio, los valores
de polarizabilidad aparente representados en cada curva deben ser homogéneos, es decir,
que han de corresponder a un mismo tiempo y desde el comienzo de la descarga, al mismo
tiempo de integración, o a idéntico par de frecuencias, según corresponda al método
empleado. En la PI no suelen emplearse escalas logarítmicas, a causa del reducido margen
de variación de las magnitudes observadas, salvo cuando se trata de sondeos de PI, ¡os
cuales se representan del mismo modo que los SEV. Para las observaciones en el dominio
de frecuencias se emplea mucho, un sistema especial de gráficos denominados
pseudo-cortes o pseudo-secciones.
En estos gráficos, los valores observados se representan numéricamente por debajo de una
línea de referencia que representa la superficie del suelo. Usualmente, cada perfil se
estudia con cuatro o cinco separaciones de electrodos, por lo que el diagrama se compone
de otras tantas filas de números, entre las cuales se trazan isolineas. Se suelen trazar dos
diagramas. uno de resistividades y otro de factores metálicos. La finalidad de estos pseudo
corteses representar la distribución, en el plano del perfil, de las magnitudes observadas.
Por otra parte, estos tampoco dan una idea cualitativa correcta; así. Según hace notar
Parasnis, u ensanchamiento de la zona anómala con la "profundidad" , no implica
necesariamente que ello refleje la realidad, puesto que el aumento de la separación entre
electrodos produce el mismo efecto, aunque las paredes de la heterogeneidad sean
verticales

6.6. Interpretación
La interpretación cualitativa de las mediciones de PI consiste fundamental menteep la
búsqueda de anomalías, esto es, de zonas donde e parámetro representativo utilizado
(polarizabilidad o cargabilidad aparentes, efecto defrecuencia, factor metálico) toma
valores que superen en dos o tres veces al menos al valor normal o de fondo observado en
el área que se investiga.

Las anomalías separadas en los diversos perfiles se llevan al mapa de trabajo, donde se
unen las que quedan enfrentadas en perfiles contiguos. No todas las anomalías que, por
efecto de estas operaciones, queden señaladas en el mapa, corresponden a metalizaciones
explotables. Por esta causa, debe efectuarse entre ellas una selección, a fin de escoger las
que parezcan más prometedoras. Para ello debe atenderse no sólo a !a extensión e
intensidad de las anomalías, sino a la información suministrada por otros métodos
geofísicos. Las anomalías escogidas se estudian luego individualmente, para lo que es muy
aconsejable efectuar en el campo un estudio de detalle de cada uno de ellos. Si el
dispositivo que se utiliza es el de calicatas trielectródicas combinadas, el epicentro se halla
bajo el punto de cruce. Si la anomalía es ancha, sus límites se establecen bajo los puntos de
máximo gradiente. Como todos los demás métodos, el de PI está sujeto a efectos
topográficos, por lo que estos pueden distorsionar las anomalías debidas a metalizaciones,
e incluso producir otras causadas exclusivamente por el relieve. Las determinaciones de la
forma aproximada, buzamiento y profundidad del cuerpo pueden efectuarse
por comparación con curvas teóricas.

32
7. Potencial espontaneo
7.1. Introducción
El método del Potencial espontáneo (Self-potencial o Spontaneous potential) es un método
de prospección eléctrica que tuvo sus orígenes en la búsqueda de recursos minerales, si
bien su uso se amplió al mundo de la ingeniería civil y medioambiental, resultando ser una
herramienta eficaz en el análisis de problemas de filtración de aguas en el subsuelo.
Técnica de aplicación generalizada en la década de los 80 y principios de los 90, hoy en día
es una técnica en desuso dadas las prestaciones que nos ofrecen otros métodos en este
ámbito (i.e. Tomografía eléctrica). Sin embargo la sencillez del equipo que precisa así como
la facilidad de implementación en el campo, justifican la descripción de este método.
7.2. Principios teóricos básicos
7.2.1. Potencial electrocinética
El paso de una solución de resistividad eléctrica ρ y viscosidad η a través de un medio
capilar o poroso, puede generar un gradiente de potencial eléctrico a lo largo de la
trayectoria del flujo. Este potencial es lo que se conoce como Potencial electrocinético.
7.2.2. Estudio del potencial en terrenos no consolidados.
En este ámbito destaca el trabajo de Ogilvy [15]. En este estudio se realiza un profundo
análisis de la influencia que tienen sobre el valor del potencial, factores como el
gradiente hidráulico, el tamaño de grano, la permeabilidad, así como la concentración
de sal en un fluido.
7.2.3. Estudio del potencial en medios fisurados.
A diferencia de los terrenos no consolidados, el estudio del potencial en medios
fisurados no ha sido tan amplio. En este sentido destaca el trabajo de Bogolosvsky, en el
que intenta establecer la relación existente entre el potencial y algunos de los
parámetros que definen un material fisurado: la apertura de las fisuras, la existencia o
no de relleno, y la proporción de finos y arenas presentes en el relleno.
7.3. Equipo requerido
Independientemente de la configuración de medida empleada, el equipo básico
requerido es bastante sencillo y consta de:

 unos electrodos
 cable eléctrico
 un carrete para recoger el cable
 un milivoltímetro con el que medir el potencial
En el caso de utilizar la configuración multielectródica se precisa un sistema multicanal de
adquisición de datos, y que el cable eléctrico sea multiconductor. Por otro lado, y dado

33
que en general tendremos la presencia de cierto nivel de “ruido” en nuestra señal de
campo (ver 4.5.2), es prácticamente habitual el uso de un monitor telúrico con el que
medir las variaciones temporales del potencial espontáneo, y evitar de esta forma
confundirlas con las variaciones espaciales de potencial electrocinético.
7.4. Metodología del campo

7.4.1. Tipos de configuraciones en la captura de los datos


a) Configuración del gradiente.

Esta técnica solo precisa 2 electrodos, y se basa en medir mediante el


milivoltímetro, cual es la diferencia de potencial entre los dos electrodos, siendo la
distancia entre ambos invariable. Para ello, en primer lugar definiremos quien es el
electrodo A y B y los uniremos a la terminal positiva y negativa del milivoltímetro
respectivamente. Realizada la primera medida, ahora sin cambiar la polaridad del
dispositivo así como la distancia electródica, procederemos a tomar el resto de
medidas a lo largo del perfil, de forma que el electrodo A ocupe siempre la posición
que ocupaba el B en la anterior medida.
b) Configuración de base fija (o campo total)

Este dispositivo, en el que solo se precisan también 2 electrodos, se basa en colocar


estaciones fijas de medida a lo largo del perfil que previamente hallamos definido.
En el momento de realizar las medidas iremos a una de estas estaciones,
colocaremos un electrodo (será el B) y mediremos el potencial con respecto al
electrodo A, que estará situado siempre en una misma base (denominada base de
referencia), en la que supondremos de forma arbitraria potencial cero.
c) Configuración multielectródica

Esta configuración es similar a la de base fija pero a diferencia de ésta, ahora no


vamos de estación en estación conectando el electrodo B con el de referencia, y
luego medimos, sino que ahora disponemos de un gran número de electrodos, los
cuales ya están todos conectados a la base de referencia mediante un cable
multiconductor. Mediante un sistema multicanal de adquisición de datos, iremos
realizando de forma automática toda la secuencia de medidas, con el espaciado
temporal que nosotros queramos.

7.4.2. Fenómenos que “contaminan” nuestras medidas de potencial


El método del Potencial espontáneo es un método pasivo, dado que simplemente
medimos un potencial eléctrico que ya existe de forma natural en el terreno. Esta
imposibilidad de poder modificar ningún parámetro de estudio (i.e. intensidad,
frecuencia, etc.), y por tanto de intentar separar la señal de nuestro interés del resto,
conllevará que el registro de campo obtenido se vea afectado por una gran variedad de

34
potenciales espontáneos, que perturbarán y enmascararán el potencial de nuestro
interés: el potencial electrocinético. Destacar que el orden de magnitud de éstos
potenciales en muchas ocasiones son similares al del propio potencial electrocinético,
que suele ser de algunas decenas de mV.
7.5. Planificación de la campaña de reconocimiento.
Dada la cantidad de fenómenos que pueden perturbar nuestra señal de campo, en la
planificación será fundamental el garantizar la correcta adquisición de los datos. En este
sentido, la calidad de la información obtenida dependerá de:
1. La configuración de reconocimiento utilizada.
2. La selección del material adecuado así como de su mantenimiento.
3. La capacidad de reconocer posibles fuentes de error en nuestras lecturas de
campo.
4. Las medidas adoptadas a fin de evitar incidentes (fortuitos o por vandalismo) con
los equipos de medida.
Además de estas cuestiones, otros aspectos que deberemos determinar en la
planificación de la campaña de campo son:
1. Número, ubicación y longitud de los perfiles en el terreno.
2. Espaciado entre las estaciones de medida que conforman cada perfil.
3. Localización de la base de referencia (en el caso de usar configuración de base fija
o multielectródica).
4. Periodicidad con la que se tomarán las medidas, a fin de intentar caracterizar y
filtrar las variaciones temporales del potencial espontáneo.
La configuración más usual es la de base fija. Ello conlleva el determinar previamente la
ubicación idónea de nuestra base de referencia, siendo el lugar más adecuado aquel en
donde el valor del potencial espontáneo sea lo más estable posible (alejado de la zona
afectado por el flujo subterráneo). Esta base puede estar situada a gran distancia de los
puntos de medida.
7.6. Procesado e interpretación de los datos
Para cada perfil obtendremos una gráfica, en donde en el eje de abcisas colocaremos
cada una de las estaciones de medida que conformen el perfil, mientras que en el eje de
ordenadas ubicaremos cada uno de los valores del potencial espontáneo medido. Ahora,
nuestro objetivo consiste en detectar y filtrar los diferentes “ruidos” y “errores” que
puedan existir en nuestras medidas, a fin de quedarnos simplemente con las variaciones
espaciales del potencial electrocinético. Su magnitud suele ser del orden de algunas
decenas de mV. Este proceso puede ser muy complicado en zonas de elevado nivel de
ruido (i.e. Cardona).

35
Además de los perfiles, también es muy frecuente confeccionar mapas de isolíneas de
potencial electrocinético, en los que a partir del aumento o disminución relativa del valor
del potencial en el sentido del flujo, podremos caracterizar el problema de filtración en el
subsuelo.
A la hora de interpretar los resultados, la variación exacta del potencial espontáneo en
zonas con presencia de flujos de agua, es una función compleja que depende de aspectos
tales como la sección geoeléctrica, la intensidad del flujo, o la profundidad y geometría de
éste (Wilt and Corwin). Sin embargo en la práctica, y como resultado de diversos estudios
así como de la experiencia acumulada en casos reales, se han observado ciertas
tendencias en el comportamiento del potencial que se usan a modo de reglas en la
interpretación.

36
8. Método de mise a la masse

La puesta en carga de una masa (la mise à la masse) es un método que se le puede considerar
como un caso particular de medidas de potencial. En este caso, uno de los electrodos de
emisión se sustituye por un yacimiento mineral conductor en el cual se inyecta la corriente.
Entonces, el yacimiento actuó más o menos como electrodo. Toda su superficie se situó
sensiblemente al mismo potencial. Este método puede aplicarse en prospección minera.

Principio de puesta a masa, corte en el plano

Es necesario para poder hacer la puesta a masa que:

 La resistividad del conductor sea muy débil y muy inferior a la del entorno.
 El conductor sea continuo.
 El conductor sea accesible por sondeo o afloramiento.

Los cuerpos conductores que se pueden así cartografiar son principalmente los sulfuros de
cobre, níquel y plomo.

La corriente tiende a fluir uniformemente desde el cuerpo conductor a las rocas


circundantes. En condiciones ideales debería existir un potencial uniformemente repartido
en la superficie del cuerpo conductor. En realidad esta distribución es modificada por la
forma del cuerpo, su pendiente, y su contraste de resistividad con la roca encajan te. Cuanto
más elevado es el contraste más uniforme se hace la distribución del potencial sobre la
superficie del cuerpo mineralizado. Cuando el contraste disminuye, la cartografía de la forma

37
del cuerpo es menos precisa y si no existe ningún contraste, se obtiene una distribución de
potencial semiesférica.

Cuando dos cuerpos mineralizados están próximos puede haber un efecto de salto fuga. La
corriente pasa del cuerpo donde se encuentra la fuente de corriente al cuerpo adyacente.
Los voltajes medidos en la parte superior del cuerpo adyacente son menos elevados.

También puede determinarse la pendiente del cuerpo. Los fuertes voltajes están próximos a
la parte superior mientras que las líneas equipotenciales abren hacia la pendiente.

38
9. METODOS ELECTROMAGNETICOS(MEM)
Se presentan los fundamentos de los métodos electromagnéticos, atendiendo básicamente
a las técnicas de adquisición, proceso e interpretación correspondientes al trabajo
realizado. Esto es, a las aplicaciones bajo las aproximaciones de bajos números de
inducción y casi estacionarias a y las técnicas de adquisición de información en el dominio
de la frecuencia.
9.1. Aspectos generales de los MEM

Aunque el desarrollo de la exploración electromagnética es relativamente reciente, sus


orígenes se remontan a los primeros estudios sobre la resistividad de las rocas (1720), al
descubrimiento de la conductividad del suelo (1746) y el descubrimiento de la
polarización espontánea de algunos yacimientos minerales (1815), (Orellana, E., 1973).
Actualmente los MEM, constituyen el grupo de mayor diversidad entre los métodos
geofísicos, tanto en metodología como en instrumentación, resultando conformar
herramientas eficaces para abordar una gran variedad de problemas en el contexto de la
geofísica somera, entre ellos como se ha mencionado anteriormente se destacan el
estudio de aguas subterráneas, la cartografía de la intrusión marina, la detección de
vertidos de contaminantes, la localización de cavidades, y estudios arqueológicos. Bajo
condiciones específicas los MEM, permiten también obtener información a profundidades
del orden de los Km., mediante sistemas de adquisición apropiados como los magneto
telúricos y los métodos inductivos de adquisición aerotransportada.
Las medidas de resistividad para mapeo geológico son utilizadas hace alrededor de medio
siglo, las técnicas de levantamiento se han extendido para algunas otras aplicaciones, las
primeras y más convencionales son los estudios galvánicos, técnica que requiere una
cantidad relativamente alta de mano de obra, lo que eleva los costos de adquisición y
adicionalmente, se sabe que las variaciones verticales y horizontales de resistividad, que
son la base de la interpretación, presentan valores con cierto grado de incertidumbre, lo
que hace que pocas mediciones resulten satisfactorias (McNeill,. 1980).
Un problema adicional inherente a las técnicas galvánicas convencionales es que su
alcance en profundidad, determinado por la configuración del sistema de adquisición,
específicamente por la distancia entre los electrodos, en muchos casos resulta ser inferida
por heterogeneidades resistivas pequeñas comparadas con la profundidad de
investigación, pero localizadas cerca a los electrodos de potencia, lo que puede generar
fluctuaciones significativas en las medidas, Métodos electromagnéticos 28 resultando ser
asimiladas como verdadero ruido geológico porque no es posible determinar el tamaño
físico, el contraste de resistividad o la localización de la fuente. Como resultado de tales
heterogeneidades perfiles realizados a espaciamientos constantes resultan ser ruidosos,
limitando la resolución en términos de las medidas de resistividad, aunque la
instrumentación sea capaz de generar mayor exactitud (McNeill, J.D., 1980).

39
Un análisis de las ventajas y desventajas de la aplicación de métodos resistivos
convencionales para estudios someros, lleva a examinar la posibilidad de aplicar técnicas
inductivas como una alternativa para estudios resistivos, ya que estos permiten adquirir
información mediante un operador u operadores caminando virtualmente sobre el área
de interés, de tal manera que el gran volumen de información promediado da una mejor
resolución a profundidades del orden requerido para aplicaciones típicas tales como:

 Delimitación de las regiones de agua congelada entre poros (permafrost)


 Conocimiento de la extensión de depósitos de grava
 Mapeo de intrusiones salinas
 Detección de cavernas en rocas carbonatadas
 Mapeo de plumas contaminadas en aguas subterráneas
 Mapeo geológico (tipo de suelos, fallas y zonas de falla etc.)
 Exploración arqueológica
 Localización de metales y conductores tipo metálico (McNeill, J.D., 1980)
La versatilidad y gran celeridad en la toma de datos (aspectos que posibilitan el
reconocer extensas áreas de terreno en un corto espacio de tiempo), son las dos:
Caracterización electromagnética, una aproximación a la geofísica somera principales
características de los MEM, además la no necesidad de contacto físico con el terreno (no
precisan electrodos), evitan la generación de ruido instrumental por el contacto galvánico
y permiten incluso el realizar estudios tanto en barco como en avión. Existe una gran
diversidad de sistemas de adquisición, con distintos diseños y formas de operación, sin
embargo todos obedecen a un mismo principio, la inducción electromagnética.
9.1.1. Métodos electromagnéticos inductivos
Los métodos de exploración electromagnética, fueron desarrollados principalmente por
las escuelas suecas y rusas hacia 1920, éstos se basan en establecer un campo
electromagnético variable mediante el flujo de una corriente alterna por una bobina o
un cable largo, denominados transmisor o emisor, el campo generado por éstos es
denominado campo primario.(Chelotti, et al. 2009)
El campo primario induce corrientes eléctricas alternas en cualquier conductor que
encuentre en su recorrido de propagación, particularmente al incidir sobre la superficie
de la Tierra, considerada como un conductor (σ>0), comparada con el aire (σ=0), hecho
que permite asumir que por el contraste de las propiedades electromagnéticas en la
interfase aire-tierra, el campo primario penetra verticalmente el interior del terreno
generando corrientes eléctricas aleatorias, corrientes eddy o remolino, también
conocidas como corrientes de Foucault (Llamadas así por los estudios realizados al
respecto por el Francés León Foucault quien estudio su comportamiento 1850),
(Feyman, 1971). La intensidad de estas corrientes depende fundamentalmente de la
resistividad del conductor y de la frecuencia del campo primario, su intensidad será

40
mayor cuanto menor sea la resistividad del medio y más alta sea la frecuencia del campo
inductor. Las corrientes alternas inducidas en el conductor (tierra) generan a su vez un
campo electromagnético que se opone al campo primario, denominado campo
secundario.
La interacción de los campos primario y secundario es detectada en un circuito eléctrico
localizado en superficie, una bobina o un cable largo, denominado receptor, en general
con características semejantes al circuito inductor o generador del campo primario.

Así, los sistemas de adquisición de los MEM pueden considerarse como la interacción
de tres campos electromagnéticos, el campo primario, el secundario y el observado en
el receptor, de la relación entre el campo primario y el observado es posible inferir
sobre las características o propiedades electromagnéticas generadoras del campo
secundario, esto es de la tierra, entendida como la zona de estudio y comportándose
como un circuito eléctrico
Los MEM se pueden clasificar atendiendo a dos aspectos:
a. La naturaleza del campo electromagnético primario, generado por la fuente
electromagnética, distinguiendo entre los de campo natural (corrientes telúricas u
oscilaciones del campo geomagnético) o artificial que se refiere a fuente
controlada.
b. La configuración del sistema de adquisición caracterizada por el tipo de dispositivos
utilizados como emisor y receptor, la distancia a la que se encuentre el receptor
con respecto al origen del campo primario (fuente) y la frecuencia de emisión-
recepción de las ondas electromagnéticas.

9.1.2. Métodos electromagnéticos de fuente controlada


En cuanto a los sistemas de fuente controlada, además de la generación de pulsos, se
consideran cuatro tipos fundamentales que dependen del tipo de circuito emisor: un
dipolo vertical, un cable largo inductor, una espira horizontal y una espira vertical, como
se ilustra en la Figura 2.2, para el receptor se pueden utilizar los mismos circuitos
resultando 16 posibles configuraciones.

41
En cuanto a la frecuencia de la corriente alterna primaria, ésta se elige de tal manera
que el campo electromagnético inducido, por la presencia de las corrientes edd y en
terreno, resulte significativa en el receptor, se determina de acuerdo a las necesidades,
tanto de posibilidades de penetración como del detalle requerido. Aunque no es
necesario tener contrastes de conductividad muy elevados, si resulta importante no
tener un cubrimiento conductivo cuya respuesta sea muy alta y minimice la de
conductores más profundos. Las mejores condiciones para su aplicación son una
topografía suave y cubrimiento superficial de alta resistividad (Chelotti, l., et.al., 2009;
McNeil, 2002). Desde el punto de vista de la variación de la distancia emisor-receptor se
tienen tres configuraciones posibles (Orellana, 1973):

 Emisor fijo, receptor móvil, denominado método Turam, método que utiliza como
inductor y receptor, cables largos o espiras de gran extensión.
 Emisor móvil, receptor fijo, poco utilizado salvo el reconocido como de inclinación
del campo.
 Emisor y receptor móviles con distancia fija entre ellos, conformados por dos
espiras (emisor y receptor), denominado método Slingram, que es el utilizado en
este trabajo.

En general, estos métodos no determinan cortes geológicos longitudinales sino la


presencia de heterogeneidades conductivas, su aplicación para prospectar áreas
arqueológicas, tienen como objetivo detectar objetos remantes en los suelos o
características de estos, alteradas por actividades humanas en el pasado. El Métodos
electromagnéticos 34 interés en arqueología no es solamente localizar lugares para
excavar, sino para definir áreas evitando excavaciones innecesarias
9.1.3. Método Slingram
El método Slingram, corresponde a unos de los métodos electromagnéticos de fuente
controlada (FDEM), son sistemas que trabajan con un transmisor (TX) y un receptor (RX)
móviles, con distancia de separación fija (s) tipo espira, representado
esquemáticamente. La aplicación del método provee dos tipos de información de la sub-
superficie simultáneamente:

 La conductividad aparente o su inverso la resistividad aparente


 La susceptibilidad aparente
De una o de la integración de esta información, es posible inferir sobre los parámetros
de la fuente, objetos metálicos o zonas de contrate de conductividad y/o susceptibilidad
con el entorno. 35 Caracterización electromagnética, una aproximación a la geofísica
somera:

42
Para construir un sistema de adquisición que de ésta información se requiere de un
apropiado acople entre distintos parámetros tales como la frecuencia de operación, la
distancia entre las espiras y su orientación, además se requiere de una serie de cálculos
que incluyen la geometría del sistema y su calibración, que es ejecutada por el
fabricante y corresponde a las especificaciones técnicas de cada equipo de adquisición.
La forma general de operación del método se sintetiza en tres pasos:
a) A través del transmisor, que es una bobina por la que circula una corriente
alterna sinusoidal de frecuencia f (Hertz); se genera un campo electromagnético
primario Hp, que se propaga libremente tanto por la superficie como por el
interior del terreno. Este campo está formado por una componente magnética y
una eléctrica ortogonales entre sí, y a su vez perpendicular a la dirección de
propagación de la onda.
b) En presencia de un cuerpo conductor, la componente magnética del campo
primario induce corrientes aleatorias (corrientes eddy), que a su vez generan un
campo magnético secundario Hs.
c) Este campo secundario, junto con el campo primario que circula libremente por
la superficie del terreno, serán detectados por la bobina receptora, dando lugar a
un campo resultante, que diferirá tanto en fase como en amplitud con respecto
al campo primario, aspecto que proporciona información acerca del tamaño y
conductividad eléctrica del elemento conductor, la interacción de los campos

43
10. ELECTROMAGNETICOS: HLEM, VLF, EM-34
Los métodos electromagnéticos o métodos eléctricos en corriente alterna se basan en el
estudio del subsuelo a través de los cambios en las propiedades eléctricas y magnéticas de
los materiales que lo componen.

Los métodos EM pueden ser de campo natural o artificial, pueden estudiar con detalle los
primeros metros o alcanzar varios kilómetros de profundidad con menor resolución,
pueden proporcionar información 1D, 2D o 3D del medio,…, son, por lo tanto, muy diversos
y capaces de definir objetivos muy diferentes.

Los denominados electromagnéticos ligeros emplean aparatos relativamente sencillos que


permiten realizar calicatas electromagnéticas de zonas grandes en relativamente poco
tiempo. Proporcionan información en planta de conductividad eléctrica que permite definir
cambios laterales de materiales hasta unas pocas decenas de metros de profundidad. Se
aplican principalmente en arqueología y geotecnia.

Los electromagnéticos profundos, bien sean en el dominio del tiempo o en el de


frecuencias, emplean bucles o dipolos de gran tamaño junto con antenas receptoras de
campo magnético. Su principal aplicación está dentro de la hidrogeología y la minería
metálica aunque por su gran penetración pueden utilizarse en cualquier estudio geológico
profundo. Dentro de este grupo podemos destacar:
 Los sondeos electromagnéticos en el dominio del tiempo (SEDT) permiten obtener
información 1D o 2D de resistividad eléctrica hasta un máximo de un kilómetro de
profundidad.
 Los sondeos magnetotelúricos que proporcionan información 1D, 2D y 3D de
resistividad eléctrica hasta varios kilómetros de profundidad utilizando las
corrientes telúricas naturales. En zonas con ruido se puede emplear una corriente
artificial como fuente alcanzándose menor profundidad de estudio pero con mayor
calidad de medidas (CSAMT – Control Source Audio Magneto Telluric).

44
Por último los equipos electromagnéticos de baja frecuencia o VLF (Very Low Frequency) se
basan en el estudio de ondas de frecuencia entre 10 y 30 Khz. Se emplea principalmente en
geología estructural.

10.1. APLICACIONES
 Prospección de yacimientos metálicos.
 Localización de cuerpos metálicos enterrados.
 Localización de conducciones de agua o de electricidad.
 Localizaciones de plumas contaminantes.
 Vigilancia periódica de acuíferos y de la calidad del agua subterránea.
 Mapas de conductividad lateral y vertical. (intrusiones salinas)
 Localización de contactos, buzamientos, fallas, fracturas geológicas, etc.
 Localización de cavidades.
 Determinación (y caracterización) del recubrimiento.

45
11. METODO GEORADAR
La técnica de prospección georadar permite averiguar, de forma indirecta, la estructura del
subsuelo a partir de la transmisión de impulsos electromagnéticos y de la posterior
recepción de las reflexiones generadas por discontinuidades presentes en el subsuelo. En
términos físicos, la técnica georadar es sensible a todas aquellas variaciones de
conductividad, permitividad eléctrica y permeabilidad magnética que pueden producirse en
un medio, sean debidas bien a cambios litológicos o bien por la presencia de estructuras
enterradas (Daniels, 2004; Conyers, 2004). Concretamente, un equipo georadar consta de
una unidad de control, almacenamiento y visualización de datos conectada a una antena
que emite y recibe la señal electromagnética a medida que ésta se desplaza a lo largo de
una dirección preestablecida.
La técnica consiste en la transmisión en el subsuelo de pulsos electromagnéticos de
duración breve (1-4 ns) y frecuencia elevada (100-2000MHz) que se propagan en
profundidad con una cierta velocidad. Al encontrar una discontinuidad, o una superficie de
separación entre dos medios con características electromagnéticas diferentes, parte de la
energía de los pulsos trasmitidos vuelve
en superficie en la forma de una onda
reflejada que la antena capta.
Típicamente, para cada pulso
transmitido en el suelo, un equipo
georadar registra valores de amplitud
de onda durante un intervalo de
tiempo de algunas decenas de
nanosegundos. En los equipos más
recientes la resolución horizontal
puede alcanzar 1 cm, es decir que el sistema almacena una traza por cada centímetro de
recorrido. Un ejemplo de traza de datos georadar está ilustrado
Aquí, el pico de mayor amplitud es debido a la superficie del suelo mientras que los de
amplitud más reducida se deben a la presencia de discontinuidades ubicadas a profundidad
más elevada. Se entiende que el tiempo de llegada a la superficie de las señales que
vuelven a la superficie está directamente relacionado con la velocidad de trasmisión de las
ondas electromagnéticas en el terreno investigado, y con la profundidad de la
discontinuidad que las ha generado. Por otro lado, la intensidad de la señal recibida F
Ejemplo de traza de datos georadar depende del contraste, en términos de parámetros
electromagnéticos, entre el objetivo interceptado por el georadar y el terreno circunstante.
Debido a que el pulso electromagnético va perdiendo energía a medida que se propaga por
el medio investigado, se produce una disminución general de amplitud de la señal a medida
que aumenta el tiempo de retraso.

46
Por lo tanto, para poder distinguir la presencia de reflectores profundos, es necesario
amplificar oportunamente los datos originales. En la figura se ilustra la misma traza de la
figura 1 tras la aplicación de una curva
de amplificación lineal con respecto al
tiempo. Se observa la presencia de
nuevos picos de amplitud no apreciables
en los datos originales. En función de
factores que en parte dependen de la
instrumentación empleada y en parte de
las características del suelo investigado,
los datos brutos pueden necesitar un
tratamiento ulterior cuyo objetivo suele
ser la eliminación de ruidos que ocultan
la presencia de señales significativas. Típicamente se emplean filtros para la eliminación del
fondo y filtros pasa banda para la eliminación de frecuencias no deseadas.
Traza de datos georadar oportunamente filtrada y amplificada. Los datos de amplitud
almacenados están organizados según perfiles denominados radargramas, es decir que el
mismo equipo se encarga de yuxtaponer todas las trazas registradas a lo largo de un cierto
recorrido. Un ejemplo aparece en la figura, donde el eje horizontal corresponde con la
dirección de
movimiento del
georadar (12m) y el
vertical con la
ventana temporal
durante la cual se el
equipo recoge las
señales que rebotan
hacia la superficie. El
eje de tiempo se
convierte en eje de profudidad tras conocer la velocidad de propagación de las ondas
electromagnéticas en el medio investigado. Por lo dicho un radargrama puede considerarse
como una pseudo-sección de suelo. 6 Las antenas empleadas por los georadares son de
tipo direccional, es decir emiten según una dirección preferencial siendo el haz
electromagnético asimilable a un tronco de cono más o menos cerrado que se abre en
profundidad.

47
Como consecuencia, las radiaciones pueden interceptar objetivos que no están en la
vertical de la antena. Los reflejos generados por ellos llegarán entonces al aparato receptor
con un retraso mayor, apareciendo más profundos de lo que realmente son. En este
sentido, el efecto más
clásico es que un objeto
cilíndrico orientado
perpendicularmente al
perfil, se presenta en el
radargrama con una sección
hiperbólica donde los ramos
ascendiente y descendiente
Figura. Ejemplo de
radargrama filtrado y
amplificado. El eje horizontal
representa la distancia recorrida por la antena emisora/receptora (12 m) y el vertical la
ventana temporal de muestreo de la señal. Éste último se convierte en eje de profundidad
tras determinar la velocidad de propagación de las ondas electromagnéticos son
registrados antes y después del paso de la antena sobre la vertical del objetivo. El
conocimiento de la velocidad de propagación de las ondas electromagnéticas en el medio
investigado es esencial para la conversión de los tiempos de retraso en profundidades. En
lo referente a las antenas de los georadares, las que se usan actualmente suelen ser de tipo
mono-estático (misma posición para loa dispositivos de transmisión y recepción) con
apantallamiento.
Éste es esencial tanto para la recepción de señales “limpias” así como para la seguridad de
los operadores en cuanto a emisiones electromagnéticas. La velocidad puede determinarse
empíricamente, es decir interceptando un objetivo ubicado a profundidad conocida,
mediante técnicas de análisis electromagnético de la señal (hyperbola fitting) o estimarse
en función de las características litológicas del subsuelo.
Valores estimativos de constante dieléctrica y atenuación para diferentes materiales y
litologías y materiales a 100 MHZ (Daniel, D. J., 1996). Tanto la profundidad así como la
resolución de una prospección con georadar dependen de la frecuencia de trabajo, es decir
de las antenas empleadas, y de las características litológicas del terreno investigado. En
general, al aumentar la frecuencia de trabajo crece la resolución y disminuye la
profundidad. Para prospecciones hasta 2- 2.5m de profundidad suelen emplearse antenas
con frecuencia de 400-500 MHz. Frecuencias de 200-250 MHz permiten alcanzar una
profundidad de 4-5 m en 8 condiciones litológicas favorables es decir trabajando sobre
sedimentos secos de granulometría gruesa como arenas o gravas. Las de frecuencia menor
(≤100 MHz) tienen utilidad en aplicaciones muy específicas que tengan como objetivo la
localización de estructuras extensas y profundas (del orden de 6-7 metros). Por último,
existen además antenas de frecuencia muy elevada, 1000-2000 MHz, que se emplean

48
exclusivamente en el marco de estudios de ingeniería civil y de patrimonio artístico, donde
los objetivos son profundidades del orden del decímetro o del centímetro (localización de
armaduras, caracterización de capas de asfaltos, de pinturas y de estucos).
Los parámetros que hay que preestablecer en la mayoría de los georadares son la
constante dieléctrica relativa (ε) y la atenuación. El primero permite calcular la profundidad
de una discontinuidad y está definido por la expresión c2 /Vr2, donde c es la velocidad de la
luz en el vacío (3x108 m/s) y Vr es la velocidad de las ondas electromagnéticas en el medio
considerado. El segundo se expresa en dB/m y representa la reducción de intensidad de la
señal transmitida en el subsuelo por unidad de espacio. La atenuación es una función
compleja de la conductibilidad eléctrica que, en general, controla la profundidad máxima
de penetración que puede alcanzar el georadar en un cierto material. Valores elevados de
atenuación se encuentran en sedimentos de granulometría muy fina, como limos y arcillas,
en materiales cristalinos solubles, metales, soluciones salinas, etc. En cambio, valores bajos
son característicos de rocas cristalinas, gravas, arenas y formaciones detríticas.

49
12. Método magnetotelúrico

12.1. estudios de inducción geomagnética


La interacción entre las fluctuaciones temporales del campo magnético terrestre y las
rocas (eléctricamente conductivas) de la Tierra genera campos internos secundarios,
ambos eléctrico y magnético.
Las mediciones de los campos primarios y secundarios pueden ser usadas para investigar
la estructura de conductividad de la Tierra, sobre profundidades de unos metros hasta el
manto inferior.
La conductividad puede ser usada para inferir las propiedades físicas y químicas de la
Tierra, cosas como temperatura, fundidos naturales, presencia de agua y/o otras volátiles,
tipo de minerales etc. La inducción electromagnética es usada para varias aplicaciones en
la geofísica: entre ellas la exploración de hidrocarburos y campos geotérmicos, la minería,
el monitoreo de aguas subterráneas, estudios de volcanes, estudios de la composición de
la Tierra.
12.2. El espectro temporal del campo

Las variaciones temporales en el campo


magnético terrestre existen en un gran
rango de frecuencias, de las frecuencias
de radio hasta las inversiones del
campo. Los estudios de la inducción
electromagnética solamente pueden
usar los campos que están generados
externamente por la interacción entre el
campo magnético interno y el viento
solar y/o la ionosfera. Para el método
MT, los periodos apropiados son entre
unas semanas hasta ∼1×10 5 Hz. La
figura siguiente muestra un espectro
(aproximado) para el campo magnético
terrestre (para obtener un espectro de
potencia, dobla los exponentes y cambia
los unidades a T 2 /Hz). En periodos
menor que un año, las variaciones en el
campo son dominadas por fuentes
externos.

50
12.3. El ambiente electromagnético de la tierra
La ionosfera y la Tierra son
separadas por una cavidad de
atmósfera. Esta cavidad
atmosférica se excita por
relámpagos, y resuena con una
frecuencia característica de ∼8 Hz
(la resonancia de Schumann).
Energía electromagnética artificial,
como el ruido de cables eléctricos
y señales de radio, también se
propaga en esta cavidad. La
variación diaria es asociada con
corrientes Sq en la ionosfera,
porque su intensidad varía entre el
día y la noche. Las tormentas
eléctricas, asociadas con la actividad solar, cambian la intensidad de la corriente del anillo
y causan variaciones en el campo externo en la escala de tiempo de horas a días. La
corriente del anillo también tiene variaciones debido a la rotación del Sol (27 días), la
órbita de la Tierra y el ciclo solar de 11 años. Las pulsaciones en el campo magnético,
causadas por la interacción compleja entre el viento solar y la magnetosfera, varían con
una escala de tiempo de ∼1 segundo a unos cientos segundos.
12.4. Índice Dst
El índice Dst (disturbance storm time) mide la intensidad de la corriente del anillo. La
figura muestra el índice Dst entre 1979 y 1998. Grandes negativas son debidas a las
tormentas magnéticas individuales. También el flujo radio solar (10.7 cm) se muestra en
el imagen.

51
12.5. Conceptos

a) Sondeo geomagnético
Uno de los conceptos claves en la teoría de la inducción electromagnética es lo de
la profundidad superficial (skin depth). Esa es la distancia vertical que los campos
electromagnéticos pueden penetrar dentro de la Tierra.

Podemos derivar la profundidad superficial usando las leyes de Faraday y Ampere


(ignoramos la corriente de desplazamiento, porque no es significativa a las
frecuencias y conductividades en la inducción geomagnética).

b) La profundidad superficial: Ahora, si consideremos campos que varían


sinusoidalmente en tiempo a una frecuencia angular ω

12.6. Caso general

Las mediciones tomadas son series de tiempo de los campos eléctricos y magnéticos,
usualmente en dos direcciones ortogonales. El procesamiento de datos MT es para
obtener la coherencia entre estas señales en el dominio de frecuencia.

52
12.7. Equipamiento

12.8. Datos
La duración de la medición depende de la profundidad a que uno quiere investigar.
Típicamente:

53
1. Cerca la superficie, 1 × 105Hz - 100Hz. Se registra por unos minutos.
2. Corteza, 100Hz - 1000s. Se registra por unos días.
3. Manto, 1s - 30000s. Se registra por unas semanas.

12.9. Procedimiento

a) Cortar el registro en unos segmentos (que traslapan) de un cierto largo que


depende en el periodo más largo que se necesita.
b) Multiplicar cada segmento por una función de Hanning (un “taper”) para atenuar
sus lados a cero.
c) Aplicar la transformada de Fourier para cada segmento.
d) Calcular el auto espectros y los espectros cruzados para cada segmento.
e) Calcular la impedancia asociado con estos espectros
f) Estimar el error tomando el promedio de todos los segmentos.
 El espectro cruzado describe como actividad común entre dos procesos
está distribuida en el dominio de la frecuencia.
 Cuando se calcula el auto espectro, el ruido en B lleva un sesgo en la
calculación de < B†B >. Entonces se puede tomar una segunda medición
del campo B′, suficientemente lejos para que el ruido es independiente
pero suficientemente cerca para que el señal magnético en la atmósfera es
coherente

54
13. RADIOMETRIA
13.1. Aplicaciones
 La presencia de sustancias radioactivas en la rocas puede ser utilizada en la búsqueda de
yacimientos minerales de los elementos radioactivos como uranio, torio y potasio, además
se usa para detectar minerales de interés económico asociados con dichos elementos.
 La búsqueda de uranio ha sido el objetivo principal de la prospección radioactiva ya que el
uranio es el combustible principal para la energía atómica. El torio a su vez es un combustible
nuclear potencial, pero en la actualidad no hay demanda del mismo para esta finalidad.
 El hecho que las distintas rocas contengan diferentes cantidades de elementos radioactivos
permite que el método radioactivo se pueda usar en cartografía geológica.

13.2. Funcionamiento
Las mediciones radiométricas se pueden efectuar mediante prospección aérea o terrestre.
En exploración aérea Geodatos utiliza un espectrómetro de rayos Gamma Radiations
Solutions Inc. RS500, de 16 lts hacia abajo y 4 lts hacia arriba, con un muestreo de 1 lectura
cada 1 segundo. En exploración terrestre Geodatos cuenta con un espectrómetro de mano
Radiations Solutions Inc. RS-230 BGO. Este espectrómetro permite realizar mediciones
confiables de Cuentas Totales, Torio, Potasio y Uranio, calculadas internamente a partir de
espectros de rayos Gamma registrados a lo largo de un período mínimo de 30 segundos.

13.2. Resultados
La radiometría proporciona información sobre los contenidos superficiales de los isótopos
radioactivos naturales del 40K, 235U, 238U y 232Th, suministrando una imagen del terreno de
alta calidad y correlación con la cartografía geológica. Geodatos realiza la reducción y
proceso de datos mediante el software Oasis Montaj, los resultados son mapas con las
concentraciones de Cuentas Totales, porcentaje de Potasio, ppm de Uranio y Torio.

55
14. TOMOGRAFIA GEOELECTRICAS

Se trata de un método de prospección geoeléctrica consistente en la medición de


resistividades aparentes de los materiales del subsuelo permitiendo obtener un perfil o
pseudosección en 2D (longitud x profundidad). En lugar de ir desplazando los electrodos
cada vez que se toma una medida (SEV convencional), se colocan entre 25 y 50 electrodos
en la superficie del suelo de una sola vez.
Las aplicaciones de este método son las siguientes:

MEDIO AMBIENTE
 Detección de plumas de contaminación
 Caracterización de vertederos
OBRA CIVIL
 Detección de cavidades Servicios enterrados
 Resistividades Geoeléctricas del subsuelo
 Corrientes Telúricas
GEOLOGÍA, HIDROGEOLOGÍA Y ARQUEOLOGÍA
 Estratigrafía del terreno
 Localización del nivel freático
 Detección de estructuras geológicas
RECURSOS NATURALES
 Evaluación de reservas de áridos
 Evaluación de yacimientos de rocas ornamentales
 Evaluación de otros yacimientos.

56
15. FOTOGRAMETRIA Y TELEDETECCION

La aparición de la Tomografía eléctrica ha supuesto un salto cualitativo espectacular con


respecto a los métodos de resistividad convencionales, técnicas que aunque se han estado
utilizando durante varias décadas en estudios de filtración de agua, su limitada resolución 2-
D les confería en general un papel secundario frente a otras técnicas (i.e. Potencial
espontáneo). Este avance se debe fundamentalmente a dos razones:

• En primer lugar porque estos métodos convencionales solo utilizan 4 electrodos, siendo
necesario para cada medida variar manualmente sus posiciones en el terreno (proceso
relativamente lento y pesado). En cambio el método de Tomografía eléctrica es una técnica
multielectródica, en el que todo el proceso de adquisición de datos está totalmente
automatizado.

Esto nos permitirá poder realizar un gran número de medidas, tanto en profundidad como
lateralmente, en un breve espacio de tiempo (del orden de 500 medidas en una hora y
media), obteniendo por tanto modelos 2-D de gran resolución.

• En segundo lugar porque el empleo de técnicas numéricas nos permitirá poder procesar
eficazmente todo este gran volumen de información.

15.1. OBJETIVO DEL MÉTODO.


El objetivo de este método se basa en obtener una sección 2-D de resistividades reales del
subsuelo, modelo a partir del cual podremos determinar la presencia o no de filtraciones
de agua en profundidad, mediante la localización de áreas en donde tengamos una
disminución anómala del valor de la resistividad del terreno.

Para ello será preciso el empleo de un programa de inversión, con el que transformar las
resistividades aparentes obtenidas de la campaña de campo, a valores de resistividad real.

57
16. GEOQUIMICA

La geoquímica estudia el origen, distribución y evolución de los elementos químicos en la


Tierra, contenidos en los minerales formadores de las rocas y en los productos derivados de
ellas, así como en los seres vivos, el agua y la atmósfera. Uno de los objetivos de la
geoquímica, es determinar la abundancia de los elementos en la naturaleza, ya que esta
información es básica para desarrollar hipótesis sobre el origen y la estructura de nuestro
planeta y del universo. Los elementos y la Tierra Un elemento es materia que posee una clase
concreta de átomo con estructura electrónica y carga nuclear específica, factores que
condicionan su abundancia en las rocas. Respecto a su distribución, solamente se tiene
evidencia directa sobre la composición de la corteza terrestre e indirecta sobre la del manto
y núcleo. El conocimiento actual sobre la naturaleza geoquímica de la corteza proviene del
análisis de roca y de datos geofísicos. De acuerdo con estos análisis, el oxígeno es el principal
elemento de la corteza con el 47% por peso y el 94% por volumen; en segundo lugar está el
silicio, con 28% por peso, pero menos de 1% en volumen. Por otra parte, los metales
constituyen un yacimiento mineral de importancia económica cuando su contenido
promedio está concentrado. Por ejemplo, el hierro y el aluminio, que son de los más
abundantes, deben concentrarse entre 4 y 5 veces, el cobre 80, el platino 600, la plata 1,250,
el oro cerca de 4,000 y el tungsteno y mercurio, que son de los más escasos, deben estar
concentrados más de 10,000 veces para ser minables con rendimiento económico.

58
17. GEOBOTANICA Y GEOBIOLOGIA

17.1. GEOBOTANICA
La geobotánica, o fitogeografía, o geografía vegetal, es la "ciencia de la vegetación" que
estudia la relación entre la vida vegetal y el medio terrestre, o, en otros términos, "la ciencia
que estudia el hábitat de las plantas en la superficie terrestre".También estudia la
distribución de los vegetales sobre la Tierra, analiza sus áreas de distribución y sus
características así como las causas que las condicionan y las leyes a las que responde.

18.1.1. Objetivos Fundamentales de la Geobotánica

 Composición, estructura y distribución espacial (Geobotánica estructural y anatómica de


la vegetación), tanto en su vertiente cuantitativa como cualitativa.
 Función, productividad, ciclos biogeoquímicos (Geobotánica funcional).
 Factores mesológicos: clima, suelo, etc. (Ecología).
 Sucesión y ontogenia (Sindinámica).
 Origen, historia y transformaciones (Paleogeobotánica, Epiontología).
 Distribución territorial (Biogeografía o Corología).

17.2. GEOBIOLOGIA
La geobiología es un campo científico interdisciplinario que explora las interacciones entre la
vida y el ambiente fisicoquímico de la Tierra. También puede definirse como un estudio
interdisciplinario entre las ciencias de la vida y las ciencias de la Tierra. Guarda importantes
similitudes con la biogeología, pero esta última tendría un ámbito más restringido. Los
investigadores implicados en la geobiología pertenecen a campos como la geoquímica y
la biogeoquímica, la mineralogía, la sedimentología, la climatología y la oceanografía,
la edafología, la paleontología, la microbiología, la fisiología y la genética, la ecología y en
general a todas aquellas especialidades geológicas en las que es importante comprender la
influencia de los seres vivos, y aquellas especialidades biológicas o ambientales en que está
implicado el ambiente físico.

59
17.2.1. Campos de estudio
En la interfaz o límite entre las ciencias de la vida y las de la Tierra, la geobiología coincide
con las ciencias ambientales, situando específicamente su objeto en la influencia de los
seres vivos sobre el sistema Tierra, y en los condicionamientos que los procesos físicos del
planeta le ponen al desarrollo evolutivo y ecológico de la vida. Un caso ejemplar de un
problema geobiológico es el de la evolución de la composición de la atmósfera terrestre al
compás de evolución de los tipos de metabolismo, por ejemplo con su conversión en una
atmósfera oxidante bajo la influencia de la fotosíntesis oxigénica «inventada» por
las cianobacterias.

60
18. TESTIFICACION EN SONDEOS (PERFILAJE DE POZOS)

La testificación geofísica para sondeos de agua es una técnica que se viene utilizando en
España desde la década de los setenta. Aunque hoy en día, se siguen empleando algunos
de los parámetros que se utilizaban en esa década (gamma natural y potencial
espontáneo), la incorporación de otros, ya de forma sistemática o especial, hacen que
actualmente lleguen a utilizarse más de 12 parámetros, según la problemática planteada.

En el presente trabajo se
sintetizan las aplicaciones más
importantes de las diagrafías
en Hidrogeología, y se plantean
ejemplos de aplicación de las
diagrafías convencionales, de
las especiales (neutrón-
neutrón, sónicas y de
temperatura) y de las utilizadas
para reconocimiento y
mantenimiento de sondeos de
agua (ROVT, RF y RQ-F).

TESTIFICACIÓN ESPECIAL.

Las técnicas más importantes son:

 Sónico (L.S).
 Neutrón-Neutrón (N-N).
 Temperatura (T)

61
19. METODOS GEOFISICOS EMERGENTES

Una de las herramientas más importantes en la exploración del subsuelo, son los registros
geofísicos de pozo, cuyo objetivo final es la localización y evaluación de yacimientos naturales
como pueden ser agua, gas, petróleo, geotérmicos y mineros.

19.1. Consideraciones

Para realizar dichas evaluaciones se requiere de ciertas consideraciones para poder


interpretar de manera cuantitativa un pozo y así determinar un análisis del yacimiento con:

 Litología.
 Identificación de zonas productoras.
 Profundidad y espesor de zonas productoras.
 Interpretaciones de características y contenido del yacimiento.

La primera consideración depende de la comprensión de las características básicas de las


rocas, donde su evaluación primaria se basa en su carácter petrofísico. La segunda
consideración necesita completamente de las condiciones del pozo debido a que existen
varios factores que determinan el espesor de invasión del lodo de perforación, estos factores
indican diferentes diámetros de invasión los cuales son importantes a tomar en cuenta en la
interpretación del registro.

Existen varias herramientas para tomar registros de pozos, cada una mide propiedades
diferentes de las rocas y todas se visualizan como una representación gráfica a profundidad,
se necesita de un análisis especial para poder realizar una interpretación correcta de los
datos.

62
20. EL PID (Photo Ionization Detector) Y EL IR (Infra Red Analyzer)

PID (Photo Ionization Detector) Mide los cambios de señal que generan los analitos cuando
son ionizados por una lámpara de luz ultravioleta. Este genera una idea del grado de
contaminación pudiendo detectar el nivel total de Compuestos Orgánicos Volátiles (VOCs),
otros Hidrocarburos derivados del Petróleo y gases tóxicos (incluyendo hidrocarburos
clorados), en órdenes de magnitud por debajo de los ppb.
Dentro de las características más resaltantes del PID se encuentran: Límites de detección: 2
rangos (0.1 ppb - 3000 ppm) (0.1 ppm - 4000ppm) Estabilidad del cero de 0.05ppb Tiempo
de respuesta: 0.08 seg; intervalo de muestreo: 10/s Resolución en ordenes de los ppb,
opción de valores pico o integrados Indicación de la porosidad del suelo y su permeabilidad
Calibración automática para determinaciones cuantitativas de fases gaseosas para cerca de
200 compuestos Respuesta cero para el metano en el PID (CH4 es medido separadamente
por la unidad IR) Amplio rango de acción: 0.1ppb-4000ppm Bomba de succión de
alta potencia diseñada específicamente para suelos Opción de medida en unidades como
ppm o mg/m3 (ppb o µg/ m3)
IR (Infra Red Analyzer) Es un instrumento usado para monitorear ciertas especies en
muestras de aire, ya que ciertas moléculas cuando absorben radiación infrarroja se
calientan y emiten longitudes de onda características en el infrarrojo lo cual permite su
identificación. El IR presenta 4 canales selectivos para la determinación de Metano,
Hidrocarburos del Petróleo y CO2 con resolución del orden de ppm

Cuenta con las siguientes características Metano: 0-500.000ppm, Límite de Detección:


20ppm Hidrocarburos del Petróleo: 0-500.000ppm, Límite de Detección: 20ppm Dióxido
de Carbono: 0-500.000ppm, Límite de Detección: 20ppm Tiempo de respuesta: 0.5 seg;
taza de muestreo: 10/s

63
CONCLUSIONES

Se logró entender los diferentes métodos citados anteriormente concluyendo que estos
métodos nos proporcionan informaciones sobre la composición del subsuelo mediante
alguna propiedad física medida a partir de la superficie terrestre, que puede ser la
velocidad de una onda mecánica, o variaciones de un campo gravitacional producidas por
diferencias de densidad, o la intensidad de una corriente asociada a la mayor o menor
facilidad de propagación de las cargas eléctricas. Los métodos ofrecen una forma de
obtener información detallada acerca de las condiciones del suelo y rocas del subsuelo.
Esta capacidad de caracterizar rápidamente las condiciones del subsuelo sin perturbar el
sitio ofrece el beneficio de costos más bajos y menos riesgo, dando mejor entendimiento
general de las condiciones complejas del sitio. Es necesario a menudo utilizar más de un
método para lograr obtener la información deseada.

Se estudió los conceptos teóricos basados en la física y matemática, que son necesarios
para la interpretación de los equipos, para la obtención de datos.

Los datos obtenidos debe ser corregidos e interpretados, aquí se presenta la importancia
de la experiencia, una buena interpretación dan buenos resultados, pero cada interprete
tiene diferente interpretaciones.

El uso correcto de los equipos es importante para obtener buena información, es la parte
inicial, una mala toma nos darían pésimos resultados y pérdida de tiempo.

Se sabe que todos los métodos tienen diferentes características, por lo tanto no todos
pueden ser utilizados en una misma área, entonces se tiene conocimiento en que área cada
método puede ser el mejor para la obtención de datos y gráficas.

64
BIBLIOGRAFIA

 monografias.com (metodos-geofisicos)
 Que es la Geoquímica gob.mx
 López, Ernesto. (2004). Geología general y de México. México, Trillas
 www.geovirtual2.cl
 www.geonica.com Equipos-GEOFISICA Prospección-Electromagnetica-VLF
 SlideShare (Metodos Geofisicos)
 www.geodatos.cl/ip.php
 catedras.fcaglp.unlp.edu.ar/geofisica/metodos-electricos-de-
prospeccion/teoria-1/polarizacion-inducida
 Ecured (Gravimetria)
 La Exploracion Geofisica del Subsuelo – Norberto Gella y Juan Bruggen

65