Академический Документы
Профессиональный Документы
Культура Документы
FACULTAD DE INGENIERIA
INGENIERIA PETROLERA
PROSPECCION GEOFISICA
METODOS GEOFISICOS Y SUS APLICACIONES
NERCY KAREN, LIMACHI QUISPE
28 DE SEPTIEMBRE
1
1
OBJETIVO
3
INTRODUCCION
Los métodos geofísicos son pruebas realizadas para la determinación de las características
geotécnicas de un terreno, como parte de las técnicas de reconocimiento de
un reconocimiento geotécnico.
Intentan evaluar las características del terreno basándose en la medida de ciertas
magnitudes físicas tomadas generalmente en la superficie del terreno.
Si las características de los terrenos son tales que las magnitudes físicas medidas son
bastante diferentes entre sí, es posible localizar los contactos entre las distintas capas de
terreno. Sin embargo, esto no siempre sucede así, por lo que estos métodos tienen serias
limitaciones.
No obstante, gracias a su rapidez y economía, están especialmente indicados para
investigar áreas extensas o alineaciones de gran longitud entre sondeos que se encuentren
alejados, y de esta forma poder interpolar los resultados obtenidos en las prospecciones
extremas, o establecer, en su caso, la necesidad de realización de sondeos intermedios.
Los métodos geofísicos deben ser considerados siempre como métodos complementarios
de reconocimiento, debiendo estar acompañados por prospecciones directas como
sondeos, y los datos obtenidos mediante estos sistemas refrendados y contrastados por los
resultados de dichos sondeos.
Los trabajos de campo e interpretación de las medidas deben estar realizados por personal
altamente cualificado y con experiencia en la ejecución y procesamiento de resultados.
4
1. GRAVIMETRIA
Los datos reducidos apropiadamente entrega las variaciones en la gravedad, que solo
dependen de variaciones laterales de la densidad del material ubicado en la vecindad
de la estación de observación.
1.1. Gravímetro
Es un equipo que puede medir diferencias muy finas de la gravedad, cada balanza es
un gravímetro, porque mide el peso (potencia que aplica la aceleración) de un objeto.
5
1.2. Principio
a. Calibración
b. Reducción para la deriva del gravímetro
c. Reducción de la influencia de las mareas
d. Corrección para la latitud
e. Corrección para la altura
6
f. Corrección topográfica
g. Corrección por la losa de Bouguer
7
2. MAGNETOMETRÍA
Es como la gravimetría, método geofísico relativamente simple en su aplicación. El
campo magnético de la tierra afecta también yacimientos que contienen magnetita
(Fe).
Estos yacimientos producen un campo magnético inducido, es decir su propio campo
magnético. Un magnetómetro mide simplemente las anomalías magnéticas en la
superficie terrestre, las cuales podrían ser producto de un yacimiento.
2.1. Principio
La tierra genera un campo magnético en el rango de aproximadamente 0,30000 a
0,65000G (= Gauss, o Oersted). Este campo se puede comparar con el campo
correspondiente a un dipolo (como un imán de barra) situado en el centro de la Tierra,
cuyo eje está inclinado con respecto al eje de rotación de la Tierra. El dipolo está
dirigido hacia el Sur, de tal modo en el hemisferio Norte cerca del polo Norte
geográfico se ubica un polo Sur magnético y en el hemisferio Sur cerca del polo Sur
geográfico se ubica un polo Norte magnético. Por convención se denomina el polo
magnético ubicado cerca del polo Norte geográfico polo Norte magnético y el polo
magnético situado cerca del polo Sur geográfico polo Sur magnético. El campo
geomagnético no es constante sino sufre variaciones con el tiempo y con respecto a su
forma.
La imantación inducida depende de la susceptibilidad magnética k de una roca o de un
mineral y del campo externo existente.
La imantación remanente de una roca se refiere al magnetismo residual de la roca en
ausencia de un campo magnético externo, la imantación remanente depende de la
historia geológica de la roca.
8
2.2. Aplicación
2.3. Magnetómetros
la brújula de inclinación
la superbrújula de Hotchkiss
el variómetro del tipo Schmidt
el variómetro de compensación.
El 'flux-gate-magnetometer' se basa en el principio de la inducción
electromagnética y en la saturación y mide variaciones de la intensidad
vertical del campo magnético.
9
2.4. Realización de mediciones magnéticas en el campo y correcciones necesarias
para las mediciones magnéticas
Estas variaciones, que no están relacionadas con un depósito mineral con un cierto
contenido en magnetita por ejemplo superponen los valores medidos. Por esto se
debe corregir los valores medidos. La variación diurna se corrige repitiendo la
medición de la variación de la intensidad vertical en una estación de base en intervalos
de tiempo regulares desde el principio hasta el fin de la campaña de medición. Los
valores medidos en la estación de base se presentan en función del tiempo, que
permite calcular el valor de corrección correspondiente a cada medición en una
estación de observación. Los valores reducidos se presentan en perfiles y/o mapas.
10
3. SÍSMICA DE REFRACCIÓN
En este método se mide el tiempo de propagación de las ondas elásticas, transcurrido
entre un sitio donde se generan ondas sísmicas y la llegada de éstas a diferentes puntos de
observación, donde una serie de sensores en línea recta a distancias conocidas, formando
un tendido sísmico o línea de refracción sísmica.
A una distancia conocida del extremo del tendido, en el punto de disparo, se generan
ondas sísmicas, con la ayuda de un martillo o por la detonación de explosivos, las cuales
inducen vibraciones en el terreno que son detectadas por cada uno de los sensores en el
tendido.
El equipo básico consiste:
Los sensores
La unidad de adquisición, donde se almacenan los movimientos del terreno.
Los cables de conexión entre los sensores y la unidad de adquisición
el cable del trigger, se encarga de marcar el momento de inicio de registro.
En cada sensor se tiene información de los movimientos del terreno en función del tiempo
y son conocidos como sismogramas, que son analizados en la refracción sísmica para
obtener el tiempo de llegada de las primeras ondas a cada sensor desde el punto de
disparo, y en la reflexión para obtener información de las ondas que son reflejadas en las
diferentes interfaces de suelo, para lo cual es estudiado el sismograma completo.
11
éstas empiezan a viajar por el medio superior
conformando unos frentes de onda en el
espacio. Modelo de dos capas, la inferior de
mayor velocidad Al hacer un corte vertical
por el punto de disparo, el frente de ondas
luciría como se ilustra Dicho frente se
conocen como frente de ondas directas.
En la parte d), de la figura, ha pasado aún más tiempo desde el momento de disparo, y
los 4 frentes de onda se diferencian claramente. Adaptado de Boyd, 1999.
Propagación de las ondas en un medio de dos capas. El frente de ondas refractadas
hacia el medio superior se genera cuando los rayos provenientes de la fuente
alcanzan en ángulo crítico, la
interfaz entre los medios.
La refracción a 90º del ángulo crítico,
implica que las ondas no se propagan
por el contacto entra ambas capas con la
velocidad v2 de la capa inferior,
siguiendo la ley de los recorridos
mínimos o Principio de Fermat.
12
3.1.1. Fenómenos en la propagación
Cuando el medio en que se propagan las ondas sísmicas no es homogéneo, se producen
los fenómenos de difracción, dispersión y scattering.
a) Difracción.- desvío de los rayos, en cierta extensión, ocurrido cuando se limita
parte del frente de ondas.
b) Dispersión.- variación de la velocidad de una onda con el cambio de frecuencia.
En un medio elástico homogéneo no hay dispersión, pero si la hay en un medio
imperfectamente elástico como en la tierra.
c) En refracción sísmica no hay evidencia de que exista dispersión apreciable,
excepto cuando se usan explosivos en inmediaciones de la explosión.
d) Scattering.- formación de pequeñas ondas que propagan la energía en todas las
direcciones. Se produce cuando un frente de ondas choca con partículas libres u
objetos pequeños comparados con su longitud de onda.
La disminución de la energía sísmica con la distancia, causada por los tres fenómenos
explicados, va acompañada de pérdidas debidas a la absorción de la energía, produciendo
amortiguamiento.
13
modelar mejor las llegadas y suprimir el ruido, también se utilizan otros
medios mecánicos, por ejemplo dejando caer un gran peso de una altura de 2
– 3 metros. La energía asociada con cada uno de los golpes depende la energía
cinética (E) que relaciona la masa del martillo (m) y la velocidad aplicada al
martillo (v), obteniendo E = m*v2.
b) Cargas explosivas.- de mayor energía, son usadas especialmente para
prospección petrolera. La explosión puede ocurrir en un tiempo de micro a
milisegundos, dependiendo de la naturaleza y cantidad del explosivo y, del
material que rodea sitio de explosión
c) Disparos.- se utilizan balas o cartuchos de fogueo, la energía es mayor que la
generada por martillo.
14
un software especializado, una vez los datos hayan sido transferidos de la unidad de
adquisición al computador. El conjunto de registros como se pueden apreciar en una
impresión realizada desde la unidad de adquisición. Para tener información más detallada
del subsuelo a analizar, se realizan
tendidos de refracción conjugados,
llamados tendido directo, reverso e
intermedio. En el primero el punto de
disparo se ubica en un extremo del
tendido a una distancia conocida,
mientras que en el segundo el punto de
disparo se ubica al otro extremo del
tendido; en el tendido intermedio, el
punto de disparo es colocado
usualmente hacia el centro del tendido. Cuando se van a estudiar terrenos muy extensos,
o cuando se necesita información muy detallada, se acostumbra hacer tendidos
traslapados que permiten modelar mejor la topografía de las discontinuidades.
Las curvas de diferentes puntos de
disparo de un mismo tendido se dibujan
sobre una misma gráfica como se ilustra
a continuación: Curva tiempo – distancia
para disparos directo y reverso 0 0.2 0.4
0.6 0.8 1 1.2 1.4 1.6 1.8 A = 0 10 20 30
40 50 60 70 80 90 100 B = Distancia de A
hacia B (m) 110 Tiempo (s). Cuando se
realizan tendidos de refracción
traslapados, las curvas tiempo – distancia también se dibujan en relación con el traslape
de los tendidos. La distancia crítica16 c x , es
aquella medida entre el punto disparo y el sitio
donde emerge la primera onda refractada en
superficie. Dependiendo de las velocidades de la
capa superior, y del refractor y de la profundidad
a éste, la distancia crítica puede ser o no menor
que la longitud del tendido en observación.
La relación entre el contraste de velocidades de
la primera capa v1 y del refractor v2, versus la
relación entre la distancia crítica c x y la
profundidad h, conocida en inglés como cross
over distance Adaptado de Sheriff & Geldart. A medida que aumenta la relación v2/ v1 la
relación x h c disminuye. Como regla práctica, las longitudes de los tendidos de refracción
15
deben ser mayores que el doble de la profundidad al refractor para observar refracciones
sin interferencias indebidas de las ondas P originales
16
4. SÍSMICA DE REFLEXIÓN
Cualquiera sea el soporte de la información, las estrategias de interpretación no varían
mucho. En áreas nuevas, sin pozos, asignar las interfaces reflectivas a ciertos límites
formacionales o secuenciales resulta
sumamente especulativo. Es por esto
que resulta fundamental contar con
datos de acústica y/o sísmica de pozo,
para posicionarse con certidumbre al
menos en esa unidimensionalidad del
sondeo, para después extenderse con
alguna confianza en el espacio bi o
tridimensional que provee la sísmica
disponible. Aun así, suele decirse que
hay tantas interpretaciones como
intérpretes, lo que en verdad no es correcto: hay más.
4.1. Interfaces Reflectoras
Los cambios litológicos de toda índole casi siempre promueven contrastes en las
impedancias, pero hay casos en que esto no sucede. También debe recordarse que, incluso
en el mejor de los mundos, hay ruidos remanentes en las secciones o cubos sísmicos que
podrían propender a interpretaciones erróneas. Y debe recordarse que la escala vertical
normalmente es de tiempos sísmicos, no de distancias z, y entre lo uno y lo otro no existe
una relación lineal. En las cuencas sedimentarias los reflectores tienden a seguir líneas de
tiempo geológico, es decir superficies de sedimentación contemporánea y no
necesariamente las líneas por
cambios en las condiciones del
ambiente sedimentario dentro de un
mismo tiempo geológico, cambiarán
entonces lateralmente las
impedancias acústicas y por tanto la
amplitud y en general el aspecto o
carácter de la reflexión: su amplitud
pero también quizá su frecuencia, y
eventualmente el modo en que se
interfiere con otras reflexiones supra
o infrastantes.
La continuidad lateral mayor o menor resultará de cuán extensas sean las condiciones
sedimentarias en el tiempo geológico dado. Los contrastes verticales, a su vez, serán
indicativos de los cambios en las condiciones de depositación a través del tiempo, sea con
energía estable que resultará en reflexiones débiles por los bajos contrastes de
17
impedancias acústicas, o bien energía cambiante en el medio sedimentario y
consecuentemente reflectores fuertes alterados por la tectónica posterior. De modo que
mapear un reflector es echar luz sobre el final de una larga historia que está bueno intentar
inferir.
Si se quisiera observar el paleorrelieve, a nivel de una definida interfaz reflectora, se
debería poder quitar todos los efectos tectónicos posteriores con algún modelo
razonablemente certero.
Pero una forma de
aproximarse a ese
objetivo es aplanar un
reflector suprayacente
que se vea bien, es decir
ponerlo perfectamente
horizontal, técnica que
se denomina
aplanamiento
(flattening).
Ahora bien, muchas veces los reflectores no siguen líneas tiempo. Pueden corresponder a
líneas-roca cuando existen particulares configuraciones estratigráficas.
4.2. Visualización Estructural
Las precedentes secciones sísmicas verticales se despliegan con orientación
respectivamente ortogonal (S-N) y
paralela (W-E) paralela (W-E) al
arrumbamiento tectónico general de
esa área y se ve claramente la
dificultad de interpretar las fallas e
incluso los niveles guía en la segunda
de ellas. Este es un aspecto a tener
siempre presente: no es lo mismo
mirar estratos, fallas, intrusiones u
otras estructuras en forma ortogonal
que paralelamente a su máxima
inclinación (normal al rumbo). Y resulta
claro por cuál orientación conviene comenzar a interpretar. De hecho, en las secciones
paralelas al rumbo el seguimiento de fallas u otras configuraciones de alto ángulo se
termina ajustando habitualmente a partir de los puntos dados por la interpretación previa
en las secciones sísmicas perpendiculares a ellas (cuyos puntos de cruce se marcan con el
color previamente asignado).
18
4.3. Mapeo de Sísmica de Reflexión
El mapa sísmico básico es el isócrono conformado por curvas de igual tiempo de ida y
vuelta de las ondas sísmicas en sentido vertical. Otra posibilidad de mapeo es la de producir
un plano isocronopáquico pero en magnitud
de tiempo sísmico de ida y vuelta, el cual se
obtiene a partir de la operación de resta
entre dos grillas correspondientes a dos
isócronos previamente elaborados. La
fiabilidad dada por un mapa isócrono o un
isocronopáquico es función, entre otras
variables, de la dimensionalidad de la
sísmica de reflexión registrada
En cambio, un mapa de amplitud muestra la
variación de amplitud sobre una superficie guía, que ha debido ser previamente
interpretada con sumo detalle sobre toda el área de interés en una 3D. Permite visualizar
las variaciones sobre un nivel estratigráfico a través del cambio de sus amplitudes.
El objetivo general de la
interpretación de sísmica de reflexión
es producir un modelo geológico
estructural y estratigráfico que
permita obtener una descripción
detallada con finalidades diversas de
acuerdo al campo de aplicación
considerado.
4.4. RESOLUCIÓN SÍSMICA
La resolución sísmica es un asunto relevante a tener presente.
a) La resolución vertical es el espesor geológico mínimo que podemos identificar y
corresponde a un cuarto de la longitud de onda sísmica (1/4 λ), recordando que λ =
V / f (V es la velocidad y f la
frecuencia a la profundidad
considerada). El ancho
mínimo resoluble o
resolución horizontal resulta
de la zona o radio de Fresnel
y es función del mismo 1/4 λ,
siendo:
19
4.5. INTERPRETACIÓN ESTRUCTURAL
20
4.6. Carga de Datos
Es una etapa imprescindible antes de la interpretación sísmica. Incluye la carga de:
Lo más conveniente es partir del punto con mejores datos de correlación sísmico-
geológica. En ese lugar elegir
dos o tres reflectores continuos
con importante significación
geológica y/o prospectiva, y
desde ahí ir llevando el picado
o rayado de los reflectores, con
colores y nombres distintivos,
en dirección a algún otro pozo
con atado de datos entre
sísmica y geología, si lo hay.
Durante este avance se van
interpretando las fallas, al
menos las de mayor rechazo en una primera etapa, en general sin asignarles nombres
o números identificatorios o haciéndolo
sólo tentativamente, salvo que se tenga
pronta certeza de cuál es cuál entre
línea y línea. Este progresivo avance del
rayado es conveniente hacerlo en la
sísmica 2D cerrando rectángulos de la
malla, para ir con mayor certidumbre,
dado que si al terminar la vuelta se llega
un reflector arriba o uno abajo del
punto de partida, significa que habrá
que revisar dónde se ha cometido el
error. Con el avance de la
21
interpretación se podrá nominar las fallas, agregar las más pequeñas, rayar reflectores
adicionales y eventualmente recurrir al cálculo y visualización de atributos sísmicos,
etc. Por último, o en forma progresiva, se podrá hacer el grillado y curveo de mapas
isócronos y otros. Para ello deben dibujarse previamente los polígonos de falla en
planta, para cada nivel guía que se desee mapear, de modo que las curvas o contornos
luego se ajustarán al esquema de bloques geológicos interpretado. Como puede verse
en la figura abajo, las fallas directas dejan una franja (polígono alargado) donde no
existe el nivel M mapeado (si es un reservorio delgado, ahí un pozo no lo hallará). En
cambio las fallas inversas causan superposición, la capa se repite y casi siempre se elige
mapear la parte superior (con mayor interés prospectivo) porque los programas no
permiten duplicar el marcador (arriba y abajo a la vez) y el polígono de falla se estrecha
hasta ser una línea gruesa. Queda sin rayar el tramo de marcador bajo el plano de falla
y su contacto con la misma (acá esbozados en trazos a fines didácticos).
La alternativa es mapear cada
bloque por separado (con
distinto nombre de marcador
para cada sector, tipo M1, M2,
etc.) y luego combinar los varios
mapas, resultando así la
superposición de los contactos
de las fallas inversas en los
límites entre ellos.
Sección sísmica mostrando de izquierda a derecha las sucesivas etapas de empleo de
un polígono de correlación. El polígono de correlación (aquí arriba) puede dibujarse en
forma irregular y es un auxiliar informático útil para ver los rechazos a lo largo de fallas
y la correspondencia entre reflectores o conjuntos de ellos. La interpretación de planos
de falla no siempre es sencilla.
4.8. Caracterización Final de los Bloques
Cruce de secciones 2D, atado corregido subiendo a la derecha. Es la comparación y
ajuste del modelo estructural previo –si existiese– o la creación del mismo a partir de
la interpretación hecha desde un mallado de sísmica 2D, o bien de un volumen 3D,
pudiendo desplegarse isócronos y planos de falla en perspectiva con un programa de
visualización en computadora. Se cotejan interpretaciones de líneas 2D de rumbos
apropiados, o bien de secciones en líneas (inlines) y traversas (crosslines) de la 3D con
los cortes creados por correlación de pozos. Podrán entonces corregirse correlaciones
y mapas estructurales hechos sólo con datos de pozos, o bien construirse estructurales
nuevos a partir de los mapas isócronos siempre que se cuente con adecuados
controles de velocidad (relación tiempo-profundidad) en varios pozos
estratégicamente situados en el área mapeada. En este caso lo más recomendable es
22
construir un mapa de isovelocidades a cada nivel de interés (ver Tema 18) y luego
efectuar en cada caso la operación de producto entre grillas: valores de velocidad
multiplicados por valores de tiempo darán valores de profundidad, que entonces se
mapearán como un estructural.
4.9. ENGAÑOS SÍSMICOS (Pitfalls)
La interpretación de secciones de reflexión debe partir de la premisa de que las
imágenes sísmicas que se perciben no son cortes geológicos, ni los isócronos son
mapas estructurales, sino sólo aproximaciones a éstos. Las consecuencias de ignorarlo
son las metidas de pata en las trampas sísmicas.
Cuando se observa una sección vertical
procesada pueden aparecer significativos
problemas si ésta no ha sido migrada, sobre todo
si se trabaja en un área de medios o altos
buzamientos: los reflectores sísmicos no estarán
en su verdadera posición relativa y además habrá
difracciones sobre planos de falla y en toda
geología que presente variaciones laterales
bruscas como muestra la figura colindante, en
cuyo caso se deberá ser cauto y eventualmente
intentar unas pocas migraciones manuales de los
reflectores de mayor interés. Ya casi no hay
sísmica sin migrar para ser interpretada porque
los costos han disminuido mucho y hasta la
sísmica vieja se reprocesa para poder verla
migrada Pero en casos de geología complicada
(faja plegada, intrusiones de complejo emplazamiento, etc.) una migración
convencional puede no ser suficiente y sólo se tendrá alguna certeza de una correcta
interpretación cuando el proceso de migración se C haya realizado antes de
apilamiento (pre-stack).
23
5. SONDEOS ELECTRICOS VERTICLAES
24
5.2. Resistividad de los materiales naturales
Los valores de la resistividad en una roca están determinados más que por su
composición mineralógica, por el agua que contienen, fundamentalmente por la
porosidad y por l salinidad del agua(mas salinidad más conductividad). Los valores
varían desde 10-8 en los metales nativos hasta 1015 en micras.
Resistividad de cada tipo de roca presente, encontramos valores de este orden:
25
Esquema simplificado de un
sondeo eléctrico. A medida
que se abre la distancia AB,
aumenta la profundidad de
investigación.
26
la formación más profunda de
600 Ω m, por lo que el valor
medio que calculemos en
superficie debe aumentar.
Variación de la curva con el
espesor de la segunda capa
27
a) Primera fase de la interpretación consiste en conseguir el corte geológico,
formado por espesores y
resistividades, esto puede
realizare suponiendo la
cura obtenida en el campo
a gráficos patrón o
mediante programas de
ordenados.
28
6. Polarización inducida
El fenómeno de la polarización inducida se observa cuando se hace pasar corriente
eléctrica a través de un electrolito que contiene cuerpos o partículas de conducción
electrónica (metales, semiconductores). Por ejemplo, supongamos que se coloca en el
terreno un dispositivo tetraelectródico de corriente continua, sobre una bolsada de mineral
conductor. La conducción iónica corresponde a la roca de caja. Si después de haber
mantenido constante durante algún tiempo, la intensidad I en el circuito de emisión AB, se
corta la corriente, la d.d.p. &V entre los electrodos M N no desaparece bruscamente, sino
que se atenúa gradualmente, con una constante de tiempo del orden de varias decenas de
segundos. Análogo efecto se observa en el establecimiento de la corriente, de modo que la
variación de la tensión \V entre M y; V puede representarse por una curva
29
La tensión Ut suele medirse en mv y la Uc en V. La magnitud resultante, a
veces denominada cargabilidad. Tiene las dimensiones de un tiempo, y se acostumbra a
expresarla en milisegundos.
30
El dispositivo dipolar axil se utiliza sobre todo en el dominio de frecuencias, por causa del
reducido acoplo que en él existe entre los circuitos de emisión y de recepción. Tiene la
ventaja de ser muy adecuado para la prospección por resistividades y el inconveniente de
la pequeñez del campo creado.
Por último, el dispositivo Wenner, sólo utilizable en el dominio de tiempos por causa del
fuerte acoplo entre ambos circuitos, es poco adecuado para la prospección simultánea
por resistividades y presenta, además, el inconveniente de requerir el empleo de cuatro
electrodos móviles para la obtención de una sola curva. Su única ventaja parece ser lo
elevado de la señal recibida. Para los sondeos verticales de PI se utilizan los dispositivos
Schiumberger y Wenner.
6.4. Instrumental
Existen en el mercado diferentes modelos de equipos para PI, bien para eltrabajo en el
dominio de tiempos, bien para su empleo en el de frecuencias. Los procesos de la
electrónica de estado sólido han permitido conseguir, en los últimos modelos importantes
reducciones en peso y volumen, e incluso la fabricación de equipos que pueden trabajar
indistintamente en ambos dominios.
Los primeros instrumentos empleados en el dominio de tiempos producían tensiones muy
elevadas en el circuito emisor, a fin de que la tensión residual de PI no fuese demasiado
pequeña. Se llegaron a utilizar, en zonas difíciles, tensiones de 3000 a 5000 voltios y
potencias de hasta 30 KV.
La forma de onda de la corriente aplicada en los aparatos de dominio de tiempos, se
obtenía cortando e invirtiendo periódicamente, por medio de contactores, la tensión
continua producida por un generador movido por un motor de explosión. En los
momentos de corte, la corriente no se interrumpía realmente sino que era desconectada
del terreno y derivada a una carga supletoria ajustable, de modo que el motor no
experimentaba fuertes variaciones de régimen. El potencial espontáneo existente
entre los electrodos M y N era medido y compensado, con lo que se realizaba una
prospección simultánea por P. E. Las lecturas de I e AV durante el paso de la corriente de
emisión se empleaban para el cálculo de la resistividad aparente. La tensión de
polarización se determinaba usualmente por el método de la integral por carga de un
condensador durante varios segundos, la cual se iniciaba poco después de la supresión de
la corriente en el terreno
31
magnitudes observadas en función de la distancia sobre el perfil Como es obvio, los valores
de polarizabilidad aparente representados en cada curva deben ser homogéneos, es decir,
que han de corresponder a un mismo tiempo y desde el comienzo de la descarga, al mismo
tiempo de integración, o a idéntico par de frecuencias, según corresponda al método
empleado. En la PI no suelen emplearse escalas logarítmicas, a causa del reducido margen
de variación de las magnitudes observadas, salvo cuando se trata de sondeos de PI, ¡os
cuales se representan del mismo modo que los SEV. Para las observaciones en el dominio
de frecuencias se emplea mucho, un sistema especial de gráficos denominados
pseudo-cortes o pseudo-secciones.
En estos gráficos, los valores observados se representan numéricamente por debajo de una
línea de referencia que representa la superficie del suelo. Usualmente, cada perfil se
estudia con cuatro o cinco separaciones de electrodos, por lo que el diagrama se compone
de otras tantas filas de números, entre las cuales se trazan isolineas. Se suelen trazar dos
diagramas. uno de resistividades y otro de factores metálicos. La finalidad de estos pseudo
corteses representar la distribución, en el plano del perfil, de las magnitudes observadas.
Por otra parte, estos tampoco dan una idea cualitativa correcta; así. Según hace notar
Parasnis, u ensanchamiento de la zona anómala con la "profundidad" , no implica
necesariamente que ello refleje la realidad, puesto que el aumento de la separación entre
electrodos produce el mismo efecto, aunque las paredes de la heterogeneidad sean
verticales
6.6. Interpretación
La interpretación cualitativa de las mediciones de PI consiste fundamental menteep la
búsqueda de anomalías, esto es, de zonas donde e parámetro representativo utilizado
(polarizabilidad o cargabilidad aparentes, efecto defrecuencia, factor metálico) toma
valores que superen en dos o tres veces al menos al valor normal o de fondo observado en
el área que se investiga.
Las anomalías separadas en los diversos perfiles se llevan al mapa de trabajo, donde se
unen las que quedan enfrentadas en perfiles contiguos. No todas las anomalías que, por
efecto de estas operaciones, queden señaladas en el mapa, corresponden a metalizaciones
explotables. Por esta causa, debe efectuarse entre ellas una selección, a fin de escoger las
que parezcan más prometedoras. Para ello debe atenderse no sólo a !a extensión e
intensidad de las anomalías, sino a la información suministrada por otros métodos
geofísicos. Las anomalías escogidas se estudian luego individualmente, para lo que es muy
aconsejable efectuar en el campo un estudio de detalle de cada uno de ellos. Si el
dispositivo que se utiliza es el de calicatas trielectródicas combinadas, el epicentro se halla
bajo el punto de cruce. Si la anomalía es ancha, sus límites se establecen bajo los puntos de
máximo gradiente. Como todos los demás métodos, el de PI está sujeto a efectos
topográficos, por lo que estos pueden distorsionar las anomalías debidas a metalizaciones,
e incluso producir otras causadas exclusivamente por el relieve. Las determinaciones de la
forma aproximada, buzamiento y profundidad del cuerpo pueden efectuarse
por comparación con curvas teóricas.
32
7. Potencial espontaneo
7.1. Introducción
El método del Potencial espontáneo (Self-potencial o Spontaneous potential) es un método
de prospección eléctrica que tuvo sus orígenes en la búsqueda de recursos minerales, si
bien su uso se amplió al mundo de la ingeniería civil y medioambiental, resultando ser una
herramienta eficaz en el análisis de problemas de filtración de aguas en el subsuelo.
Técnica de aplicación generalizada en la década de los 80 y principios de los 90, hoy en día
es una técnica en desuso dadas las prestaciones que nos ofrecen otros métodos en este
ámbito (i.e. Tomografía eléctrica). Sin embargo la sencillez del equipo que precisa así como
la facilidad de implementación en el campo, justifican la descripción de este método.
7.2. Principios teóricos básicos
7.2.1. Potencial electrocinética
El paso de una solución de resistividad eléctrica ρ y viscosidad η a través de un medio
capilar o poroso, puede generar un gradiente de potencial eléctrico a lo largo de la
trayectoria del flujo. Este potencial es lo que se conoce como Potencial electrocinético.
7.2.2. Estudio del potencial en terrenos no consolidados.
En este ámbito destaca el trabajo de Ogilvy [15]. En este estudio se realiza un profundo
análisis de la influencia que tienen sobre el valor del potencial, factores como el
gradiente hidráulico, el tamaño de grano, la permeabilidad, así como la concentración
de sal en un fluido.
7.2.3. Estudio del potencial en medios fisurados.
A diferencia de los terrenos no consolidados, el estudio del potencial en medios
fisurados no ha sido tan amplio. En este sentido destaca el trabajo de Bogolosvsky, en el
que intenta establecer la relación existente entre el potencial y algunos de los
parámetros que definen un material fisurado: la apertura de las fisuras, la existencia o
no de relleno, y la proporción de finos y arenas presentes en el relleno.
7.3. Equipo requerido
Independientemente de la configuración de medida empleada, el equipo básico
requerido es bastante sencillo y consta de:
unos electrodos
cable eléctrico
un carrete para recoger el cable
un milivoltímetro con el que medir el potencial
En el caso de utilizar la configuración multielectródica se precisa un sistema multicanal de
adquisición de datos, y que el cable eléctrico sea multiconductor. Por otro lado, y dado
33
que en general tendremos la presencia de cierto nivel de “ruido” en nuestra señal de
campo (ver 4.5.2), es prácticamente habitual el uso de un monitor telúrico con el que
medir las variaciones temporales del potencial espontáneo, y evitar de esta forma
confundirlas con las variaciones espaciales de potencial electrocinético.
7.4. Metodología del campo
34
potenciales espontáneos, que perturbarán y enmascararán el potencial de nuestro
interés: el potencial electrocinético. Destacar que el orden de magnitud de éstos
potenciales en muchas ocasiones son similares al del propio potencial electrocinético,
que suele ser de algunas decenas de mV.
7.5. Planificación de la campaña de reconocimiento.
Dada la cantidad de fenómenos que pueden perturbar nuestra señal de campo, en la
planificación será fundamental el garantizar la correcta adquisición de los datos. En este
sentido, la calidad de la información obtenida dependerá de:
1. La configuración de reconocimiento utilizada.
2. La selección del material adecuado así como de su mantenimiento.
3. La capacidad de reconocer posibles fuentes de error en nuestras lecturas de
campo.
4. Las medidas adoptadas a fin de evitar incidentes (fortuitos o por vandalismo) con
los equipos de medida.
Además de estas cuestiones, otros aspectos que deberemos determinar en la
planificación de la campaña de campo son:
1. Número, ubicación y longitud de los perfiles en el terreno.
2. Espaciado entre las estaciones de medida que conforman cada perfil.
3. Localización de la base de referencia (en el caso de usar configuración de base fija
o multielectródica).
4. Periodicidad con la que se tomarán las medidas, a fin de intentar caracterizar y
filtrar las variaciones temporales del potencial espontáneo.
La configuración más usual es la de base fija. Ello conlleva el determinar previamente la
ubicación idónea de nuestra base de referencia, siendo el lugar más adecuado aquel en
donde el valor del potencial espontáneo sea lo más estable posible (alejado de la zona
afectado por el flujo subterráneo). Esta base puede estar situada a gran distancia de los
puntos de medida.
7.6. Procesado e interpretación de los datos
Para cada perfil obtendremos una gráfica, en donde en el eje de abcisas colocaremos
cada una de las estaciones de medida que conformen el perfil, mientras que en el eje de
ordenadas ubicaremos cada uno de los valores del potencial espontáneo medido. Ahora,
nuestro objetivo consiste en detectar y filtrar los diferentes “ruidos” y “errores” que
puedan existir en nuestras medidas, a fin de quedarnos simplemente con las variaciones
espaciales del potencial electrocinético. Su magnitud suele ser del orden de algunas
decenas de mV. Este proceso puede ser muy complicado en zonas de elevado nivel de
ruido (i.e. Cardona).
35
Además de los perfiles, también es muy frecuente confeccionar mapas de isolíneas de
potencial electrocinético, en los que a partir del aumento o disminución relativa del valor
del potencial en el sentido del flujo, podremos caracterizar el problema de filtración en el
subsuelo.
A la hora de interpretar los resultados, la variación exacta del potencial espontáneo en
zonas con presencia de flujos de agua, es una función compleja que depende de aspectos
tales como la sección geoeléctrica, la intensidad del flujo, o la profundidad y geometría de
éste (Wilt and Corwin). Sin embargo en la práctica, y como resultado de diversos estudios
así como de la experiencia acumulada en casos reales, se han observado ciertas
tendencias en el comportamiento del potencial que se usan a modo de reglas en la
interpretación.
36
8. Método de mise a la masse
La puesta en carga de una masa (la mise à la masse) es un método que se le puede considerar
como un caso particular de medidas de potencial. En este caso, uno de los electrodos de
emisión se sustituye por un yacimiento mineral conductor en el cual se inyecta la corriente.
Entonces, el yacimiento actuó más o menos como electrodo. Toda su superficie se situó
sensiblemente al mismo potencial. Este método puede aplicarse en prospección minera.
La resistividad del conductor sea muy débil y muy inferior a la del entorno.
El conductor sea continuo.
El conductor sea accesible por sondeo o afloramiento.
Los cuerpos conductores que se pueden así cartografiar son principalmente los sulfuros de
cobre, níquel y plomo.
37
del cuerpo es menos precisa y si no existe ningún contraste, se obtiene una distribución de
potencial semiesférica.
Cuando dos cuerpos mineralizados están próximos puede haber un efecto de salto fuga. La
corriente pasa del cuerpo donde se encuentra la fuente de corriente al cuerpo adyacente.
Los voltajes medidos en la parte superior del cuerpo adyacente son menos elevados.
También puede determinarse la pendiente del cuerpo. Los fuertes voltajes están próximos a
la parte superior mientras que las líneas equipotenciales abren hacia la pendiente.
38
9. METODOS ELECTROMAGNETICOS(MEM)
Se presentan los fundamentos de los métodos electromagnéticos, atendiendo básicamente
a las técnicas de adquisición, proceso e interpretación correspondientes al trabajo
realizado. Esto es, a las aplicaciones bajo las aproximaciones de bajos números de
inducción y casi estacionarias a y las técnicas de adquisición de información en el dominio
de la frecuencia.
9.1. Aspectos generales de los MEM
39
Un análisis de las ventajas y desventajas de la aplicación de métodos resistivos
convencionales para estudios someros, lleva a examinar la posibilidad de aplicar técnicas
inductivas como una alternativa para estudios resistivos, ya que estos permiten adquirir
información mediante un operador u operadores caminando virtualmente sobre el área
de interés, de tal manera que el gran volumen de información promediado da una mejor
resolución a profundidades del orden requerido para aplicaciones típicas tales como:
40
mayor cuanto menor sea la resistividad del medio y más alta sea la frecuencia del campo
inductor. Las corrientes alternas inducidas en el conductor (tierra) generan a su vez un
campo electromagnético que se opone al campo primario, denominado campo
secundario.
La interacción de los campos primario y secundario es detectada en un circuito eléctrico
localizado en superficie, una bobina o un cable largo, denominado receptor, en general
con características semejantes al circuito inductor o generador del campo primario.
Así, los sistemas de adquisición de los MEM pueden considerarse como la interacción
de tres campos electromagnéticos, el campo primario, el secundario y el observado en
el receptor, de la relación entre el campo primario y el observado es posible inferir
sobre las características o propiedades electromagnéticas generadoras del campo
secundario, esto es de la tierra, entendida como la zona de estudio y comportándose
como un circuito eléctrico
Los MEM se pueden clasificar atendiendo a dos aspectos:
a. La naturaleza del campo electromagnético primario, generado por la fuente
electromagnética, distinguiendo entre los de campo natural (corrientes telúricas u
oscilaciones del campo geomagnético) o artificial que se refiere a fuente
controlada.
b. La configuración del sistema de adquisición caracterizada por el tipo de dispositivos
utilizados como emisor y receptor, la distancia a la que se encuentre el receptor
con respecto al origen del campo primario (fuente) y la frecuencia de emisión-
recepción de las ondas electromagnéticas.
41
En cuanto a la frecuencia de la corriente alterna primaria, ésta se elige de tal manera
que el campo electromagnético inducido, por la presencia de las corrientes edd y en
terreno, resulte significativa en el receptor, se determina de acuerdo a las necesidades,
tanto de posibilidades de penetración como del detalle requerido. Aunque no es
necesario tener contrastes de conductividad muy elevados, si resulta importante no
tener un cubrimiento conductivo cuya respuesta sea muy alta y minimice la de
conductores más profundos. Las mejores condiciones para su aplicación son una
topografía suave y cubrimiento superficial de alta resistividad (Chelotti, l., et.al., 2009;
McNeil, 2002). Desde el punto de vista de la variación de la distancia emisor-receptor se
tienen tres configuraciones posibles (Orellana, 1973):
Emisor fijo, receptor móvil, denominado método Turam, método que utiliza como
inductor y receptor, cables largos o espiras de gran extensión.
Emisor móvil, receptor fijo, poco utilizado salvo el reconocido como de inclinación
del campo.
Emisor y receptor móviles con distancia fija entre ellos, conformados por dos
espiras (emisor y receptor), denominado método Slingram, que es el utilizado en
este trabajo.
42
Para construir un sistema de adquisición que de ésta información se requiere de un
apropiado acople entre distintos parámetros tales como la frecuencia de operación, la
distancia entre las espiras y su orientación, además se requiere de una serie de cálculos
que incluyen la geometría del sistema y su calibración, que es ejecutada por el
fabricante y corresponde a las especificaciones técnicas de cada equipo de adquisición.
La forma general de operación del método se sintetiza en tres pasos:
a) A través del transmisor, que es una bobina por la que circula una corriente
alterna sinusoidal de frecuencia f (Hertz); se genera un campo electromagnético
primario Hp, que se propaga libremente tanto por la superficie como por el
interior del terreno. Este campo está formado por una componente magnética y
una eléctrica ortogonales entre sí, y a su vez perpendicular a la dirección de
propagación de la onda.
b) En presencia de un cuerpo conductor, la componente magnética del campo
primario induce corrientes aleatorias (corrientes eddy), que a su vez generan un
campo magnético secundario Hs.
c) Este campo secundario, junto con el campo primario que circula libremente por
la superficie del terreno, serán detectados por la bobina receptora, dando lugar a
un campo resultante, que diferirá tanto en fase como en amplitud con respecto
al campo primario, aspecto que proporciona información acerca del tamaño y
conductividad eléctrica del elemento conductor, la interacción de los campos
43
10. ELECTROMAGNETICOS: HLEM, VLF, EM-34
Los métodos electromagnéticos o métodos eléctricos en corriente alterna se basan en el
estudio del subsuelo a través de los cambios en las propiedades eléctricas y magnéticas de
los materiales que lo componen.
Los métodos EM pueden ser de campo natural o artificial, pueden estudiar con detalle los
primeros metros o alcanzar varios kilómetros de profundidad con menor resolución,
pueden proporcionar información 1D, 2D o 3D del medio,…, son, por lo tanto, muy diversos
y capaces de definir objetivos muy diferentes.
44
Por último los equipos electromagnéticos de baja frecuencia o VLF (Very Low Frequency) se
basan en el estudio de ondas de frecuencia entre 10 y 30 Khz. Se emplea principalmente en
geología estructural.
10.1. APLICACIONES
Prospección de yacimientos metálicos.
Localización de cuerpos metálicos enterrados.
Localización de conducciones de agua o de electricidad.
Localizaciones de plumas contaminantes.
Vigilancia periódica de acuíferos y de la calidad del agua subterránea.
Mapas de conductividad lateral y vertical. (intrusiones salinas)
Localización de contactos, buzamientos, fallas, fracturas geológicas, etc.
Localización de cavidades.
Determinación (y caracterización) del recubrimiento.
45
11. METODO GEORADAR
La técnica de prospección georadar permite averiguar, de forma indirecta, la estructura del
subsuelo a partir de la transmisión de impulsos electromagnéticos y de la posterior
recepción de las reflexiones generadas por discontinuidades presentes en el subsuelo. En
términos físicos, la técnica georadar es sensible a todas aquellas variaciones de
conductividad, permitividad eléctrica y permeabilidad magnética que pueden producirse en
un medio, sean debidas bien a cambios litológicos o bien por la presencia de estructuras
enterradas (Daniels, 2004; Conyers, 2004). Concretamente, un equipo georadar consta de
una unidad de control, almacenamiento y visualización de datos conectada a una antena
que emite y recibe la señal electromagnética a medida que ésta se desplaza a lo largo de
una dirección preestablecida.
La técnica consiste en la transmisión en el subsuelo de pulsos electromagnéticos de
duración breve (1-4 ns) y frecuencia elevada (100-2000MHz) que se propagan en
profundidad con una cierta velocidad. Al encontrar una discontinuidad, o una superficie de
separación entre dos medios con características electromagnéticas diferentes, parte de la
energía de los pulsos trasmitidos vuelve
en superficie en la forma de una onda
reflejada que la antena capta.
Típicamente, para cada pulso
transmitido en el suelo, un equipo
georadar registra valores de amplitud
de onda durante un intervalo de
tiempo de algunas decenas de
nanosegundos. En los equipos más
recientes la resolución horizontal
puede alcanzar 1 cm, es decir que el sistema almacena una traza por cada centímetro de
recorrido. Un ejemplo de traza de datos georadar está ilustrado
Aquí, el pico de mayor amplitud es debido a la superficie del suelo mientras que los de
amplitud más reducida se deben a la presencia de discontinuidades ubicadas a profundidad
más elevada. Se entiende que el tiempo de llegada a la superficie de las señales que
vuelven a la superficie está directamente relacionado con la velocidad de trasmisión de las
ondas electromagnéticas en el terreno investigado, y con la profundidad de la
discontinuidad que las ha generado. Por otro lado, la intensidad de la señal recibida F
Ejemplo de traza de datos georadar depende del contraste, en términos de parámetros
electromagnéticos, entre el objetivo interceptado por el georadar y el terreno circunstante.
Debido a que el pulso electromagnético va perdiendo energía a medida que se propaga por
el medio investigado, se produce una disminución general de amplitud de la señal a medida
que aumenta el tiempo de retraso.
46
Por lo tanto, para poder distinguir la presencia de reflectores profundos, es necesario
amplificar oportunamente los datos originales. En la figura se ilustra la misma traza de la
figura 1 tras la aplicación de una curva
de amplificación lineal con respecto al
tiempo. Se observa la presencia de
nuevos picos de amplitud no apreciables
en los datos originales. En función de
factores que en parte dependen de la
instrumentación empleada y en parte de
las características del suelo investigado,
los datos brutos pueden necesitar un
tratamiento ulterior cuyo objetivo suele
ser la eliminación de ruidos que ocultan
la presencia de señales significativas. Típicamente se emplean filtros para la eliminación del
fondo y filtros pasa banda para la eliminación de frecuencias no deseadas.
Traza de datos georadar oportunamente filtrada y amplificada. Los datos de amplitud
almacenados están organizados según perfiles denominados radargramas, es decir que el
mismo equipo se encarga de yuxtaponer todas las trazas registradas a lo largo de un cierto
recorrido. Un ejemplo aparece en la figura, donde el eje horizontal corresponde con la
dirección de
movimiento del
georadar (12m) y el
vertical con la
ventana temporal
durante la cual se el
equipo recoge las
señales que rebotan
hacia la superficie. El
eje de tiempo se
convierte en eje de profudidad tras conocer la velocidad de propagación de las ondas
electromagnéticas en el medio investigado. Por lo dicho un radargrama puede considerarse
como una pseudo-sección de suelo. 6 Las antenas empleadas por los georadares son de
tipo direccional, es decir emiten según una dirección preferencial siendo el haz
electromagnético asimilable a un tronco de cono más o menos cerrado que se abre en
profundidad.
47
Como consecuencia, las radiaciones pueden interceptar objetivos que no están en la
vertical de la antena. Los reflejos generados por ellos llegarán entonces al aparato receptor
con un retraso mayor, apareciendo más profundos de lo que realmente son. En este
sentido, el efecto más
clásico es que un objeto
cilíndrico orientado
perpendicularmente al
perfil, se presenta en el
radargrama con una sección
hiperbólica donde los ramos
ascendiente y descendiente
Figura. Ejemplo de
radargrama filtrado y
amplificado. El eje horizontal
representa la distancia recorrida por la antena emisora/receptora (12 m) y el vertical la
ventana temporal de muestreo de la señal. Éste último se convierte en eje de profundidad
tras determinar la velocidad de propagación de las ondas electromagnéticos son
registrados antes y después del paso de la antena sobre la vertical del objetivo. El
conocimiento de la velocidad de propagación de las ondas electromagnéticas en el medio
investigado es esencial para la conversión de los tiempos de retraso en profundidades. En
lo referente a las antenas de los georadares, las que se usan actualmente suelen ser de tipo
mono-estático (misma posición para loa dispositivos de transmisión y recepción) con
apantallamiento.
Éste es esencial tanto para la recepción de señales “limpias” así como para la seguridad de
los operadores en cuanto a emisiones electromagnéticas. La velocidad puede determinarse
empíricamente, es decir interceptando un objetivo ubicado a profundidad conocida,
mediante técnicas de análisis electromagnético de la señal (hyperbola fitting) o estimarse
en función de las características litológicas del subsuelo.
Valores estimativos de constante dieléctrica y atenuación para diferentes materiales y
litologías y materiales a 100 MHZ (Daniel, D. J., 1996). Tanto la profundidad así como la
resolución de una prospección con georadar dependen de la frecuencia de trabajo, es decir
de las antenas empleadas, y de las características litológicas del terreno investigado. En
general, al aumentar la frecuencia de trabajo crece la resolución y disminuye la
profundidad. Para prospecciones hasta 2- 2.5m de profundidad suelen emplearse antenas
con frecuencia de 400-500 MHz. Frecuencias de 200-250 MHz permiten alcanzar una
profundidad de 4-5 m en 8 condiciones litológicas favorables es decir trabajando sobre
sedimentos secos de granulometría gruesa como arenas o gravas. Las de frecuencia menor
(≤100 MHz) tienen utilidad en aplicaciones muy específicas que tengan como objetivo la
localización de estructuras extensas y profundas (del orden de 6-7 metros). Por último,
existen además antenas de frecuencia muy elevada, 1000-2000 MHz, que se emplean
48
exclusivamente en el marco de estudios de ingeniería civil y de patrimonio artístico, donde
los objetivos son profundidades del orden del decímetro o del centímetro (localización de
armaduras, caracterización de capas de asfaltos, de pinturas y de estucos).
Los parámetros que hay que preestablecer en la mayoría de los georadares son la
constante dieléctrica relativa (ε) y la atenuación. El primero permite calcular la profundidad
de una discontinuidad y está definido por la expresión c2 /Vr2, donde c es la velocidad de la
luz en el vacío (3x108 m/s) y Vr es la velocidad de las ondas electromagnéticas en el medio
considerado. El segundo se expresa en dB/m y representa la reducción de intensidad de la
señal transmitida en el subsuelo por unidad de espacio. La atenuación es una función
compleja de la conductibilidad eléctrica que, en general, controla la profundidad máxima
de penetración que puede alcanzar el georadar en un cierto material. Valores elevados de
atenuación se encuentran en sedimentos de granulometría muy fina, como limos y arcillas,
en materiales cristalinos solubles, metales, soluciones salinas, etc. En cambio, valores bajos
son característicos de rocas cristalinas, gravas, arenas y formaciones detríticas.
49
12. Método magnetotelúrico
50
12.3. El ambiente electromagnético de la tierra
La ionosfera y la Tierra son
separadas por una cavidad de
atmósfera. Esta cavidad
atmosférica se excita por
relámpagos, y resuena con una
frecuencia característica de ∼8 Hz
(la resonancia de Schumann).
Energía electromagnética artificial,
como el ruido de cables eléctricos
y señales de radio, también se
propaga en esta cavidad. La
variación diaria es asociada con
corrientes Sq en la ionosfera,
porque su intensidad varía entre el
día y la noche. Las tormentas
eléctricas, asociadas con la actividad solar, cambian la intensidad de la corriente del anillo
y causan variaciones en el campo externo en la escala de tiempo de horas a días. La
corriente del anillo también tiene variaciones debido a la rotación del Sol (27 días), la
órbita de la Tierra y el ciclo solar de 11 años. Las pulsaciones en el campo magnético,
causadas por la interacción compleja entre el viento solar y la magnetosfera, varían con
una escala de tiempo de ∼1 segundo a unos cientos segundos.
12.4. Índice Dst
El índice Dst (disturbance storm time) mide la intensidad de la corriente del anillo. La
figura muestra el índice Dst entre 1979 y 1998. Grandes negativas son debidas a las
tormentas magnéticas individuales. También el flujo radio solar (10.7 cm) se muestra en
el imagen.
51
12.5. Conceptos
a) Sondeo geomagnético
Uno de los conceptos claves en la teoría de la inducción electromagnética es lo de
la profundidad superficial (skin depth). Esa es la distancia vertical que los campos
electromagnéticos pueden penetrar dentro de la Tierra.
Las mediciones tomadas son series de tiempo de los campos eléctricos y magnéticos,
usualmente en dos direcciones ortogonales. El procesamiento de datos MT es para
obtener la coherencia entre estas señales en el dominio de frecuencia.
52
12.7. Equipamiento
12.8. Datos
La duración de la medición depende de la profundidad a que uno quiere investigar.
Típicamente:
53
1. Cerca la superficie, 1 × 105Hz - 100Hz. Se registra por unos minutos.
2. Corteza, 100Hz - 1000s. Se registra por unos días.
3. Manto, 1s - 30000s. Se registra por unas semanas.
12.9. Procedimiento
54
13. RADIOMETRIA
13.1. Aplicaciones
La presencia de sustancias radioactivas en la rocas puede ser utilizada en la búsqueda de
yacimientos minerales de los elementos radioactivos como uranio, torio y potasio, además
se usa para detectar minerales de interés económico asociados con dichos elementos.
La búsqueda de uranio ha sido el objetivo principal de la prospección radioactiva ya que el
uranio es el combustible principal para la energía atómica. El torio a su vez es un combustible
nuclear potencial, pero en la actualidad no hay demanda del mismo para esta finalidad.
El hecho que las distintas rocas contengan diferentes cantidades de elementos radioactivos
permite que el método radioactivo se pueda usar en cartografía geológica.
13.2. Funcionamiento
Las mediciones radiométricas se pueden efectuar mediante prospección aérea o terrestre.
En exploración aérea Geodatos utiliza un espectrómetro de rayos Gamma Radiations
Solutions Inc. RS500, de 16 lts hacia abajo y 4 lts hacia arriba, con un muestreo de 1 lectura
cada 1 segundo. En exploración terrestre Geodatos cuenta con un espectrómetro de mano
Radiations Solutions Inc. RS-230 BGO. Este espectrómetro permite realizar mediciones
confiables de Cuentas Totales, Torio, Potasio y Uranio, calculadas internamente a partir de
espectros de rayos Gamma registrados a lo largo de un período mínimo de 30 segundos.
13.2. Resultados
La radiometría proporciona información sobre los contenidos superficiales de los isótopos
radioactivos naturales del 40K, 235U, 238U y 232Th, suministrando una imagen del terreno de
alta calidad y correlación con la cartografía geológica. Geodatos realiza la reducción y
proceso de datos mediante el software Oasis Montaj, los resultados son mapas con las
concentraciones de Cuentas Totales, porcentaje de Potasio, ppm de Uranio y Torio.
55
14. TOMOGRAFIA GEOELECTRICAS
MEDIO AMBIENTE
Detección de plumas de contaminación
Caracterización de vertederos
OBRA CIVIL
Detección de cavidades Servicios enterrados
Resistividades Geoeléctricas del subsuelo
Corrientes Telúricas
GEOLOGÍA, HIDROGEOLOGÍA Y ARQUEOLOGÍA
Estratigrafía del terreno
Localización del nivel freático
Detección de estructuras geológicas
RECURSOS NATURALES
Evaluación de reservas de áridos
Evaluación de yacimientos de rocas ornamentales
Evaluación de otros yacimientos.
56
15. FOTOGRAMETRIA Y TELEDETECCION
• En primer lugar porque estos métodos convencionales solo utilizan 4 electrodos, siendo
necesario para cada medida variar manualmente sus posiciones en el terreno (proceso
relativamente lento y pesado). En cambio el método de Tomografía eléctrica es una técnica
multielectródica, en el que todo el proceso de adquisición de datos está totalmente
automatizado.
Esto nos permitirá poder realizar un gran número de medidas, tanto en profundidad como
lateralmente, en un breve espacio de tiempo (del orden de 500 medidas en una hora y
media), obteniendo por tanto modelos 2-D de gran resolución.
• En segundo lugar porque el empleo de técnicas numéricas nos permitirá poder procesar
eficazmente todo este gran volumen de información.
Para ello será preciso el empleo de un programa de inversión, con el que transformar las
resistividades aparentes obtenidas de la campaña de campo, a valores de resistividad real.
57
16. GEOQUIMICA
58
17. GEOBOTANICA Y GEOBIOLOGIA
17.1. GEOBOTANICA
La geobotánica, o fitogeografía, o geografía vegetal, es la "ciencia de la vegetación" que
estudia la relación entre la vida vegetal y el medio terrestre, o, en otros términos, "la ciencia
que estudia el hábitat de las plantas en la superficie terrestre".También estudia la
distribución de los vegetales sobre la Tierra, analiza sus áreas de distribución y sus
características así como las causas que las condicionan y las leyes a las que responde.
17.2. GEOBIOLOGIA
La geobiología es un campo científico interdisciplinario que explora las interacciones entre la
vida y el ambiente fisicoquímico de la Tierra. También puede definirse como un estudio
interdisciplinario entre las ciencias de la vida y las ciencias de la Tierra. Guarda importantes
similitudes con la biogeología, pero esta última tendría un ámbito más restringido. Los
investigadores implicados en la geobiología pertenecen a campos como la geoquímica y
la biogeoquímica, la mineralogía, la sedimentología, la climatología y la oceanografía,
la edafología, la paleontología, la microbiología, la fisiología y la genética, la ecología y en
general a todas aquellas especialidades geológicas en las que es importante comprender la
influencia de los seres vivos, y aquellas especialidades biológicas o ambientales en que está
implicado el ambiente físico.
59
17.2.1. Campos de estudio
En la interfaz o límite entre las ciencias de la vida y las de la Tierra, la geobiología coincide
con las ciencias ambientales, situando específicamente su objeto en la influencia de los
seres vivos sobre el sistema Tierra, y en los condicionamientos que los procesos físicos del
planeta le ponen al desarrollo evolutivo y ecológico de la vida. Un caso ejemplar de un
problema geobiológico es el de la evolución de la composición de la atmósfera terrestre al
compás de evolución de los tipos de metabolismo, por ejemplo con su conversión en una
atmósfera oxidante bajo la influencia de la fotosíntesis oxigénica «inventada» por
las cianobacterias.
60
18. TESTIFICACION EN SONDEOS (PERFILAJE DE POZOS)
La testificación geofísica para sondeos de agua es una técnica que se viene utilizando en
España desde la década de los setenta. Aunque hoy en día, se siguen empleando algunos
de los parámetros que se utilizaban en esa década (gamma natural y potencial
espontáneo), la incorporación de otros, ya de forma sistemática o especial, hacen que
actualmente lleguen a utilizarse más de 12 parámetros, según la problemática planteada.
En el presente trabajo se
sintetizan las aplicaciones más
importantes de las diagrafías
en Hidrogeología, y se plantean
ejemplos de aplicación de las
diagrafías convencionales, de
las especiales (neutrón-
neutrón, sónicas y de
temperatura) y de las utilizadas
para reconocimiento y
mantenimiento de sondeos de
agua (ROVT, RF y RQ-F).
TESTIFICACIÓN ESPECIAL.
Sónico (L.S).
Neutrón-Neutrón (N-N).
Temperatura (T)
61
19. METODOS GEOFISICOS EMERGENTES
Una de las herramientas más importantes en la exploración del subsuelo, son los registros
geofísicos de pozo, cuyo objetivo final es la localización y evaluación de yacimientos naturales
como pueden ser agua, gas, petróleo, geotérmicos y mineros.
19.1. Consideraciones
Litología.
Identificación de zonas productoras.
Profundidad y espesor de zonas productoras.
Interpretaciones de características y contenido del yacimiento.
Existen varias herramientas para tomar registros de pozos, cada una mide propiedades
diferentes de las rocas y todas se visualizan como una representación gráfica a profundidad,
se necesita de un análisis especial para poder realizar una interpretación correcta de los
datos.
62
20. EL PID (Photo Ionization Detector) Y EL IR (Infra Red Analyzer)
PID (Photo Ionization Detector) Mide los cambios de señal que generan los analitos cuando
son ionizados por una lámpara de luz ultravioleta. Este genera una idea del grado de
contaminación pudiendo detectar el nivel total de Compuestos Orgánicos Volátiles (VOCs),
otros Hidrocarburos derivados del Petróleo y gases tóxicos (incluyendo hidrocarburos
clorados), en órdenes de magnitud por debajo de los ppb.
Dentro de las características más resaltantes del PID se encuentran: Límites de detección: 2
rangos (0.1 ppb - 3000 ppm) (0.1 ppm - 4000ppm) Estabilidad del cero de 0.05ppb Tiempo
de respuesta: 0.08 seg; intervalo de muestreo: 10/s Resolución en ordenes de los ppb,
opción de valores pico o integrados Indicación de la porosidad del suelo y su permeabilidad
Calibración automática para determinaciones cuantitativas de fases gaseosas para cerca de
200 compuestos Respuesta cero para el metano en el PID (CH4 es medido separadamente
por la unidad IR) Amplio rango de acción: 0.1ppb-4000ppm Bomba de succión de
alta potencia diseñada específicamente para suelos Opción de medida en unidades como
ppm o mg/m3 (ppb o µg/ m3)
IR (Infra Red Analyzer) Es un instrumento usado para monitorear ciertas especies en
muestras de aire, ya que ciertas moléculas cuando absorben radiación infrarroja se
calientan y emiten longitudes de onda características en el infrarrojo lo cual permite su
identificación. El IR presenta 4 canales selectivos para la determinación de Metano,
Hidrocarburos del Petróleo y CO2 con resolución del orden de ppm
63
CONCLUSIONES
Se logró entender los diferentes métodos citados anteriormente concluyendo que estos
métodos nos proporcionan informaciones sobre la composición del subsuelo mediante
alguna propiedad física medida a partir de la superficie terrestre, que puede ser la
velocidad de una onda mecánica, o variaciones de un campo gravitacional producidas por
diferencias de densidad, o la intensidad de una corriente asociada a la mayor o menor
facilidad de propagación de las cargas eléctricas. Los métodos ofrecen una forma de
obtener información detallada acerca de las condiciones del suelo y rocas del subsuelo.
Esta capacidad de caracterizar rápidamente las condiciones del subsuelo sin perturbar el
sitio ofrece el beneficio de costos más bajos y menos riesgo, dando mejor entendimiento
general de las condiciones complejas del sitio. Es necesario a menudo utilizar más de un
método para lograr obtener la información deseada.
Se estudió los conceptos teóricos basados en la física y matemática, que son necesarios
para la interpretación de los equipos, para la obtención de datos.
Los datos obtenidos debe ser corregidos e interpretados, aquí se presenta la importancia
de la experiencia, una buena interpretación dan buenos resultados, pero cada interprete
tiene diferente interpretaciones.
El uso correcto de los equipos es importante para obtener buena información, es la parte
inicial, una mala toma nos darían pésimos resultados y pérdida de tiempo.
Se sabe que todos los métodos tienen diferentes características, por lo tanto no todos
pueden ser utilizados en una misma área, entonces se tiene conocimiento en que área cada
método puede ser el mejor para la obtención de datos y gráficas.
64
BIBLIOGRAFIA
monografias.com (metodos-geofisicos)
Que es la Geoquímica gob.mx
López, Ernesto. (2004). Geología general y de México. México, Trillas
www.geovirtual2.cl
www.geonica.com Equipos-GEOFISICA Prospección-Electromagnetica-VLF
SlideShare (Metodos Geofisicos)
www.geodatos.cl/ip.php
catedras.fcaglp.unlp.edu.ar/geofisica/metodos-electricos-de-
prospeccion/teoria-1/polarizacion-inducida
Ecured (Gravimetria)
La Exploracion Geofisica del Subsuelo – Norberto Gella y Juan Bruggen
65