Вы находитесь на странице: 1из 26

CONCEPTOS BASICOS DE TELEDETECCION

 LA TELEDETECCIÓN

El término teledetección se aplica a la obtención de imágenes de la superficie


terrestre (o de otros cuerpos celestes) mediante la medición de radiación
electromagnética desde el aire o el espacio exterior y a su posterior tratamiento
en el contexto de una aplicación. El término incluye, por tanto, a la fotografía
aérea y la teledetección aerotransportada y espacial, aunque en la práctica es
común reservar la palabra teledetección para designar a la técnica de obtención
y tratamiento de imágenes desde sensores instalados en satélites o bien
aerotransportados, pero diferentes de las cámaras fotográficas más o menos
convencionales.

 Elementos de un sistema de teledetección

De forma gráfica y genérica, los elementos básicos de un sistema de


teledetección son :

Existe además una interacción significativa entre la energía electromagnética y


el medio por el que viaja, es decir, la atmósfera. El efecto neto de la atmósfera
depende de diversos factores (longitud de onda, condiciones atmosféricas,
magnitud de la señal energética, trayecto de las ondas) y está controlado
principalmente por los mecanismos de absorción y dispersión atmosférica.

1
ESPECTRO ELECTROMAGNÉTICO

El espectro electromagnético es la organización de bandas de longitudes de onda o


frecuencia desde las más cortas a las más largas. Para la teledetección solo algunas de
esta bandas son utilizadas hoy en día para obtener información de la superficie de la
tierra o de la atmósfera, entre las bandas más utilizadas están

Visible
Infrarrojo próximo
Infrarrojo medio
Infrarrojo lejano o térmico
Microondas

Para cualquiera proceso de percepción remota es necesario que existan los siguientes
aspectos:

2
Una fuente de iluminación o energía (el sol en el caso de los censores activos y un
recurso propio a bordo del satélite en el caso de los censores pasivos),
Influencia de la atmósfera (que modifica la respuesta que recibe el censor del satélite),
Interacción con la superficie (que depende en mucho de sus propiedades físico-
químicas, su forma y textura),
Que se registren y procesen los datos,
Aplicación a un estudio determinado

La energía que recibe el censor, depende de las propiedades de la superficie


(reflectividad de la cubierta, condiciones atmosféricas, geometría de la observación,
rugosidad de la superficie), con base en ello, se dan varias denominaciones de acuerdo
a su comportamiento, por ejemplo, los cuerpos Negros absorben y emiten toda la
energía, los cuerpos blancos reflejan la energía por completo y los cuerpos grises
absorben y emiten en forma constante la energía incidente en diferentes longitudes de
onda.

INTERACCIÓN ATMÓSFERA Y RADIACIÓN

La atmósfera no es un cuerpo transparente en ella se encuentra pequeñas partículas en


suspensión que interactúan con la radiación incidente. La energía al chocar con estas
partículas puede ser dispersada, absorbida o emitida dependiendo de la longitud de
onda. Por lo general a mayor longitud de onda la dispersión disminuye, en tanto
absorción presenta comportamientos variables. Las porciones del espectro
electromagnético donde la radiación no es absorbida y llega a la superficie de la Tierra
se denominan ventanas atmosféricas y son de gran importancia para diseñar los
censores de los satélites para captar dentro de estas longitudes de onda

También la atmósfera emite parte de la energía absorbida en forma de calor y


este tipo de energía es registrada principalmente por los censores diseñados para
generar información de las energías electromagnéticas del infrarrojo térmico

INTERACCIÓN RADIACIÓN Y SUPERFICIE

3
La energía que llega a los cuerpos, incide en la superficie y puede sufrir tres procesos:
ser reflejada (R), absorbida (A) o transmitida (T), por lo tanto la energía incidente (I)
será la sumatoria de todos los anteriores procesos.

I=R+A+T

La energía reflejada y el calor que los cuerpos emiten, es la energía que los censores de
los satélites reciben, después de interactuar nuevamente con la atmósfera.

Todos los objetos (independientemente de la radiación que emitan) van a recibir


radiación emitida por otros cuerpos, fundamentalmente del sol, que, en función del
tipo de objeto que estemos considerando, puede seguir tres caminos:

 reflejarse (la radiación es reenviada de vuelta al espacio)


 absorberse (la radiación pasa a incrementar la energía del objeto)
 transmitirse (la radiación se transmite hacia abajo a otros objetos).

Valores de R, A y T de un cuerpo concreto, va a depender de la longitud de onda de


que se trate y de las características de ese cuerpo. Unas primeras líneas generales
acerca del comportamiento de diferentes objetos respecto a su interacción con la
radiación serían:

 Atmósfera despejada:
o R muy baja para todas las longitudes de onda
o A depende de la longitud de onda
o T depende de la longitud de onda
 Nubes :
o R muy alta en el visible
o A depende de la longitud de onda
o T depende de la longitud de onda
 Agua:
o R muy baja en todas las longitudes de onda
o A depende de la longitud de onda
o T depende de la longitud de onda
 Superficie terrestre:
o R y A muy variable
o T nulo

Interacción atmósfera-radiación electromagnética

4
Puesto que la atmósfera apenas refleja radiación solar la modificación por parte de la
atmósfera de la radiación entrante y saliente incluye tres procesos:
 Transmisión
o Dispersión
o Refracción
 Absorción

Dispersión
La dispersión es el redireccionamiento de la radiación por parte de los gases y
aerosoles presentes en la atmósfera en cualquier dirección. Existen tres tipos básicos
de dispersión:
1. Dispersión de Rayleigh.
o La producen los gases atmosféricos en la alta atmósfera (9-10 Km.).
o Es mayor cuanto menor es la longitud de onda. La luz azul se dispersa
cuatro veces más que la roja y la ultravioleta 16 veces más que la roja
2. Dispersión de Mie
o Se produce en la baja atmósfera (0-5 Km.) debido a los aerosoles (polvo,
polen, gotitas de agua).
o Los aerosoles tienen un tamaño más o menos igual que la longitud de
onda que dispersan
o Afecta especialmente a la luz visible
3. Dispersión no selectiva
o Se produce en la baja atmósfera
o Las partículas son mayores que la radiación incidente
o No depende de la longitud de onda

La luminosidad de la atmósfera es efecto de la dispersión. Los satélites registran


esta luminosidad además de la energía reflejada por los objetos situados sobre
la superficie terrestre. El resultado es:

o Aumenta el brillo general de la imagen


o Disminuye el contraste (los objetos brillantes aparecen más oscuros y
los oscuros más brillantes)
o Se difuminan los bordes de los objetos

Refracción

Se trata de un cambio de dirección de la luz que ocurre cuando la luz atraviesa


dos medios con diferente densidad (diferentes capas de la atmósfera por
ejemplo). Causa espejismos en días cálidos y degrada la signatura espectral de
los objetos.

Absorción

Cada uno de los gases atmosféricos tiene capacidad para absorber radiación en
diferentes longitudes de onda. Fundamentalmente son tres los gases que
absorben radiación:

5
o Ozono: Absorbe radiación ultravioleta
o Dióxido de carbono: Absorbe radiación en 13-17.5 μm;
o Vapor de agua: Absorbe radiación en 5.5-7μm;y por encima de 27 μm

SENSORES ACTIVOS

Los censores activos, se basan en que proveen su propia fuente de energía que emiten
hacia los cuerpos y reciben la señal de retorno. Entre los censores activos más
comunes están los radares, que pueden trabajar bajo cualquier condición atmosférica,
tanto de día como de noche. Estos censores trabajan principalmente en la región de las
microondas.

se llaman “sensores activos” porque emiten rayos que reflejan en los objetos y miden
la energía que se devuelve reflejada al sensor.

CENSORES PASIVOS

Los sensores pasivos de teledetección reciben la señal de una fuente de luz o energía
externa reflejada por la superficie de los cuerpos. Estos sensores están incluidos sobre
la mayoría de los satélites que manejan las bandas del espectro visible

Todos los sensores especializados en la recepción de longitudes de onda reflejadas o


emitidas por los objetos se denominan “sensores pasivos”.

6
RESPUESTA ESPECTRAL

La respuesta espectral es el comportamiento de los cuerpos ante la incidencia de


radiaciones electromagnéticas de distinta frecuencia.
Factores de incidencia en la respuesta espectral de las cubiertas
La respuesta de los cuerpos a la energía incidente no siempre será la misma,
dependerá de varios factores tales como:
Angulo de incidencia de la energía con el cuerpo (varia según fecha, año y recorrido
del satélite).
Aspecto del relieve.
Interacción atmosférica con las distintas longitudes de onda.
Variaciones ambientales.
Angulo de observación.

Reflectividad
La reflectividad de los cuerpos varían según la longitud de onda que incide sobre ellos,
normalmente la reflectividad de los cuerpos aumenta a medida que la longitud de
onda disminuye, no obstante existen cuerpos donde esta relación es inversa (nieve) o
irregular (vegetación). También la reflectividad esta influenciada por la textura del
cuerpo, para una misma longitud de onda, la reflectividad más baja se encuentra en el
agua, aumenta para el suelo, vegetación enferma, vegetación sana y es máxima para la
nieve.

Repuesta de la vegetación

7
Cuando se va a realizar un análisis de la superficie de la vegetación a través de
imágenes de satélite hay que tener en cuentas aspectos como la morfología de la
cubierta (estado fenológico, proporción de sombras, geometría del follaje, etc.), y el
estado fenológico, la ubicación en el relieve y su asociación con otras cubiertas o
especies.

Repuesta del suelo

El respuesta del suelo a la reflectividad de las longitudes de onda está influenciada por
características como la composición química, textura, estructura y contenido de
humedad. El contenido de materia orgánica en el suelo reduce su reflectividad.

Repuesta del agua

La respuesta del agua varía según la longitud de onda, dentro del espectro óptico e
infrarrojo, el agua tiende a absorber la energía a medida que la longitud de onda
aumenta, en el caso de las microondas, éstas son reflejadas especular mente si el agua
esta tranquila, cuando hay turbulencia o oleajes la energía es reflejada en varias
direcciones. También la respuesta del agua está influenciada por la profundidad y el
contenido de sedimentos que contribuyen a reflejar la energía cuando esta llega hasta
las partículas o al fondo del agua.

En el caso de la nieve, la reflexión disminuye a medida que la longitud de onda


aumenta. Cuando se está trabajando con microondas la reflexión es muy alta
nuevamente. La reflectividad dependerá del grado de compactación, tamaño de los
cristales de hielo e impurezas contenidas.

RESOLUCIÓN

La resolución de un sensor es su habilidad para registrar información en detalle de las


distintas cubiertas. La resolución depende de la capacidad de los sensores para
distinguir variaciones de la energía electromagnética, del detalle espacial que captura y
del número y ancho de las bandas que alberga.

Resolución espacial

Es el objeto mas pequeño que puede ser distinguido sobre la imagen. Define el tamaño
del píxel, que es la distancia correspondiente al tamaño de la mínima unidad de
información en la imagen.

En sensores de antena, la resolución depende del radio de apertura, de la altura de la


plataforma y de la longitud de la onda. A mayor radio, menor altitud y menor longitud
de onda, la resolución es mas detallada. Solo se pueden discriminar en la imagen,
elementos de tamaño superior a la resolución espacial (es decir, al tamaño del píxel).

8
La resolución espacial esta relacionada con la escala de trabajo y la fiabilidad de la
información. (Chuvieco, 1996).

Resolución espectral

Es el número y el ancho de las bandas espectrales que puede discriminar el sensor. Los
satélites pueden clasificarse como monoespectrales para caso de los radares que
presenta solo una banda, multiespectrales, de 2 a varias bandas y hiperespectrales
capaces obtener información simultánea de cientos de bandas.

9
Resolución radiométrica

Es la sensibilidad del sensor, es decir, la capacidad para detectar variaciones en la


radiancia espectral que recibe. Determina el número de niveles de gris recogidos en el
film, se expresa en niveles por píxel (64-128-256-1024). A mayor resolución
radiométrica, mejor interpretación de la imagen. El píxel mixto es definido por una
señal intermedia a las cubiertas que lo componen (Chuvieco, 1996).

Resolución temporal

Es la periodicidad con que el sensor adquiere imágenes de la misma porción de la


superficie terrestre. Esta en función de las características orbítales de la plataforma
(altura, velocidad e inclinación) y del diseño del sensor (ángulo de observación y
ángulo de cobertura) (Chuvieco, 1996). El ciclo de recubrimiento es el tiempo que
tarda el sensor en pasar sobre la misma porción de la Tierra, el periodo orbital es el
tiempo que él tarda en circundar la tierra.

REPRESENTACIÓN DIGITAL DE IMÁGENES

La unidad visual más pequeña que se puede visualizar en una imagen se denomina
píxel. El sensor detecta la radiancia media de una parcela de terreno equivalente al

10
tamaño del píxel. Este valor se traduce a un valor numérico al que llamamos nivel
digital, a partir del cual se realiza el tratamiento digital de las imágenes. Cada píxel
tiene un valor numérico entero o real, que corresponde al nivel digital (ND) percibido,
el cual se traduce en un valor de gris en la pantalla o nivel visual (ND). El arreglo de
varios píxeles genera la imagen que se puede interpretar como una matriz con
coordenadas fila, columna, cuyo valor (o valores) de celda corresponden a la dimensión
espectral. En el caso de sensores multiespectrales se tienen muchas matrices o bandas
para cada una de las cuales, existe un sensor. La imagen de radar tiene una sola banda,
puesto que tiene sólo un sensor. Los sensores hiperespectrales pueden tener cientos
de bandas.
Cada píxel se define por un byte y éstos pueden estar descritos con arreglos de 8 bits
con 256 niveles digitales posibles (28, de 0 a 256 niveles); de 16 bits no signado con
65536 niveles digitales posibles (de 0 a 216); de 16 bits signado (desde -216/2 a 216/2).
La imagen que más discriminación nos da de niveles de grises está configurada en 32
bits real.
Inicio

Correcciones de la imagen

La operaciones básicas de teledetección pueden incluir procesos de visualización y


realce de la imagen, operaciones más avanzadas involucran procesos de correcciones
geométricas, radiométricas y clasificación digital.
Las correcciones radiométricas y geométricas de la imagen se hacen con el propósito
de preparar los datos para realizar estudios precisos. Los estudios de análisis
multitemporal por ejemplo, requieren alta precisión en la corrección geométrica de la
imagen.
Las fuentes de error más comunes en la calidad espectral de la imagen son las
originadas por el movimiento de la plataforma que genera cambios en la escala y la
falta de calibración del sensor. Estas son corregidas generalmente en la estación
receptora. Las generadas por la dispersión atmosférica son más sensitivas a las
longitudes de onda cortas.

Correcciones radiométricas

Las correcciones radiométricas modifican los ND originales con el objetivo de


acercarlos a una recepción ideal. Generalmente comprenden la restauración de líneas
o píxeles perdidos, corrección del bandeado de la imagen y las correcciones
atmosféricas. La corrección atmosférica no son aplicables a imágenes de radar debido a
que la atmósfera es transparente a las microondas.

Correcciones geométricas

Las correcciones geométricas en la imagen se hacen con el propósito de orientar la


posición de los píxeles a un sistema de referencia. El proceso comprende tres pasos:

11
1. La localización de puntos de control (GCP) que relacionan los valores de
coordenadas a un sistema de referencia.

2. La transformación de las coordenadas de la imagen a algún tipo de coordenada


cartográfica, para lo cual se utiliza un modelo de transformación de las coordenadas de
la imagen al sistema de referencia.

3. El remuestreo o reubicación de los píxeles a una nueva posición y asignación del


nuevo valor de ND de acuerdo al método de asignación seleccionado (vecino más
cercano, bilineal, cúbico).

En el caso en que hacemos un corrección del desplazamiento debido al relieve, además


de las anteriores correcciones geométricas, tendríamos una que toma en cuenta la
elevación del punto, denominada una ortorectificación de la imagen, cuyo producto es
una ortoimagen de nuestra zona de interés.
Inicio

Establecimiento de puntos de control

Se trata de localizar una serie de puntos correspondientes entre la imagen y una


información de referencia para extraer sus coordenadas (coordenadas de imagen y
coordenadas de referencia) y generar una función que los relacione. La exactitud del
proceso de corrección geométrico depende de la precisión con que se ubiquen los
puntos. Los puntos de control (GCP) deben ser ubicados cuidadosamente sobre rasgos
identificables y distribuidos uniformemente sobre la imagen, tratando de cubrir todo el
rango de altura posible.

La información de referencia puede provenir de una imagen ya corregida


geográficamente (georeferenciada), de vectores digitalizados de mapas, mapas o
puntos de posicionamiento global (GPS).
Cálculo de la ecuación de transformación
La ecuación de transformación es una regresión que relaciona los valores de
coordenadas de imagen con los de coordenadas cartográficas. Los coeficientes de
transformación, se obtienen a partir de las coordenadas de los puntos de control
seleccionados, aplicando un ajuste por mínimos cuadrados de todos los puntos. La
regresión puede ser de primer, segundo, tercer a mas orden, depende del ajuste que se
quiera. Para el caso de las ortoimágenes, se utiliza un modelo exacto.

La calidad de la corrección geométrica puede estimarse en función del error medio


cuadrático RMS y la contribución al error de cada punto. Cuando la contribución al
RMS de un punto es alta, esto puede indicarnos que la correspondencia de puntos
estuvo mal seleccionada y que el punto no ajusta bien a modelo de transformación
entre la imagen y el mapa u otra información usada como referencia. Los puntos con
contribución alta que sobrepasan cierto umbral pueden borrase y recalcular el RMS.
Sin embargo, cuando estamos plenamente seguros de la ubicación de un punto, y al
ubicarlo, el RMS se dispara, puede existir la posibilidad de que el modelo geométrico

12
no resuelve las disposiciones locales, para lo cual se puede necesitar un modelo mejor,
lo que quiere decir, ubicar algunos puntos más, justo en la zona problema

GEORREFERENCIACIÓN DE IMÁGENES DE SATÉLITE


.

Una imagen de satélite, al igual que las fotografías aéreas, no proporciona información
georeferenciada; además puede sufrir una serie de distorsiones, similares a las de los
fotogramas debidos a los movimientos del satélite. Las correcciones necesarias para
restaurar a cada punto de la imagen sus coordenadas reales se basan en ecuaciones
polinómicas que permiten modificar de forma flexible las coordenadas de la imagen. El
orden del polinomio determina la flexibilidad del ajuste y de la transformación,
normalmente se emplean transformaciones de tipo lineal (polinomio de grado 1),
cuadrático (polinomio de grado 2) o cúbico (polinomio de grado 3).Los casos más
habituales son la transformación lineal:

y la transformación cuadrática:

la transformación cúbica es más compleja, las ecuaciones son similares a las lineales y
cuadráticas pero incluyendo términos elevados al cubo.

Empleando el procedimiento de los mínimos cuadrados, se pueden calcular los valores


de los coeficientes A, B ,..., N, a partir de las coordenadas de un conjunto de puntos de
control. Como regla general, el número de puntos de control debería ser mayor que el
número de parámetros que se van a calcular, 6 en la transformación lineal, 12 en la
cuadrática y 24 en la cúbica.

13
Es importante determinar cual es el tipo de transformación más adecuada en función del
tipo de distorsiones que se supone que aparecen en la imagen y de la cantidad y calidad
de los puntos de control. Es necesario tener en cuenta que cuanto mayor sea el grado de
los polinomios implicados, más sensible será la transformación a errores en la selección
de los puntos de control.

Figura 1: Corrección geométrica mediante transformación lineal

La transformación lineal es la más sencilla (figura 1) asume que no hay distorsión en la


imagen y simplemente se requiere una traslación (coeficientes A y E), cambio de escala
(coeficientes B y H) y rotación de la imagen (coeficientes D y G).

Por tanto si el origen de coordenadas de la imagen original es (c=0,f=0) entonces:

A =valor de X en el punto en el que c =0


E =valor de Y en el punto en el que f =0

Si no es necesario rotar la imagen B y H son factores de escala

14
D =0 G =0

Casi todos los programas de SIG disponen de algunos procedimientos para realizar una
transformación de coordenadas. Resultan además muy útiles para incorporar mapas
escareados. En general se basan en una serie de etapas básicas:

1. Se busca una serie de puntos de control (generalmente lugares muy destacados


y visibles) y se averiguan las coordenadas de cada uno de ellos en los dos
sistemas de coordenadas, (X ,Y) y (c ,f)
2. Determinación del tipo de transformación más adecuada en función del tipo de
datos de partida y del número de puntos de control que hayan podido
encontrarse.
3. Mediante mínimos cuadrados se obtienen los valores de los coeficientes de
regresión a, b, c, d, e y f. Estos coeficientes así calculados permiten realizar una
modificación del sistema de coordenadas con el mínimo grado de error.
4. Se aplican las ecuaciones anteriores, con los valores calculados de los
coeficientes, a todas las coordenadas iniciales para obtener así sus nuevos
valores en el sistema de referencia final.

Las etapas 3 y 4 suelen llevarse a cabo automáticamente.

Este procedimiento es válido tanto para capas raster como para vectoriales, en el
segundo caso el procedimiento estaría completo con los pasos anteriores. Sin embargo
en el caso de capas raster es necesario aplicar un procedimiento para transferir la
información de los píxeles originales a los píxeles resultantes del proceso de
transformación ya que con estas funciones de transformación va a crearse una nueva
matriz correctamente posicionada, pero vacía. El llenado de esta matriz es,
precisamente, el objetivo de la última fase de la transformación de coordenadas.

El problema resulta más complejo de lo que pudiera pensarse a primera vista.


Idealmente, cada píxel de la capa transformada debería corresponderse a un solo píxel
en la original. Lo normal, sin embargo, es que el píxel de la nueva imagen se sitúe entre
varios de la original, incluso puede variar el tamaño de los píxel.

El trasvase de valores de la capa original a la transformada puede abordarse por tres


métodos dependiendo de la complejidad de la transformación realizada y del tipo de
datos.

1.
Método del vecino más próximo. Sitúa en cada pixel de la imagen corregida el
valor del pixel más cercano en la imagen original. Esta es la solución más rápida
y la que supone menor transformación de los valores originales. Su principal
inconveniente radica en la distorsión que introduce en rasgos lineales de la
imagen. Es la más adecuada en caso de variables cualitativas, pero
evidentemente, no en teledetección.
2.
Interpolación bilineal, supone promediar los valores de los cuatro píxeles más
cercanos en la capa original. Este promedio se pondera según la distancia del
15
pixel original al corregido, de este modo tienen una mayor influencia aquellos
píxeles más cercanos en la capa inicial. Reduce el efecto de distorsión en rasgos
lineales pero difumina los contrastes espaciales.
3.
En la Convolución cúbica, se considera los valores de los 16 píxeles más
próximos. El efecto visual es mas correcto en caso de que se trabaje con
imágenes de satélite o fotografías digitalizadas, sin embargo supone un
volumen de cálculo mucho mayor.

16
Combinaciones RGB de imágenes
satélite Landsat y Sentinel
26 marzo, 2017
La combinación de imágenes satélite nos permiten analizar
elementos de específicos de la superficie terrestre en función
de su espectro de emisión. Gracias a las distintas bandas
multiespectrales de operación de los satélites podemos
interpretar aspectos como la vegetación, los usos del suelo o
las masas de agua. Combinaciones específicas RGB nos
mostrarán y discriminarán los elementos de nuestras imágenes
satélite de forma rápida. ¿Sabes cuáles son las combinaciones
clave para conseguirlo?

17
La creación de estas imágenes parte del paso de bandas a
través de tres canales: rojo, verde y azul. El paso de cada banda
por un canal u otro permitirá la pigmentación de los elementos
que ofrezcan mayor o menor reflexión de longitudes de onda.
Así, por ejemplo, la vegetación refleja en la zona del infrarrojo y
absorbe en la zona visible del rojo. El juego cromático de estas
bandas nos ayudará a elaborar mapas específicos de
vegetación.

18
Los pasos de bandas por los tres canales RGB dará, como
resultado, la combinación de imágenes satélite para formar una
imagen a color natural o a falso color, realzando elementos muy
concretos para su posterior estudio y análisis. Podremos
realizar estas combinaciones siempre y cuando conozcamos el
rango de trabajo en el que operan las bandas del satélite
seleccionado y el comportamiento de reflexión de los
elementos objeto de estudio. Conociendo estos datos sabremos
las bandas a utilizar en función del tipo de estudio planteado. El
CSIC posee una librería de firmas espectrales interesante a
consultar para profundizar en el comportamiento
electromagnético de los objetos en superficie.

19
Comparativa de bandas Sentinel y Landsat. Fuente USGS
Landsat y Sentinel presentan diversas bandas que operan bajo
rangos parecidos, lo que implica la necesidad de combinarlas de
manera distinta en función del estudio deseado. Aquí os dejo
una descripción de la combinación de imágenes satélite de las
bandas y la composición RGB resultante para estudios
específicos mediante análisis multiespectral. Una imagen vale
más que mil palabras.

Color natural: Landsat 8 (4,3,2), Sentinel 2B (4,3,2)

Falso color (para zonas urbanas): Landsat 8 (7,6,4), Sentinel 2B


(12,11,4)

20
Infrarrojo (para vegetación): Landsat 8 (5,4,3), Sentinel 2B
(8,4,3)

Agricultura: Landsat 8 (6,5,2), Sentinel 2B (11,8A,2)

21
Penetración de radiación en atmósfera: Landsat 8 (7,6,5),
Sentinel 2B (12,11,8A)

Usos del suelo/masas de agua: Landsat 8 (5,6,4), Sentinel 2B


(8A,11,4)

Infrarrojo de onda corta: Landsat 8 (7,5,4), Sentinel 2B (12,8A,4)

22
Análisis de vegetación: Landsat 8 (6,5,4), Sentinel 2B (11,8A,4)

Análisis de vegetación sana: Landsat 8 (5,6,2), Sentinel 2B


(8A,11,2)

23
Índice NDVI: Landsat 8 (5-4)/(5+4), Sentinel 2B (8-4)/
(8+4). Cálculo del índice NDVI

Índice NDWI: Landsat 8 (3-5)/(3+5), Sentinel 2B (3-8)/(3+8)

Índice NDSI: Landsat 8 (3-6)/(3+6), Sentinel 2B (3-11)/(3+11)

24
Landsat 7 Landsat 8

Banda Ancho (µm) Resolución (m) Banda Ancho (µm) Resolución (m)

Band 1 Coastal 0.43 – 0.45 30

Band 1
Blue 0.45 – 0.52 30 Band 2 Blue 0.45 – 0.51 30

Band 2
Green 0.52 – 0.60 30 Band 3 Green 0.53 – 0.59 30

Band 3 Red 0.63 – 0.69 30 Band 4 Red 0.64 – 0.67 30

Band 4 NIR 0.77 – 0.90 30 Band 5 NIR 0.85 – 0.88 30

Band 5
SWIR1 1.55 – 1.75 30 Band 6 SWIR1 1.57 – 1.65 30

25
Band 7
SWIR2 2.09 – 2.35 30 Band 7 SWIR2 2.11 – 2.29 30

Band 8 Pan 0.52 – 0.90 15 Band 8 Pan 0.50 – 0.68 15

Band 9 Cirrus 1.36 – 1.38 30

Band 6 TIR 10.40 – 12.50 30/60 Band 10 TIRS1 10.6 – 11.19 100

Band 11 TIRS2 11.5 – 12.51 100


En su mayor parte, las bandas se alinean con lo que estamos acostumbrados,
con algunos ajustes menores de los rangos espectrales. La banda del
infrarrojo térmico del Landsat 7 ahora está dividida en dos bandas de
Landsat 8. Mientras que antes de tener una banda térmica que fue adquirido
a 60 metros de resolución (y vuelve a muestrear a 30 metros) ya que ha
aumentado la resolución espectral a costa de la resolución espacial. No sería
la teledetección y sin concesiones, ¡verdad!

26

Вам также может понравиться