Вы находитесь на странице: 1из 9

2.

MARCO TEÓRICO

2.1. Teledetección y sus elementos

La Teledetección es definida como una técnica cuyo objetivo es la captura, tratamiento y


análisis de imágenes tomadas desde satélites artificiales. Para que esta interacción exista es
necesario que exista un vínculo entre los objetos y el sensor (E Chuvieco, 2008). Autores
como Sabins and Lulla (1987) consideran a la teledetección como una ciencia de la
adquisición, procesamiento e interpretación de imágenes que estudian la interacción entre la
energía electromagnética y la materia. El concepto de teledetección tal y como se entiende
en la actualidad comenzó en el período de 1946 a 1950. La observación sistemática de la
tierra comenzó en el año 1960 con el lanzamiento del TIROS-1, primer satélite
meteorológico con una cámara de televisión de baja resolución espacial que permita a los
meteorólogos discriminar entre nubes, agua, hielo y nieve (Labrador García et al., 2012).
Uno de los proyectos más fructíferos fue el proyecto LANDSAT, lanzándose su primer
satélite el 6 de enero de 1978, iniciando con él una serie histórica de imágenes satelitales de
mediana resolución.

2.1.1. Ventajas de la teledetección

A: Provee las propiedades electromagnéticas de la tierra por encima de diferentes


condiciones, los datos obtenidos de los sensores pueden ser relacionados a los parámetros o
características en el mundo real.

B. Provee una mirada sinóptica de grandes extensiones de territorio.

C. Provee información de unos pocos milímetros por encima de la superficie terrestre.

D. Provee facilidad para obtener información de áreas de difícil acceso.

E. Provee imágenes multipropósito. Una sola imagen puede ser utilizada para obtener
diversidad de productos desde diferentes enfoques, además es una imagen que tiene un
valor temporal bastante alto.

F. Provee una relación costo-efectividad bastante útil para proyectos que requieren gran
cantidad de personal, acceso a zonas difíciles que elevan los costos, máquinas, etc.

2.1.2. Elementos de la teledetección: Cuando la energía incide sobre una superficie de


materia sólida, es reflejada, absorbida o transmitida. El grado de reflexión, absorción o
transmisión depende de las propiedades del material y de la longitud de onda de la energía.
Las diversas respuestas que los diferentes materiales de la tierra poseen hacen que se
registren las imágenes en percepción remota con el fin de discriminar diversas coberturas
deduciendo así la identidad de los materiales presentes en la superficie terrestre (Menéndez
& Nuñez, 2009).
Figura 1: Proceso de percepción remota

El proceso de formación de una imagen incluye los siguientes elementos fundamentales:

A. Una fuente de energía electromagnética

B. Un medio de propagación o transmisión de la energía (atmósfera)

C. La reflexión o emisión de la energía por parte del objeto

D. La transmisión de la energía desde el objeto al sensor remoto a través de un


medio de propagación.

E. Registro de la energía que llega al detector y su almacenamiento ya sea en forma gráfica


(emulsión fotográfica), analógica (cinta magnética) o
digital (memorias).

2.1.3. Espectro Electromagnético: Las ondas


electromagnéticas por su longitud de onda en micrómetros
(μm, 10-6m) o nanómetros (nm, 10-9m), por la posición
que ocupan en el espectro electromagnético Figura 2. La
luz visible es sólo una de las muchas formas de radiación
electromagnética que existen, ésta ocupa una pequeña
porción en el espectro electromagnético. Es importante
indicar en este punto, que ésta es la única porción del
espectro que podemos asociarla con el concepto de color,
estando presentes los colores primarios: rojo, verde y azul,
los cuales son perceptibles ante la vista humana (Janssen
& Huurneman, 2000).

Figura 2: Espectro
electromagnético
Cuadro 1: Descripción de las Regiones del Espectro Electromagnético

2.1.4. Tipos de sensores: pasivos y activos: Los sensores se clasifican en dos tipos debido a
la capacidad que poseen de generar o recepcionar la energía. Para este caso tenemos los
sensores pasivos y los sensores activos. Las técnicas pasivas están basadas en utilizar los
recursos naturales de energía tales como el sol, estos tipos de sensores dependen de la luz
solar o en todo caso de la luz artificial, pero sólo pueden trabajar de día. A estos tipos de
sensores se les conocer como ópticos y están representados por satélites como Landsat,
Spot, Aster, Ikonos, Quickbird GeoEye, WorldView, entre otros. Por otro lado, las técnicas
activas están referidas a la capacidad que posee el sensor de generar su propia fuente de
energía. La principal ventaja de este tipo de sensores es que pueden trabajar de día y de
noche y sin ser afectados por las condiciones atmosféricas. Estos tipos de sensores son
conocidos como sensores de radar y lidar. Sensores como Alos Palsar, Sentinel, Radarsat
representan los sensores activos.

2.1.5. Tipos de imágenes satelitales:. Para el caso de las imágenes satelitales, la


recomendación para cada tipo de imagen espacial está condicionada por dos factores: (a)
Identificar el máximo de información posible, presente en la imagen, condicionada por su
resolución espacial. (b) Presentar una precisión planimétrica o un error de precisión que se
mantenga dentro de determinados valores. Para este último caso, es importante indicar que
este nivel de precisión o error, no dependerá de la imagen como tal, sino del nivel de
precisión geométrico utilizado. Los satélites comerciales de alta y muy alta resolución son
capaces de entregar información con una precisión geométrica y radiométrica muy elevada.
Satélites como GeoEye- 1, entregan información a 0.44 m de resolución, lo cual unos años
atrás era casi imposible. La corrección geométrica incorpora un modelo digital del terreno
para corregir los errores de desplazamiento debido al terreno, así como la adaptación de un
conjunto de coordenadas mediante un ajuste de mínimos cuadrados. Mientras que la
georreferenciación, le otorga una ubicación geográfica dentro de un sistema de proyección
y un DATUM.

2.1.6. Reflectancia e interacción de la energía con los materiales presentes en la


superficie terrestre: La Reflectancia espectral de un objeto es una característica
fundamental en teledetección. Está definida como la proporción de energía incidente
reflejada por una superficie. Por lo cual, es una magnitud adimensional que puede tomar
valores entre 0 y 1 o porcentajes entre 0 y 100%.

2.1.7. Combinaciones y aplicaciones de las Bandas Espectrales: Existen diversas


combinaciones de bandas que hacen posible lograr análisis dirigidos a estudios más
específicos. Dependiendo del sensor y de los requerimientos del estudio, se consideran
importantes las combinaciones indicadas en el Cuadro 2 y aplicaciones descritas en el
Cuadro 3. Estas combinaciones descritas en ambos cuadros están basadas en imágenes
satelitales LANDSAT. Hay que considerar que, para imágenes como SPOT, ASTER las
combinaciones podrán ser diferentes. Para el caso de imágenes con bandas como GeoEye
se trabaja en base al espectro visible (RGB) unido al infrarrojo cercano (IR).

Cuadro 2: Combinaciones y usos de las bandas del sensor LANDSAT TM y ETM

Cuadro 3: Aplicaciones de las bandas del satélite LANDSAT TM Y ETM


2.2. Criterios de análisis de las imágenes satelitales

2.2.1. Criterios de interpretación visual

A. Tono. - Referido al brillo relativo de los objetos. Es importante considerar las


variaciones tonales en la interpretación de imágenes satelitales, considerándoseles
uno de los más importantes criterios de interpretación visual.

B. Color. – A diferencia de los tonos, los colores pueden ser mejor diferenciados
por el ojo humano, por lo que también se convierte en un elemento básico de
interpretación de una imagen.

C. Textura. - La textura está relacionada con la resolución espacial del sensor ya


que procede de la relación entre el tamaño del objeto y dicha resolución.

D. Tamaño. - Esta característica tiene que considerarse siempre en el contexto de la


resolución espacial y de la escala en la que está desplegada la imagen.

E. Forma. - Referido a la forma que caracteriza a los objetos en una imagen


satelital.

F. Patrón. - Referido a la distribución espacial de los objetos, a la repetición de


formas cada cierto espacio que permita su identificación.

G. Sombras. - Definido como la oscuridad en un área o espacio debido a que los


rayos de una fuente de energía no llegan a ella por la interposición de un cuerpo
opaco que forma parte del terreno o una construcción.
H. Localización. - Referido a la posición topográfica o geográfica en la que se
encuentran un objeto con respecto a un marco de referencia.

2.2.2. Tipos de resolución: Hay que considerar cuatro conceptos clave dentro del trabajo
con imágenes satelitales, estos son: (a) Resolución espacial, (b) Resolución espectral (c)
Resolución radiométrica y (d) Resolución temporal. Dependiendo del objetivo de trabajo se
consideran diversos parámetros para cada uno de los conceptos clave. A continuación, se
describen cada una de las resoluciones mencionadas:

Cuadro 4: Clasificaciones de resoluciones espaciales

A. Resolución espacial. - El concepto de resolución espacial define de manera


sencilla la distinción de objetos en función de su tamaño, es decir, la resolución
espacial suele interpretarse como el tamaño del objeto más pequeño que puede ser
distinguido en una imagen: tamaño de pixel sobre el terreno (Pérez & Muñoz,
2007). Según Poli (2005) la resolución espacial de las imágenes de satélite puede ser
clasificada como se indica en el Cuadro 4.

B. Resolución espectral. - Referido al número y anchura de las bandas espectrales


que puede discriminar el sensor . Un sensor será más idóneo cuanto mayor número
de bandas proporcione ya que facilita la caracterización espectral de determinadas
cubiertas (Eduardo Chuvieco, 1996). Normalmente los satélites adquieren las
imágenes en diferentes modos:

 Pancromático: el sensor es visible a todas las longitudes de onda del espectro


visible y del infrarrojo cercano, siendo el producto final una imagen en tonos de
grises .

 Multiespectral: el sensor puede distinguir diferentes bandas espectrales en el


espectro visible y en el infrarrojo cercano, creándose una imagen individual para
cada intervalo de longitudes de onda.

C. Resolución radiométrica. - Está definida como la cantidad mínima de energía


requerida para incrementar el valor de un pixel en un nivel digital (Labrador García
et al., 2012) y es expresada por el número de bits1 utilizados para cuantificar un
pixel (Díaz, 2011). La resolución radiométrica en imágenes digitales es comparable
al número de tonos de gris en una fotografía en blanco y negro, ya que ambos se
relacionan con el contraste. A mayor número de bits para almacenar el valor de la
reflectividad de un pixel, mayor resolución radiométrica (Pérez & Muñoz, 2007) .

D. Resolución temporal. - Esta resolución está definida como el ciclo de repetición


o intervalo de tiempo, entre dos adquisiciones de imágenes sucesivas de una misma
porción de la superficie. La frecuencia es variable, por ejemplo, los satélites
meteorológicos como NOAA tienen frecuencias diarias o incluso menores tal como
METEOSAT, mientras que satélites de mediana resolución como LANDSAT tienen
revisitas de entre 16 a 18 días (Labrador García et al., 2012). La resolución temporal
está condicionada por el tipo de órbita, el ángulo de barrido y la velocidad de
satélite (Pérez & Muñoz, 2007).

2.3. Perú SAT-1

Los primeros artefactos espaciales peruanos se remontan a los nano-satélites denominados


Chasqui 1 y PUCP SAT-1. El Chasqui 1, el nano-satélite de la Universidad Nacional de
Ingeniería empezó a diseñarse a finales de la década del 2000 y fue lanzado al espacio el
2004, mientras que el PUCP SAT-1, fue construido por la Pontificia Universidad Católica
del Perú, el cual fue lanzado al espacio el 2013, ambas iniciativas académicas (El Comercio
2016). En los últimos años el Perú ha dado los primeros pasos dentro del tema aeroespacial
con la adquisición del Perú SAT, un satélite sub-métrico, lanzado al espacio el 15 de
Setiembre del año 2016.

El Perú SAT-1, está a cargo de la Comisión Nacional de Investigación y Desarrollo


Aeroespacial – CONIDA, la cual depende del Ministerio de Defensa. Actualmente el
satélite recibe las imágenes en el Centro de Nacional de Operaciones de Imágenes
Satelitales – CNOIS, ubicado en Punta Lobos, Pucusana emplazada en un área de 3600 m2
, desde donde se opera y se comanda el satélite peruano. El satélite orbita la tierra a una
distancia de 694 km de nuestro planeta, desde donde envía las imágenes con una resolución
0.70 cm en la banda pancromática y 2.8 multiespectral en las cuatro bandas
multiespectrales (en total cuenta con cinco bandas espectrales). Cuenta con un barrido de
14.5 km y una resolución temporal de 3 días y 21 días para el tiempo de revisita, además es
capaz de obtener 300 imágenes diarias del país y unas 9000 imágenes por mes. Posee un
tiempo de vida aproximado de 10 años.

Es así que, considerando los últimos avances del país en la obtención de insumos para
análisis territoriales, el lanzamiento del satélite peruano Perú SAT-1, se convierte en una
oportunidad para obtener insumos de buena calidad enfocados a nuestro territorio. Con lo
cual contar a mediano plazo con las imágenes obtenidas de este satélite, servirá para definir
entre otros, características naturales y antrópicas de la superficie terrestre tales como
cuerpos de agua y red vial, entre otros.

Figura 3: Infografía del Perú SAT – 1 (Fuente: El Comercio)

2.4. Procesamiento de Imágenes Satelitales

El procesamiento digital de imágenes satelitales es definido como el conjunto de técnicas y


métodos utilizados para extraer e identificar características de las imágenes satelitales
ópticas o de radar. La finalidad de realizar un procesamiento a las imágenes satelitales es
mejorar la calidad de éstas, así como eliminar distorsiones causadas por la configuración
del terreno y que afectan la precisión geométrica de éstas.

BIBLIOGRAFIA
Corbelle Rico, E., Gil Docampo, M. L., Armesto González, J., & Rego Sanmartín, T.
(2006). La escala cartográfica de la imagen de satélite.Caso particular de las imágenes
Ikonos y QuickBird. Revista de Teledetección, 18-24.

Chuvieco, E. (1996). Fundamentos de Teledetección. 3ª edición revisada. Ediciones


RIALP, Madrid. España.

Chuvieco, E. (2008). Teledetección Ambiental (Tercera edición ed.). Barcelona, España:


Editorial Ariel.

Díaz, M. d. M. S. (2011). Generación de datos georreferenciados de muy alta resolución a


partir de imágenes de GeoEye-1: Universidad Almería.

Janssen, L. L., & Huurneman, G. (2000). Principles of remote sensing: ITC, International
Institute for Aerospace Survey and Earth Sciences.

Labrador García, M., Évora Brondo, J., & Arbelo Pérez, M. (2012). Satélites de
Teledetección para la gestión del territorio (G. Consejería de Agricultura, Pesca y Aguas
del Gobierno de Canarias. Ed.). Canarias, España.

Menéndez, M., & Nuñez, V. (2009). El uso de los sensores remotos en los Recursos
Naturales. Primera parte: La fotografía aérea y la fotointerpretación. Salta, Argentina:
Universidad Nacional de Salta.

Pérez, C., & Muñoz, A. (2007). Teledetección Nociones y Aplicaciones. España:


Universidad de Salamanca.

Piper, J., 1992. Variability and bias in experimentally measured classoifier error rates.
Pattern Recognition Letters, 13(10), pp. 685-692.

Poli, D. (2005). Modelling of spaceborne linear array sensors: Citeseer.

Ronggui, M., Weixing, W., & Sheng, L. (2012). Extracting roads based on Retinex and
improved Canny operator with shape criteria in vague and unevenly illuminated aerial
images. Journal of Applied Remote Sensing, 6(1), 063610-063610.

Sabins, & Lulla. (1987). Remote sensing: Principles and interpretation.

Вам также может понравиться