Вы находитесь на странице: 1из 14

CUESTIONARIO DE LA MATERIA DE GEOMÁTICA BÁSICA

1. ¿Qué es la proyección UTM?

Proyección cartográfica Mercator Transversa Universal. Consiste en


60 husos de 6 grados de longitud ordenados convencionalmente.
Cada huso tiene asignado un meridiano central, que es donde se
sitúa el origen de coordenadas, junto con el Ecuador.

Es el resultado de proyectar la esfera sobre un cilindro tangente a


un meridiano central. Usado para áreas con orientación norte-sur y
este-oeste. La distorsión de la escala, distancia, dirección y área
incrementan fuera del meridiano central.

2. ¿Por qué la Carta Topográfica es la base para las Cartas Temáticas?

Porque estas expresan un tema en particular para ser analizado con cierta simbología en forma
gráfica, ofreciendo una imagen de la distribución de los fenómenos en un área.

Pueden ser cualitativas y cuantitativas según la característica de elementos y fenómenos, su


cantidad, proporción de éstos en el espacio y territorio. En los dos encontramos tres tipos de
simbología: Puntual, lineal, A real.

3. Anote cuando menos tres tipos de proyecciones utilizados en la Cartografía, pueden ser
las proyecciones generales (Cilíndrica, cónica, polar, etc.).

Proyección cónica:

La proyección cónica cartográfica se obtiene proyectando los elementos de la superficie esférica


terrestre sobre una superficie cónica tangente o secante a la esfera, tomando el vértice en el eje
que une los dos polos.
Cónica tangente

Cónica secante:

Proyección cilíndrica:

Estas proyecciones tienen en ángulo recto los meridianos y paralelos. Los meridianos están
igualmente espaciados, los paralelos en forma desigual. Esta puede ser normal, transversa y
oblicua. La escala es real a lo largo de la línea central (El ecuador para la normal, el meridiano
central para la transversa y una línea selecta para la oblicua) y a lo largo de dos líneas
equidistantes de la línea central. La distorsión de Forma y Escala incrementa cerca de los 90
grados de la línea central.

Proyección acimutal:

Se proyecta una porción de la Tierra directamente sobre un plano


tangente al globo en un punto seleccionado, obteniéndose una imagen
similar a la visión de la Tierra desde un punto interior, por la que
pasaría a llamarse gnomónica, o exterior, llamada ortográfica. Es la
más sencilla de visualizar.

4. Definición de Fotogrametría.

Ciencia desarrollada para obtener medidas reales a partir de fotografías, tanto terrestres como
aéreas, para realizar mapas topográficos, utilizan fotografías tomadas por una cámara especial
situada en un avión o en un satélite. Las distorsiones de las fotografías se corrigen utilizando un
aparato denominado restituidor fotogramétrico. Este proyector crea una imagen tridimensional al
combinar fotografías superpuestas del mismo terreno tomadas desde ángulos diferentes.

La fotogrametría es una técnica para determinar las propiedades geométricas de los objetos y las
situaciones espaciales a partir de imágenes fotográficas. Puede ser de corto o largo alcance.
5. Esquematice los tres aspectos de Proyecto Fotogramétrico (Aspecto Terrestre, Aspecto
Aéreo,Aspecto de Gabinete).

a).- Aspecto terrestre

Tiene como objetivo la determinación de un sistema de puntos de control terrestre que será utilizado
como referencia o sistema patrón en la etapa de aprovechamiento de la imagen fotográfica. Los
puntos de este sistema se denominan puntos de apoyo fotogramétrico (P.A.F.) y deberán ser
posicionados geográficamente por sus coordenadas (X, Y, Z), a través de un levantamiento
topográfico o geodésico convencional o por algún otro método de densificación de tales puntos. Los
puntos de control terrestre, ya sean provenientes de una red existente o nueva a determinar, deben
ser correctamente identificados sobre fotografías aéreas. Para ello lo más indicado consiste en
colocar sobre los mismos una señal apropiada, en un momento próximo a la ejecución del vuelo
como sea posible.

Tipos de Apoyo:

a.1.- Apoyo Pre-vuelo: Implica definir la ubicación de los puntos (P.A.F.) en el terreno previo a la
ejecución del vuelo fotográfico. En tal caso los (P.A.F.) deben ser marcados con señales diseñadas
según la escala de vuelo, las características topográficas y climáticas de la zona, a efectos de
asegurar una buena imagen de la señal en la fotografía. Finalizada la marcación de los P.A.F., se
realiza la medición de los mismos utilizando métodos geodésicos o de topografía clásicos. Es
condición necesaria que los PAF se encuentren perfectamente identificados en la imagen fotográfica
y se correspondan en forma biunívoca con los elementos del terreno.

a.2.- Apoyo Pos-vuelo: En este caso la definición de los PAF se hace posterior a la realización del
vuelo, identificando en gabinete puntos característicos de las fotografías, generalmente ampliada,
que luego serán localizados en el terreno para su medición. Como se dijo anteriormente es
fundamental que haya correspondencia exacta entre los puntos medidos en el terreno y los
identificados en la imagen fotográfica.
a.3.- Densificación del Apoyo: La red de puntos de apoyo puede ampliarse a partir de apoyos pre o
pos-vuelo, mediante un proceso de densificación, en gabinete, denominado aerotriangulación
fotogramétrica. Esta densificación es aplicable cuando la cantidad de fotogramas que intervienen en
la medición fotogramétrica es demasiado grande.

b).- Aspecto aéreo

Constituye uno de los aspectos más importantes del proceso, ya que tiene como objetivo
fundamental la obtención del material fotográfico necesario para llevar adelante un proyecto
fotogramétrico. En principio se requiere una adecuada cobertura fotográfica, tal que cada parte del
terreno sea registrada, garantizando resultados fotográficos aceptables.

b.1.- Planificación de Vuelo: Etapa en la que se define los parámetros geométricos del vuelo, para
conseguir una adecuada cobertura fotográfica y estereoscópica que permitan el óptimo
aprovechamiento de este material

b.2.- Ejecución y Procesamiento del Vuelo: Etapa en la que se obtiene las imágenes fotográficas de
acuerdo a la planificación previa. Es el vuelo propiamente dicho durante el cual se realiza en cada
toma, la exposición de la película fotográfica. Posteriormente el material expuesto es procesado en
laboratorios para obtener distintos productos fotográficos.

c).- Aspecto de gabinete

La extracción de la información contenida en las fotografías aéreas, para generar los diversos
productos que de ellas se derivan, requiere el uso de los instrumentos específicos 4 precisos y
minuciosos procesos con trabajos de detalle. Según los métodos e instrumentos utilizados se pueden
distinguir tres tipos de productos finales.

c.1.- Productos Fotográficos: Tales como: negativos, copias positivas y diapositivos son de
inmediata obtención. Otros productos que combinan las cualidades métricas de los mapas, con la
abundancia de los detalles, que poseen las fotografías, requieren procesos cuyo resultado se conoce
como "ortofotocarta".

c.2.- Productos cartográficos: Son representaciones cartográficas de la superficie del terreno,


mediante documentos gráficos o digitales que contienen, en forma abstracta los rasgos y detalles de
la superficie del mismo. Tales rasgos conforman la información planialtimétrica de los mapas que,
además incluyen toponimia y elementos acotados, símbolos y leyendas.

c.3.- Productos numéricos: Son conjuntos de coordenadas planialtimétricas obtenidas en procesos


de medición con las imágenes, de puntos de la superficie terrestre derivándose de ellas datos tales
como: distancias, pendientes, desniveles, superficies, volúmenes, perfiles longitudinales y/o
transversales, modelos digitales del terreno, etc.

6. Anote tres aplicaciones de la Fotogrametría Aérea.

1. Preparación y mitigación:

Las fotografías aéreas permiten mejorar la respuesta de gobiernos, organizaciones vinculadas a la


intervención de emergencia y de recuperación, comunidades y personas anticipando así, los
potenciales impactos o riesgos derivados de una situación de desastre.

2. Turismo:
Una atractiva forma de promocionar una zona turística mediante fotos aéreas de 360º es posible a
bajo coste mediante el uso de drones. Podemos crear un paseo virtual por la zona y las instalaciones
listo para ser publicado en una página web.

3. Investigación y conservación de la naturaleza:

Nuestros drones son una solución de bajo impacto ambiental que permiten realizar observaciones
cercanas de especies animales causando las menores molestias. Es posible realizar recuentos,
estudios de distribución, seguimiento de migraciones, control animales marcados, etc.

4. Agricultura y ganadería:

Las fotografías aéreas con nuestros permiten poder realizar recuentos de ganado, de árboles y de
cultivos de forma rápida y precisa. Esto permite el poder plantear recursos ante la PAC.

5. Control de obras:

A través de fotografías aéreas se puede estimar el avance de la construcción de edificios, obras o


infraestructuras lineales.

7. ¿Qué es la Percepción Remota?

Conjunto de conocimientos y técnicas que se utilizan para determinar características físicas y


biológicas de objetos mediante mediciones a distancia, sin contacto material con ellos. (cultivos,
zonas urbanas, etc.)

8. Que es el Procesamiento de Imágenes de Satélite

Es el conjunto de métodos y técnicas utilizados para extraer información de las imágenes de satélite.
El objeto del procesamiento digital de imágenes es mejorar la imagen digital que será utilizada para
el análisis e interpretación del medio geográfico. Involucra el uso de hardware y software. Estas
imágenes pueden ser ópticas provenientes de satélites pasivos, como también provenientes de
satélites con radar de apertura sintética.

Las imágenes que brindan los múltiples satélites que vigilan el planeta pueden ser analizadas en
detalle para monitorear el estado de los ríos y predecir potenciales inundaciones, actualización del
catastro agrícola, búsqueda de zonas potenciales de existencia de acuíferos, para brindar los
esfuerzos de respuesta y auxilio a los damnificados de catástrofes naturales, mapear y evaluar el
daño causado por los fenómenos atmosféricos, se utiliza para el cálculo del impacto en la salud
pública debido a los volúmenes de agua y el de materiales sujetos a descomposición. La información
espacial puede ser utilizada en todas las actividades socioeconómicas que desarrolla el sector
público y privado del país.

Estos cursos están dirigidos a profesionales y técnicos que están trabajando en la evaluación de
recursos naturales en las actividades de la agricultura, la pesca, la minería, los transportes,
planificación y desarrollo en catastros, planificación de las actividades extractivas y de penetración
vial, en el estudio e investigación de los fenómenos naturales y sus efectos en el calentamiento global
para la prevención y oportuna toma de decisiones

9. Menciona algunas ventanas del procesamiento y los principales campos de aplicación

-Agricultura y bosques

-Cartografía y planeamiento urbanístico


-Geología

-Meteorología

-Recursos hidrográficos

-Oceanografía y recursos marítimos

-Medio ambiente

10. Explica brevemente la evolución de las imágenes de satélite

La primera imagen satelital de la tierra fue tomada el 14 de agosto de 1959 por el satélite
estadounidense Explorer 6. La primera fotografía satelital de la luna fue tomada por el satélite
soviético Luna 3 el 6 de octubre de 1959, en una misión para fotografiar el lado oculto de la Luna. La
canica azul, fue tomada en el espacio en 1972, esta fotografía se volvió muy popular en los medios
de comunicación y entre la gente. También en 1972 los Estados Unidos comenzaron con el programa
Landsat, el mayor programa para la captura de imágenes de la tierra desde el espacio. El Landsat
7, el último satélite del programa, fue enviado al espacio en 1999.

En 1977, se obtiene la primera imagen satelital en tiempo real, mediante el satélite KH-11.

Todas las imágenes satelitales obtenidas por la NASA son publicadas por Observatorio de la Tierra
de la NASA y están disponibles para el público.

11. ¿Cuáles son los tipos de plataforma utilizados para la Percepción Remota?

La percepción remota de un ambiente acuático puede realizarse desde una variedad de plataformas
de observación. Dependiendo de la distancia entre el sensor y el objetivo, se puede identificar cuatro
categorías de plataformas: barcos, globos, aviones y satélites.

-Barcos

Barcos, boyas, submarinos y otros sumergibles han estado en uso como plataformas de percepción
remota por cincuenta años, fundamentalmente en conjunto con ecosondas y sonares. El sonar, que
fue desarrollado en 1918, fue utilizado por primera vez en aplicaciones pesqueras en los años treinta.
La mayoría de los barcos pesqueros modernos están equipados con ecosondas que utilizan cartas
de papel o tubos de rayos catódicos (CRT) como unidades de despliegue. Ahora, sin embargo, el
sonar con sistema de audio se está volviendo popular y es un método rápido y efectivo de transmitir
información.

El uso de boyas y submarinos para detección visual o por eco de peces, ha sido fundamentalmente
experimental. Los ecosondas o sonar han sido instaladas en sumergibles arrastrados a una distancia
desde el barco nodriza para minimizar la interferencia de ruido del motor del barco sobre la especie
objetivo. Sumergibles tales como RUFAS (Sistema de Percepción Subacuática para Evaluación de
Pesquerías), equipado con cámaras de televisión subacuáticas han sido utilizados exitosamente en
la evaluación de recursos de almeja.

-Globos

Globos flotantes o anclados han sido utilizados de manera limitada para la fotografía aérea de
cuerpos de agua tales como bahías y lagos para seguir o trazar la circulación del agua, la
sedimentación, etc.
Los globos son de uso limitado para la percepción remota de superficies vastas del acéano debido
a su inestabilidad y su baja velocidad.

-Aviones

Los aviones han sido utilizados extensivamente como plataformas de percepción remota para el
mapeo de tierras y costas, estudios oceanográficos y para la detección de cardúmenes de peces.
Este es uno de los métodos más eficientes de percepción remota de la superficie de la tierra a
grandes escalas. Los aviones tienen la ventaja de optimizar la adquisición de datos al proveerle al
operador acceso a la instrumentación de percepción remota y al permitir un amplio rango de
parámetros de adquisición. Una misión de percepción remota puede realizarse sobre un área
particular en un momento específico (permitido por las condiciones del tiempo) y puede ser repetido
bajo condiciones controladas. Una altitud adecuada puede ser seleccionada para optimizar la
resolución y el área de cobertura. Aviones comerciales disponibles pueden alcanzar una altitud de
15 kilómetros. Los aviones pueden ser equipados con equipo fotográfico blanco y negro, color o color
infrarrojo (CIR), barredores multiespectrales o sensores activos tales como el radar.

Las principales desventajas de la percepción remota desde un avión, son la inestabilidad de la


plataforma, la cobertura geográfica limitada (debido a la relativamente baja altitud del avión), el alto
costo y la dependencia de las condiciones ambientales. Este método, por lo tanto, es utillzado
principalmente para misiones críticas en tiempo. Cuando la misión requiere imágenes repetitivas de
la misma área, es generalmente preferido el significativamente más bajo costo de acceso a los datos
de satélite.

-Satélites

Con el uso de satélites como plataformas de percepción remota, ha sido posible superar algunas de
las dificultades enfrentadas en la percepción remota con aviones. Los satélites pueden monitorear
el total de la superficie de la tierra sobre bases periódicas, cubriendo una sección suficientemente
grande en cada revolución. Los satélites diseñados para percepción remota sobre bases
operacionales son generalmente no tripulados. Sin embargo, algunos satélites tripulados han
proporcionado información valiosa a pesar de la corta duración de sus misiones, por ejemplo,
SKYLAB, SOYUZ y los trasbordadores espaciales.

12.Explique los siguientes parámetros orbitales.

a. Altitud de la órbita (h): La órbita geoestacionaria es una órbita en el plano ecuatorial de la Tierra
a 35 796 kilómetros de altitud.

b. Radio de la órbita (R): Indica la distancia media del planeta al sol, medida en unidades
astronómicas (UA). Una UA equivale a unos 150 millones de kilómetros. Contar las distancias de los
planetas en UA en lugar de en kilómetros es costumbre antigua de los astrónomos, y sirve, entre
otras cosas, para no tener que usar números grandes: es más cómodo decir que tal asteroide está
a tres UA de la Tierra que decir que está a chorrocientos millones de kilómetros.

c. Número de satélites del sistema (Ns): Los satélites que observan la Tierra obtienen
información diversa de:
a. Satélites de recursos naturales (Landsat y SPOT)
b. Meteorológicos (GOES, NOAA, Seawifs y MODIS)
c. Satélites de alta resolución (Ikonos, Quickbird, Geoeye, WorldView)
d. Equipos rádar (ERS, Envisat y Radarsat)

d. Número de órbitas (No):


e. Inclinación: La inclinación orbital “i” puede ser definida como el ángulo formado por el plano orbital
y el plano ecuatorial.

La inclinación orbital es el ángulo que forma el plano de la órbita (plano orbital) de un astro con
respecto a un plano de referencia. En el sistema solar, para los planetas se usa como referencia el
plano de la eclíptica de la Tierra (plano orbital de la Tierra). Se mide en grados sexagesimales.

f. Elevación mínima (Emin): Los satélites ubicados en promedio a 321.80 kilómetros de altitud se
consideran de órbita baja

g. Velocidad del satélite (v): La velocidad orbital es la velocidad que debe tener un planeta, satélite
(natural o artificial) o similar para que su órbita sea estable.

13. ¿Qué es, ¿Cuántos y cuáles son los tipos de sensores?

Los sensores son instrumentos susceptibles de detectar la señal electromagnética (Radiación


reflejada o emitida) que les llega de la tierra y la Atmósfera y convertirla en una magnitud física que
puede ser tratada y grabada. Los sensores pueden convertir la señal electromagnética en un formato
análogo (fotografía) o digital (imagen). Para llevar a cabo la observación del terreno, los sensores
son instalados en plataformas, fijas o móviles: grúas, cometas, globos, aviones, cohetes o satélites.

La principal forma de clasificar los sensores remotos es la que considera el procedimiento de recibir
la energía procedente de las cubiertas. En este sentido tenemos dos tipos de sensores:

Activos: cuando son capases de emitir su propio haz de energía, que posteriormente recogen tras
su reflexión sobre la superficie que pretende observar. El equipo más común es el radar, éste trabaja
en la región de las microondas y su importancia radica en que no es afectado por las condiciones
climáticas.

Pasivos: se limitan a recoger la energía electromagnética procedente de las cubiertas terrestres ya


sea ésta reflejada de los rayos solares, o emitida en virtud de su propia temperatura.

14.Menciona las principales formas de radiación (emisión, reflectividad, emitancia, etc).

Absorción, reflexión y transmisión

E
R

a) EMISIÓN: Todos los cuerpos emiten un espectro continuo de longitudes de onda ( dispersión =
análisis de las distintas longitudes de onda, λ, de los cuerpos).

b) TRANSPORTE: Con o sin presencia de materia.

c) RECEPCIÓN: La energía radiante (E), al chocar con un cuerpo, es absorbida (A), reflejada (R) y
transmitida (T) en proporciones variables según la naturaleza del cuerpo.
El emisor convierte parte de su energía interna (U) en ondas electromagnéticas (-ΔU).

La parte de energía radiante incidente absorbida por la superficie del cuerpo (A) se transforma en un
aumento de su energía interna (+ΔU) y, por tanto, en un aumento de su temperatura (+ΔT). La absorción
de radiación es un fenómeno superficial y no un fenómeno de volumen, de forma que en el interior del
sólido no afecta la absorción. Sin embargo, el calor generado en la absorción puede fluir hacia el interior
del sólido por conducción.

Según el principio de conservación de la energía:

E = A+ R +T

Dividiendo esta expresión por la energía incidente (E):

A R T
1= + +
E E E
O bien:
1=  +  +

Siendo:

α = A/E = fracción de la radiación que es absorbida = poder absorbente = absortividad.

ρ = R/E = fracción de la radiación que se refleja = poder reflexivo = reflectividad.

τ = T/E = fracción de la radiación que se transmite = poder transmisivo = transmisividad.

La mayor parte de los sólidos con los que se trabaja en ingeniería y arquitectura son cuerpos opacos a
la radiación, es decir, poseen una transmisividad tan baja que puede considerarse nula frente a la
absortividad y reflectividad. Para éstos se verifica:

τ=0  α+ρ=1

Sin embargo, el vidrio, ciertos materiales plásticos y algunos minerales, así como los gases, tienen una
transmisividad muy alta y, por tanto, baja absortividad y reflectividad. En el caso del aire (seco y limpio)
las radiaciones térmicas lo atraviesan como si fuera el vacío, verificándose:

τ1  αρ0

Reflexión de los cuerpos opacos

En general, el coeficiente de reflexión (reflectividad) de un cuerpo opaco depende de la temperatura y


de la superficie del material, de la longitud de onda incidente y del ángulo de incidencia.
Existen dos tipos principales de reflexión:

a) Reflexión especular. Se produce en superficies lisas y pulimentadas en las que el rayo reflejado forma
el mismo ángulo que el rayo incidente. En estas superficies ρ  1 y α  0.

b) Reflexión difusa. Se produce sobre superficies rugosas o sin brillo que reflejan de forma difusa en
todas direcciones y no existe un ángulo de reflexión concreto. En éstas:   1 y ρ  0.
La mayor parte de las superficies industriales utilizadas en construcción producen reflexión difusa y se
puede aceptar la hipótesis de que  y ρ son independientes del ángulo de incidencia. Para algunas
superficies se puede aceptar, además, la hipótesis de que  es el mismo para todas las longitudes de
onda. A estas superficies se les llama cuerpo gris.

CASOS LÍMITE

CUERPO TRANSPARENTE O DIATÉRMANO: Transmite toda la radiación incidente. τ = 1.

CUERPO BLANCO: Refleja toda la radiación incidente. ρ = 1.

CUERPO NEGRO: Absorbe toda la radiación incidente. α = 1.

Emitancia o poder emisivo

Emitancia o poder emisivo (o potencia emisiva) es la cantidad total de energía radiante de todas las
longitudes de onda que es emitida por un cuerpo por unidad de tiempo y unidad de superficie. Se
simboliza: W.

Emitancia monocromática o poder emisivo monocromático es la cantidad de energía radiante de una


determinada longitud de onda  emitida por un cuerpo por unidad de superficie y de tiempo. Se simboliza
por W. Si se refiere a un cuerpo negro se simboliza: Wn.

La emitancia total, para todo el espectro de la radiación procedente de una superficie, es la suma de
todas las radiaciones monocromáticas que salen de dicha superficie:


W  W .d
0

Desde el punto de vista físico, la emitancia total es la radiación de todas las longitudes de onda emitida
por la unidad de superficie en la unidad de tiempo en todas las direcciones, que es captada por una
semiesfera centrada en la superficie.

Emisividad es la relación entre la emitancia total de un cuerpo y la del cuerpo negro a la misma
temperatura (T). Se simboliza por  .
15. Describe los componentes de un Sistema de Teledetección, y dibuja un esquema.

Un sistema de teledetección este compuesto por los siguientes elementos

1. Fuente de Energía: Es el emisor de


la radiación electromagnética que
llegara a la superficie terrestre y que
posteriormente será detectada por el
sensor. Puede ser el sol (como fuente
natural) o el mismo sensor (como
fuente artificial).

2. Cubierta Terrestre: Formada por


distintas masas de vegetación, suelo,
agua o infraestructura. Esta recibe la
radiación electromagnética
proveniente de la fuente de energía
(1), y la refleja o emite de acuerdo a
sus características físicas.

3. Sistema Sensor: Constituido por el


sensor mismo y la plataforma que lo
sustenta. El sistema tiene como
función captar la energía emitida por
la cubierta terrestre, codificarla y
grabarla o enviarla directamente al
sistema de recepción.

4. Sistema de recepción y
comercialización: este sistema recibe
la información transmitida por la
plataforma y la guarda en un formato
especifico y apropiado. Posterior a las
correcciones necesarias, se
distribuye a los interesados.

5. Intérprete o Analista: Es la persona


encargada de clasificar y analizar la información contenida en la imagen para generar información
temática. 6. Usuario Final: Es quien finalmente recibirá y utilizará la información ya procesada por el

16. Que es una Imagen Digital

Una imagen es una representación de la realidad. imagen que puede ser manipulada mediante un
equipo informático. Desde este punto de vista podríamos caracterizar las imágenes digitales

• Pueden proceder de una fuente digital como una cámara o un escáner.

• Se puede mostrar en una pantalla.

• Se pueden procesar con ayuda del software específico.

• Se pueden guardar en cualquier dispositivo de almacenamiento masivo como memorias USB,


discos duros, CD o DVD, etc.
17. Explica las resoluciones que caracterizan a un sensor de teledetección y da un ejemplo
de cada una.

Una imagen de satélite se caracteriza por las siguientes modalidades de resolución:

 resolución espacial
 resolución espectral
 resolución radiométrica
 resolución temporal.

Resolución espacial: Este concepto designa al objeto más pequeño que se puede distinguir en la
imagen. Está determinada por el tamaño del píxel, medido en metros sobre el terreno, esto depende
de la altura del sensor con respecto a la Tierra, el ángulo de visión, la velocidad de escaneado y las
características ópticas del sensor.

Por ejemplo las imágenes Landsat TM, tienen una resolución espacial de 30x30 m en las bandas
1,2,3,4, 5 y 7 y de 120x120m en la 6 (térmica). El sensor SPOT - HRV tiene una resolución de
10x10m, mientras que los satélites meteorológicos como NOAA, el píxel representa un tamaño desde
500 a 1100m de lado.

Resolución espectral: Consiste en el número de canales espectrales (y su ancho de banda) que es


capaz de captar un sensor. Por ejemplo SPOT tiene una resolución espectral de 3, Landsat de 7.
Los nuevos sensores, llamados también espectrómetros o hiperespectrales llegan a tener hasta 256
canales con un ancho de banda muy estrecho (unos pocos nm) para poder separar de forma precisa
distintos objetos por su comportamiento espectral.

Resolución radiométrica: Se la llama a veces también resolución dinámica, y se refiere a la


cantidad de niveles de gris en que se divide la radiación recibida para ser almacenada y procesada
posteriormente. Esto depende del conversor
analógica digital usado.

Así por ejemplo Landsat MSS tiene una resolución espectral de 26= 64 niveles de gris en el canal 6,
y Landsat MSS en las bandas
4 a 7 de 27= 128 niveles de gris, mientras que en Landsat TM es de 28 = 256. Esto significa que
tenemos una mejor resolución dinámica en el TM y podemos distinguir mejor las pequeñas
diferencias de radiación.

Resolución temporal: Es la frecuencia de paso del satélite por un mismo punto de la superficie
terrestre. Es decir, cada cuanto tiempo pasa el satélite por la misma zona de la Tierra. Este tipo de
resolución depende básicamente de las características de la órbita.

El ciclo de repetición de los Landsat-1 al Landsat -3 era de 17 días. A partir del Landsat 4 en 1984
el ciclo de repetición se redujo a 15 días. SPOT permite un ciclo de repetición de entre 3 y 26 días.
18. ¿A qué se le llama Firma espectral?

La forma en la cual un objeto refleja, emite o absorbe la energía em conforma un patrón espectral
denominado FIRMA ESPECTRAL.

La misma permite identificar y discriminar diferentes objetos de la naturaleza. La firma espectral se
“construye” a partir de la señal registrada por los SR en las diferentes porciones del Espectro em

19. Que es un Sistema de Información Geográfica (SIG).

Es un conjunto de herramientas que integra y relaciona diversos componentes (usuarios, hardware,


software, procesos) que permiten la organización, almacenamiento, manipulación, análisis y
modelización de grandes cantidades de datos procedentes del mundo real que están vinculados a
una referencia espacial, facilitando la incorporación de aspectos sociales-culturales, económicos y
ambientales que conducen a la toma de decisiones de una manera más eficaz.

En el sentido más estricto, es cualquier sistema de información capaz de integrar, almacenar, editar,
analizar, compartir y mostrar la información geográficamente referenciada. En un sentido más
genérico, los SIG son herramientas que permiten a los usuarios crear consultas interactivas, analizar
la información espacial, editar datos, mapas y presentar los resultados de todas estas operaciones.

20. Menciona brevemente la evolución de los SIG.

Fase 1: Periodo de conceptualización: 1975-1985

Enfoque netamente cartográfico, de naturaleza geográfica, objetivo llevar mapas al medio digital.

Fase 2: Periodo de implementación: 1985-1995

Enfoque geo-céntrico, pero con la necesidad de integrar los sis , pero con la necesidad de integrar
los sistemas de temas de información y la parte geográfica: (almacenar, recuperar, alterar,
retroalimentar datos geográficos).

Fase 3: Periodo de maduración, 1995 – 1998:

Mas aplicaciones, mejoramiento de Mas aplicaciones, mejoramiento de softwares, trabajo abierto,


interdisciplinarios más expansivos, , etc.

Fase 4: Periodo de apertura: 1998-… Los SIG llegan a un punto de apertura y expansión sin
precedentes, gracias a la fuerza de la tecnología informática que requieren sistemas abiertos,
interoperables, de integración en red, gracias a la internet y su Word wide web
En la actualidad y en el futuro inmediato los sistemas de información geográfica jugarán un papel
muy importante en la implementación de temas como:

-Agricultura de Precisión

-SIG Móvil (GIS móvil)

-Servicios Web de Información Geográfica

-Navegación en 3 Dimensiones (GIS 3D)

-Infraestructural Global de Datos Espaciales