Академический Документы
Профессиональный Документы
Культура Документы
A divisão de imagens de duas bandas espectrais, tal como dividir a banda 5 do TM pela
banda 1, consiste na divisão pixel a pixel dos valores de brilho dos pixels da banda 5 pelos
correspondentes valores da banda 1 (Fig. 5 1). Como os valores desta divisão resultam em números
pequenos, eles devem ser multiplicados por uma constante a para recolocá-los entre 0 a 255. A
constante b tem o efeito de deslocar o histograma para uma posição central entre 0 a 255. O algoritmo
da divisão de bandas é na sua forma mais simples do tipo.
banda 5
banda 3
Dois motivos principais justificam a razão do uso de um algoritmo com essa concepção. O
primeiro está relacionado às condições angulares da geometria de imageamento em função do relevo,
como mostra a Fig. 5.2. Medindo-se o ângulo que o raio solar de iluminação faz com a normal à
superfície do terreno, ângulo , tem-se a diferença com que as duas faces são iluminadas. Mesmo que
as duas faces sejam constituídas do mesmo material, a reflectância na face oposta será menor que a
da face frontal, porque ela é dimensionada em função do cosseno do ângulo . Maior o ângulo
menor é o valor do coseno. Consequentemente, essas diferenças de reflectância não podem ser
interpretadas como uma variação das características espectrais do alvo.
Para minimizar esse efeito da topografia na reflectância é que se realiza a divisão entre duas
bandas, porque cada valor de coseno 1 e do coseno 2 nas duas bandas são iguais
Normal à superfície
Normal à superfície
Número digital
θ1 ≠ θ2 Raio solar de
iluminação
θ2
θ1
Para se compreender como funciona a divisão de bandas como uma técnica para realçar os
alvos presentes numa imagem, é preciso relembrar como o sensor mede a energia refletida da
superfície dos alvos para compor a imagem do terreno.
Em qualquer condição de imageamento, a radiância medida pelo satélite é a soma da
radiância da superfície da terra (LS) mais a radiância espalhada pela atmosfera LA) que chega ao
sensor L = LS + LA . Essa radiância total L, que o sensor mede por cada banda espectral é em termos
de dependência radiométrica, dada pela equação abaixo, onde o subscrito determina o comprimento
de onda.
L= 1 E R { T TZ ( ) ) cos + ’’ } d
onde:
E( ) = irradiância solar
R ( ) = função da resposta espectral
T β ( ) = transmitância da atmosfera na trajetória descendente
Tz ( ) = transmitância da atmosfera na direção zênite refletida da superfície
( ) = reflectância da superfície
’( ) = reflectância da atmosfera, indicando a dependência da elevação solar
37
Então, ao se dividir uma banda pela outra, estaremos dividindo a radiância L medida numa banda pela
radiância L medida na outra banda, como abaixo.
Lλ1 G λ1 T λ1 ρ λ1 θ Nλ1
= +
Lλ2 G λ2 T λ2 ρ λ2 θ Nλ2
Nesta divisão todos os termos são diferentes para as duas bandas. O único termo que é igual
para as duas bandas é o ângulo de iluminação solar (ver Fig. 5.3). Portanto, ao dividir as duas
bandas o ângulo de iluminação solar é eliminado. A reflectância das duas faces não tem mais a
influência das variações de suas iluminações, o que em outras palavras, seria dizer que a superfície é
agora plana. Portanto, na imagem este efeito se manifesta por um perda da percepção da variação
topográfica do relevo.
O segundo motivo que justifica a divisão de bandas atesta com maior propriedade esta
técnica como uma forma de realce de imagens. Para que o realce seja obtido, é necessário conhecer a
reflectância dos alvos contidos na imagem. Imagine quatro diferentes alvos que tenham valores de
reflectância como no esquema da figura 49. Esses alvos, quando vistos na banda 3 ou na banda 4 não
mostram diferenças significativas de reflectância entre si, à exceção do alvo D. Sendo assim, os alvos
A, B e C não seriam discriminados entre si, ou na banda 3 ou na banda 4. Uma forma de se ver esses
valores de reflectância dos alvos A, B C e D é medindo em cada banda seus correspondentes valores
digitais dos seus pixels, que são mostrados na tabela 5. Nesta tabela vê-se que os valores digitais das
imagens de entrada são muito próximos entre si, mas quando é dividida a banda 4 pela banda 3,
usando a equação abaixo da tabela, os valores digitais da imagem de saída mostram uma significativa
diferença digital entre os quatro alvos, tornando-os facilmente discriminados entre si.
38
banda 3 banda 4
A
B ALVOS APRESENTAM BAIXOS
C CONTRASTES ESPECTRAIS
NA BANDAS 4 E NA BANDA 3
D
Reflectância
Na imagem
Comprimento de onda
Fig. 5.3- Níveis médios de reflectância de quatro alvos medidos em duas bandas para fins de divisão de bandas
bandas
alvos 3 4 4/3 f´ 2/1
A 8 43 5,4 88
B 6 40 6,6 106
C 5 38 7,6 121
D 13 24 1,8 34
É preciso perceber que na divisão de bandas nem sempre todos os alvos presentes na cena
são realçados. A condição para que um alvo seja realçado é apresentar alguma diferença de
reflectância entre as duas bandas. Quanto maior for esta diferença mais realçado este alvo se
apresentará na imagem de saída. Podemos observar essa condição através das curvas espectrais
mostradas na figura 50. De acordo com a Fig. 5.4 o contraste espectral da vegetação entre as bandas
4 e 3 será aumentado ao se efetuar a divisão 4/3, com a imagem resultante apresentando um maior
contraste para este alvo. A divisão resultará em valores maiores que 1. Para os alvos solo/rocha e água
não é esperado ocorrer algum aumento de contraste, pois nas duas bandas os valores de brilho são
praticamente idênticos. A divisão resultará em valores iguais a 1 tanto para o solo/rocha como para a
água. Portanto, estes dois alvos se confundirão entre si. Isso significa que a única condição para se
39
obter um aumento de contraste por uma divisão de bandas, é quando o alvo apresenta nas curvas de
reflectância entre as duas bandas uma diferença de gradiente de declividade. Portanto, a técnica deve
ser usada para realçar alvos específicos e não para se buscar uma tentativa de realce para toda a
imagem. O analista precisa conhecer a curva espectral dos alvos que deseja realçar, escolhendo as
bandas onde o gradiente de reflectância seja maior.
Bandas
3 4
vegetação
solo/rocha
Reflectância
água
%
Fig. 5.4 – Curvas espectrais de alvos e seus gradientes de reflectância entre as bandas 4 e 3
È comum usar a técnica de divisão de bandas como uma forma para se estabelecer índices de
realces para certos tipos de alvo. Um dos índices mais conhecidos é o índice de vegetação Difference
vegetation index – DVI, que realça diferenças de reflectância entre vegetação e solo. Para este índice
deve-se dividir a banda do infravermelho próximo (NIR) pela banda do vermelho (R) obedecendo desta
forma o critério de se selecionar duas bandas onde o gradiente de reflectância é maior, como visto na
figura 50. Para o sensor TM a divisão das bandas é 4/3.
:Os valores de DVI computados são sempre maiores que zero e podem assumir valores altos,
às vezes maiores que 5. Os seguintes valores de DVI são normalmente computados para os alvos,
verificando-se que solo e rocha exibem valores de divisão similares e próximos a 1, enquanto a
vegetação mostra valores de divisão maiores que 2 ou mais.
Um índice similar, porém mais complexo, envolve a soma e a diferença entre a banda do
infravermelho próximo e a banda do vermelho ( Normalize difference vegetation index – NDV I), segundo
a razão NIR – R / NIR + R. Os valores de NDVI computados variam de -1 a +1. A vantagem do NDVI
sobre o DVI é que ele tende a ser linearmente mais proporcional à biomassa. Também é mais
apropriado quando se pretende fazer comparações ao longo do tempo de uma mesma área, pois é
esperado de ser menos influenciado pelas variações das condições atmosféricas.
A Fig. 5.5 é um escatergrama de uma área agrícola onde teria-se parcelas de solo cultivado e
parcelas de solo exposto, mostrando a figura as isolinhas que representam os valores computados
pelos dois índices. Para o índice DVI igual 1 tem-se solo nu ou exposto; o aumento do valor do índice é
em direção às áreas plantadas; entre 1 e 3 são as áreas com cobertura vegetal parcial; quando for
40
igual a 3 a área plantada é densa. A mesma interpretação de índices pode ser feita para os valores de
NDVI também mostrados na mesma figura.
NIR
NDVI 0,5 0,33 0
DVI 3 2 1
Fig. 5.5- Escatergrama dos números digitais da banda 4 x banda 3, polígono verde, com as isolinhas dos índices
Os resultados destes dois índices podem ser visto na Fig. 5.6. Os níveis de cinza mais claros
destacam as áreas com vegetação mais densa, ou seja, com maior índice de área foliar e os níveis de
cinza cada vez mais escuros indicam uma decrescente taxa de cobertura foliar da vegetação e maior
exposição de solos. Visualmente nota-se que não se observa diferenças notáveis entre os dois índices.
Fig. 5.6- (a) Difference vegetation index pela divisão da banda 3 (vermelho) pela banda 4 (infravermelho próximo) do sensor
TM; (b) Normalize diffference vegetation index com as mesma bandas
Estes dois índices são muito usados para monitorar a cobertura vegetal em escala continental
e global, usando as imagens do satélite NOAA, porém não são bons indicadores da biomassa da
41
vegetação em áreas com baixa cobertura vegetal, como em regiões áridas ou semi-áridas. O índice
Soil-adjusted vegetation index (SAVI) tem um melhor desempenho para as áreas com baixa cobertura
vegetal, ou seja, com a presença de maiores exposições de solos, incluindo a variação dos tipos de
solos. Sua formulação é a seguinte:
SAVI = ρNIR- ρR ( 1 + L )
ρNIR + ρR
A subtração de bandas deve ser feita entre duas bandas corregistradas da mesma faixa
espectral do mesmo sensor, e tomadas em datas diferentes. O propósito da subtração é avaliar o grau
de mudança ocorrido num determinado espaço. A subtração é efetuada pixel a pixel. A diferença
máxima negativa –255 e a diferença máxima positiva é +255. Para reescalar este resultado da
subtração, 255 é adicionado à diferença e assim o intervalo digital é deslocado para 0 – 510. Divide-se
este intervalo por 2 para ter o intervalo recuperado entre 0 – 255. O esquema abaixo exemplifica o que
acontece na operação de subtração de imagens, segundo a equação abaixo
Dif (x,y) = (255 + banda (x,y) – banda (x,y))/2
.
Sem mudança
0 127 255
variabilidade nos dados, ela pode ser ignorada sem muita perda da informação. Neste contexto,
variabilidade significa a variância, a qual é uma medida do conteúdo de informação presente numa
banda. Seria como tomarmos duas bandas, onde elas apresentassem uma certa correlação positiva,
como por exemplo a banda ETM5 e a banda ETM3, porém tendo a banda 5 uma alta variância,
comparada com a banda 3. Quase toda a informação estará presente na banda 5, e se desprezarmos
a banda 3 não estaríamos perdendo muita informação.
Y Y
B
C
D
A
X X
Fig. 5.7- (a) Correlação perfeita entre medidas de duas variáveis; (b) alta correlação positiva medida
Esse exemplo serve para mostrar que podemos fazer uma distinção entre o número de
variáveis (bandas espectrais) do conjunto de dados e a dimensionalidade deste conjunto de dados. Na
figura 5.7b o número de variáveis é dois mas a dimensionalidade de dados é um. Normalmente,
imagens multiespectrais tem uma dimensionalidade que é menor do que o número de bandas
espectrais.
Essa correlação presente nas imagens de um sensor multiespectral não é eliminada ao se
efetuar realces por ampliações histogrâmicas de contraste nas bandas individuais. Embora sejam
eficientes em muitos casos para realçar individualmente as imagens, as ampliações histogrâmicas
falham no sentido de não promover uma redistribuição equilibrada das cores entre bandas que tenham
um certo grau de correlação entre si. Graficamente, este efeito é mostrado no espaço cúbico de cores
RGB (Fig. 5.8 a), onde a representação histogrâmica tridimensional de três bandas tem uma
distribuição de forma elíptica, alongada segundo o eixo acromático. O tamanho da elipse é
dimensionado pelos seus três eixos, ao longo dos quais são representadas as três bandas da imagem
original. O eixo maior da elipse e a sua orientação representam a variação de intensidade (brilho)
dentro da imagem, a qual é a maior fonte de correlação interbanda. Depois de ser aplicado um
contraste histogrâmico nas três bandas individuais, a elipse torna-se mais alongada (Fig. 5.8b),
ocupando uma porção maior do espaço cúbico de cores. A imagem se apresentará mais colorida do
que na composição original. Porém, ainda é mantida a mesma proporção básica dos eixos da elipse,
porque a correlação entre as bandas permanece. A consequência da manutenção desta correlação é
que grande parte da periferia do histograma tridimensional do espaço de cores não é utilizado.
43
R
Eixo acromático
G
B
Fig. 5.8- A correlação entre três bandas gera um histograma em três dimensões que assume a forma de uma elipse
alongada; (b) Contraste linear amplia a elipse mas a correlação permanece.
B
Para se ocupar todo o espaço de cores do cubo e assim se ter uma contribuição total ou
quase total de todas as cores representadas pelos eixos RGB do cubo, a elipse deveria tornar-se uma
esfera. Para se obter isso é necessário realizar uma transformação conjunta das bandas originais, na
qual cada um dos valores (pixels) da imagem de saída dependa simultaneamente dos valores
conjuntos dos três valores de entrada. Esse tipo de transformação permite que se obtenha uma
distribuição esfericamente simétrica, na qual a correlação interbandas desaparece, resultando numa
mais eficiente exposição de cores. Estatisticamente, a esfera ou o círculo representa o espaço da
distribuição entre variáveis não correlacionadas, ou seja, correlação zero, como mostra a Fig. 5.9.
.
Variável Y
Variável X
Fig. 5.9- O círculo representa o espaço de uma distribuição entre duas variáveis não correlacionadas
denominada de “Whitening”, a qual produz três novas imagens cujos histogramas ocupam todo o
espaço de cores cúbico. Desta forma é maximizado as feições de cores, sem que sejam alteradas
consideravelmente as cores originais da imagem. O resultado é a obtenção de uma composição
colorida com uma intensidade de contraste de cores muito maior do que a composição colorida original.
Os procedimentos de realce por decorrelação usando a transformação Whitening consistem
numa transformação por componentes principais, seguido por uma equalização de variância, a qual
assegura que os dados ocupem o volume esférico no espaço de cores, e por último por uma rotação
dos eixos (imagens) usada nas componentes principais. Graficamente esta transformação tem a
representação mostrada na Fig. 5.10. A sua principal diferença com a transformação por componente
principal, é que na decorrelação se usa apenas três bandas quaisquer selecionadas a critério do
analista.
DEC 1
Banda X
Fig. 5.10- Transformação da distribuição elíptica dos dados originais para uma distribuição circular por decorrelação.
0 0 1/ 1
onde 1... n da matriz W são os autovalores e é a matriz de autovetores da matriz de covariância
-1/2
se com o tom preto. Na imagem por decorrelação a cor é transformada para um azul mais claro, assim
como são as outras cores da imagem.
543/RGB 543/DEC
Fig. 5.11- Exemplo comparativo de composições coloridas obtidas pelo padrão RBG normal e por transformação por
decorrelação das mesmas bandas
.
representação hipotética, considere a distribuição no espaço bidimensional dos valores de brilho dos
pixels de duas bandas (Fig. 5.12). A elipse desenhada representa o espaço de distribuição dos pixels
que nas duas bandas originais ostentam quase que as mesmas características espectrais (alta
correlação). Na transformação por componentes principais, isso é, no novo sistema de eixos ou
componentes ortogonais rotacionados, o alvo apresenta na primeira componente ou primeiro eixo
principal, maior variabilidade de brilho ou reflectância, ou seja, maior quantidade de informação
espectral, enquanto que na segunda componente a variabilidade é menor. Desde que se assume que a
variância é uma medida do conteúdo de informação da imagem, a primeira componente ou primeiro
eixo produzirá uma imagem de maior detalhe. Situações similares podem ser imaginadas em espaços
de n dimensões, ou n bandas. Note também que no novo espaço de eixos, ou componentes principais,
a primeira componente não tem correlação com a segunda componente.
Segunda
componente
principal
Primeira
componente
principal
Banda 2
Banda 1
Fig. 5.12- Representação hipotética da orientação dos novos eixos (novas imagens) após a transformação por componentes
principais
Os novos eixos para as variáveis são computados de tal modo que o primeiro eixo ou
componente chega a conter até cerca de 90% da variância total dos dados da imagem, seguido pelas
demais componentes, as quais conterão sucessivamente menores valores da variância da imagem. Em
outras palavras, separa-se a variância não aleatória (conteúdo de informação) da variância aleatória
(ruído), enquanto, simultaneamente não correlacionam-se as componentes, de tal maneira que
qualquer redundância entre as bandas é eliminada. Neste processo é freqüentemente possível
desprezar as últimas componentes, porque conterão pouca ou nenhuma informação útil ao analista.
Deve-se atentar para o fato de que o realce por componentes principais é baseado no
conteúdo total de cena e não nas propriedades dos alvos individuais, como se pode fazer em imagens
divisão, o que é uma das razões para a dificuldade de se caracterizar ou descrever os atributos
47
fenomenológicos de um alvo nas imagens componentes principais. Desta forma, o realce por
componente principal deve ser entendido como uma ferramenta mais para distinguir os alvos do que
para identificar seus tipos. A avaliação de seus resultados requer uma análise dos valores estatísticos
fornecidos no processo de transformação por componente principal, pelas matrizes de autovalores e
autovetores.
Um exemplo real com imagens TM é mostrado na tabela 6. A primeira matriz dá os
coeficientes de correlação entre as 7 banda TM de uma área. Estes coeficientes variam de -1 a +1,
onde o sinal negativo indica que há correlação inversa entre as bandas, ou seja, quando um pixel tem
um alto valor digital numa banda, na outra banda ele tem um baixo valor. Os valores positivos indicam
que se tem uma correlação positiva, ou seja, quando um pixel numa banda aumenta ou diminui o seu
valor digital, o mesmo acontece na outra banda. Correlações positivas são prejudiciais, enquanto
correlações inversas não são. Essa redundância do conteúdo de informação das imagens originais
pode ser eliminada pela transformação por componente principal, cujos resultados são dados pela
matriz de autovalores. Os valores fora do traço da matriz de autovalores são agora zero, indicando não
haver mais correlação entre as imagens componentes. Os autovalores são arranjados em ordem
decrescente, e a variância total das imagens componentes principais mantém-se a mesma das
imagens originais, só que a maior variância está agora localizada na primeira componente, com valores
sucessivamente menores para as componentes de ordem maior.
Para se calcular a porcentagem de variância para cada imagem componente principal basta
dividir a variância total das 7 componentes pela variância de cada componente. Seus valores estão
mostrados abaixo da matriz de autovalores. Bastam as três primeiras componentes para somarem
quase que a variância total da cena original, 97,32% para o conjunto de 7 bandas originais. O restante
da variância não é significativo, pois mostra que as imagens componentes de ordem maior ( a partir da
quarta componente) contêm apenas ruídos ou baixa qualidade de informação para interpretação visual,
e portanto, podem ser descartadas. Assim, com as três primeiras componentes, que contêm 97,32% da
variância total original, podem ser combinadas em uma única composição colorida tipo RGB. Isso é
portanto uma forma de reduzir a dimensão dos dados originais de 7 bandas para 3 bandas, ou seja,
obter-se uma composição colorida a partir de 7 bandas..
Tabela 6- Matrizes calculadas para a transformação por componentes principais das sete bandas do sensor TM
PC5 0 0 0 0 2,93
PC6 0 0 0 0 0 2,69
PC7 0 0 0 0 0 0 0,23
Matriz de autovetores
CP1 0,107 0,125 0,264 0,266 0,847 0,123 0,318
CP2 -0,295 -0,129 -0,281 0,848 0,003 -0,143 -0,279
CP3 0,502 0,297 0,387 0,447 -0,467 0,258 0,163
CP4 0,163 -0,090 -0,369 -0,045 0,121 0,841 -0,324
CP5 -0,330 -0,095 -0,336 0,070 -0,203 0,251 0,812
CP6 -0,705 0,139 0,570 -0,030 -0090 0,350 -0,162
CP7 -0,129 0,918 -0,357 -0,054 0,041 -0,065 -0,058
A matriz de coeficientes de autovetores descreve qual das bandas originais mais contribui na
formação de cada componente principal. O termo contribuição é definido como a proporção que cada
pixel de uma banda original é somada para criar o novo valor de pixel para uma dada componente
principal. De uma maneira bem simples pode-se dizer que banda original que mais contribuiu para a
formação de uma componente principal é a que apresentar na matriz de autovetores o valor absoluto
maior. Por exemplo, o primeiro autovetor ou CP1 mostra que a banda 5 é a que teve uma maior
contribuição, seguida pela banda 7, as demais quase nada contribuindo. Por isso, a CP1 será muito
semelhante na aparência com a banda 5 original. A sua diferença com a imagem original da banda 5 é
que ela é interpretada como sendo aproximadamente uma imagem albedo, a qual descreve o brilho
médio da cena. Esta semelhança é porque a CP1 é quase que uma soma das médias das imagens,
enquanto as componente restantes de algum modo parecem diferenças entre pares das imagens
originais.
Tomando-se como exemplo a primeira componente da matriz de autovetores, a seguinte
operação é feita para se calcular o novo valor de cada pixel da imagem componente principal.
PC1 PC2
PC3 PC4
PC5 PC6
O espaço de cores no padrão RGB é umas das possíveis teorias de como o olho humano
percebe as cores de um objeto. Outra teoria de percepção de cor usa os triestímulos Intensidade (I),
Hue (H) e Saturação(S) para descrever, respectivamente, a sensação psicossomática de brilho, cor e
pureza.
50
A transformação de três bandas que compõem uma composição colorida RGB, para as
componentes IHS, pode ser usada como um passo intermediário no realce das cores de uma
composição colorida, mas esta técnica é mais usada como um meio de combinar imagens de
diferentes sensores, com diferentes resoluções espaciais. Para empregá-la como uma opção para
compor composições coloridas deve-se seguir os passos indicados Fig. 5.14. Executa-se a
transformação do espaço cúbico RGB para o espaço IHS e a seguir aplica-se um realce linear apenas
na componente I, evitando-se efetuar mudanças na cor (hue) e saturação da imagem. Neste caso não
haverá um deslocamento numérico da cor no realce da imagem, uma característica que não é
geralmente verdadeira se as componentes R, G e B forem contrastadas por um realce tipo linear.
3 R I I R
4 G H H G
5 B S S B
Fig. 5.14 Etapas do processo de transformação do espaço de cores RGB para o espaço IHS
I
amarelo
Green Green amarelo
a p´
O claro p
ciano Red ciano o Red
b
S
Blue magenta
Blue magenta
Intensidade zero
preto
Preto 0
Fig. 5.15- Representação dos componentes IHS da cor no espaço do hexágono de cor
Esta representação no espaço de cores IHS, apresenta algumas propriedades, entre as quais
destaca-se o ordenamento das resoluções espaciais dos componentes I, H e S, como percebido pelo
olho humano. A componente I é percebida por máxima resolução, seguida de H e S, devido ao fato de
que a retina do olho humano compõe-se de um maior número de bastonetes (responsáveis pela
percepção de brilho I) do que de cones (responsáveis pela percepção do matiz H). Para perceber isso,
imagine uma foto aérea tomada de uma cena do terreno (portanto, colorida), mas usando-se um filme
preto e branco. As cores mais vivas da paisagem corresponderiam na foto preto e branco aos tons de
cinza claros e as cores escuras corresponderiam aos tons de cinza escuro. A foto aérea preto e branco
seria, portanto, apenas a representação da intensidade. Para compensar a falta dos outros dois
atributos da cor nas fotos aéreas preto e branco, é que se usa uma alta resolução espacial para que se
possa identificar os objetos pelas suas formas e não pelo suas propriedades de cor e saturação. Desta
forma, o sensor ideal seria aquele que registraria com a máxima eficiência os três componentes da
cores e tendo a imagem uma alta resolução espacial. Como nem sempre isso é encontrado, a técnica
IHS foi concebida para compensar essa deficiência.
O interessante desta propriedade é que ela faz da técnica de transformação IHS a mais
eficiente para integrar imagens de diferentes resoluções espaciais. Por exemplo, as imagens TM com
suas sete bandas espectrais são consideradas de possuírem uma boa resolução espectral (maior e
melhor seleção de bandas espectrais), mas têm uma baixa resolução espacial ( 30 m). Ao contrário,
uma imagem de radar por ser apenas em uma banda, precisa ter uma alta resolução espacial para ser
útil. Neste caso, o ideal seria ter uma imagem que somasse estas duas qualidades, o que pode ser
obtido por IHS. O processo é feito da seguinte maneira:
52
Para explorar o atributo espectral seleciona-se três bandas TM que melhor retratem
espectralmente a cena de interesse, obtendo-se as componentes I, H e S, onde H e S são as
componentes que contém o matiz e a pureza das cores. Para explorar a melhor resolução
espacial da imagem de radar, basta substituir a componente I, que pelo olho humano é
percebida por máxima resolução, pela imagem de radar.
Como passo seguinte é necessário apenas remostrar o tamanho dos pixels H e S das imagens
TM para a resolução espacial da imagem de radar. Como resultado tem-se uma composição
colorida com alta resolução espacial e que reúne os componentes da cor extraídas das
imagens TM.