Вы находитесь на странице: 1из 18

35

CAPÍTULO 5 – TRANSFORMAÇÃO DE IMAGENS

No capítulo 3 vimos que as técnicas de processamento de imagens aplicavam-se a bandas


individuais pertencentes a um conjunto de bandas multiespectrais. Neste capítulo são apresentadas as
operações que são realizadas com multibandas de um determinado sensor, ou mesmo com bandas de
diferentes datas e de diferentes sensores. Pelo menos três importantes situações ocorrem com as
operações de transformações que são processadas simultaneamente em multibandas:
 são bastantes diferenciadas nas suas concepções de processamento
 podem resultar na redução de dimensionalidade do número de bandas de entrada
 normalmente as imagens de saída perdem a correspondência com as imagens de entrada.
Dentro desta classe de processamento tem-se as operações aritméticas de divisão,
subtração, multiplicação e soma, as operações de rotação espectral tipo componentes principais e
decorrelação, e as transformações no espaço de cores IHS. Iniciaremos com as operações aritméticas
de divisão e subtração, de grande simplicidade computacional mas de grande efeito. Não nos
reportaremos às operações de soma e multiplicação por serem de muito pouca aplicabilidade.

5.1 – Divisão de Bandas

A divisão de imagens de duas bandas espectrais, tal como dividir a banda 5 do TM pela
banda 1, consiste na divisão pixel a pixel dos valores de brilho dos pixels da banda 5 pelos
correspondentes valores da banda 1 (Fig. 5 1). Como os valores desta divisão resultam em números
pequenos, eles devem ser multiplicados por uma constante a para recolocá-los entre 0 a 255. A
constante b tem o efeito de deslocar o histograma para uma posição central entre 0 a 255. O algoritmo
da divisão de bandas é na sua forma mais simples do tipo.

Ls = a L1 + b onde Ls = valor do pixel da divisão


L2 L1 e L2 = valor do pixel das bandas 1 e 2
a = ganho (amplia intervalo para 255)
b = offset

as constantes a e b são calculados pelo algoritmo e diretamente aplicados na imagem.

banda 5

40 = 0,8 valor do pixel da


banda 1
50 imagem de saída

banda 3

Fig. 5.1 – Representação esquemática da divisão de duas bandas


36

Dois motivos principais justificam a razão do uso de um algoritmo com essa concepção. O
primeiro está relacionado às condições angulares da geometria de imageamento em função do relevo,
como mostra a Fig. 5.2. Medindo-se o ângulo que o raio solar de iluminação faz com a normal à
superfície do terreno, ângulo , tem-se a diferença com que as duas faces são iluminadas. Mesmo que
as duas faces sejam constituídas do mesmo material, a reflectância na face oposta será menor que a
da face frontal, porque ela é dimensionada em função do cosseno do ângulo . Maior o ângulo 
menor é o valor do coseno. Consequentemente, essas diferenças de reflectância não podem ser
interpretadas como uma variação das características espectrais do alvo.
Para minimizar esse efeito da topografia na reflectância é que se realiza a divisão entre duas
bandas, porque cada valor de coseno 1 e do coseno 2 nas duas bandas são iguais
Normal à superfície
Normal à superfície
Número digital

θ1 ≠ θ2 Raio solar de
iluminação
θ2
θ1

Fig. 5.2- Dependência da reflectância do alvo em função do ângulo solar de iluminação

Para se compreender como funciona a divisão de bandas como uma técnica para realçar os
alvos presentes numa imagem, é preciso relembrar como o sensor mede a energia refletida da
superfície dos alvos para compor a imagem do terreno.
Em qualquer condição de imageamento, a radiância medida pelo satélite é a soma da
radiância da superfície da terra (LS) mais a radiância espalhada pela atmosfera LA) que chega ao
sensor L = LS + LA . Essa radiância total L, que o sensor mede por cada banda espectral é em termos
de dependência radiométrica, dada pela equação abaixo, onde o subscrito  determina o comprimento
de onda.

L= 1  E R { T TZ ( )  ) cos  + ’’ } d 

onde:
E(  ) = irradiância solar
R (  ) = função da resposta espectral
T β (  ) = transmitância da atmosfera na trajetória descendente
Tz (  ) = transmitância da atmosfera na direção zênite refletida da superfície
 (  ) = reflectância da superfície
’(  ) = reflectância da atmosfera,  indicando a dependência da elevação solar
37

Simplificando os termos da equação acima, temos que a radiância é:

L = G λ T λ ρ λ θ + Nλ G λ = fator instrumental e irradiância


(equação simplificada da radiância) T λ = transmitância atmosfera
ρ λ = reflectância da superfície
θ = ângulos de iluminação solar com a superfície
do terreno
Nλ = radiância aditiva da atmosfera

Então, ao se dividir uma banda pela outra, estaremos dividindo a radiância L medida numa banda pela
radiância L medida na outra banda, como abaixo.
Lλ1 G λ1 T λ1 ρ λ1 θ Nλ1
= +
Lλ2 G λ2 T λ2 ρ λ2 θ Nλ2

Lλ1 e Lλ2 representam duas bandas de quaisquer comprimentos de onda

Nesta divisão todos os termos são diferentes para as duas bandas. O único termo que é igual
para as duas bandas é o ângulo  de iluminação solar (ver Fig. 5.3). Portanto, ao dividir as duas
bandas o ângulo  de iluminação solar é eliminado. A reflectância das duas faces não tem mais a
influência das variações de suas iluminações, o que em outras palavras, seria dizer que a superfície é
agora plana. Portanto, na imagem este efeito se manifesta por um perda da percepção da variação
topográfica do relevo.
O segundo motivo que justifica a divisão de bandas atesta com maior propriedade esta
técnica como uma forma de realce de imagens. Para que o realce seja obtido, é necessário conhecer a
reflectância dos alvos contidos na imagem. Imagine quatro diferentes alvos que tenham valores de
reflectância como no esquema da figura 49. Esses alvos, quando vistos na banda 3 ou na banda 4 não
mostram diferenças significativas de reflectância entre si, à exceção do alvo D. Sendo assim, os alvos
A, B e C não seriam discriminados entre si, ou na banda 3 ou na banda 4. Uma forma de se ver esses
valores de reflectância dos alvos A, B C e D é medindo em cada banda seus correspondentes valores
digitais dos seus pixels, que são mostrados na tabela 5. Nesta tabela vê-se que os valores digitais das
imagens de entrada são muito próximos entre si, mas quando é dividida a banda 4 pela banda 3,
usando a equação abaixo da tabela, os valores digitais da imagem de saída mostram uma significativa
diferença digital entre os quatro alvos, tornando-os facilmente discriminados entre si.
38

banda 3 banda 4
A
B ALVOS APRESENTAM BAIXOS
C CONTRASTES ESPECTRAIS
NA BANDAS 4 E NA BANDA 3
D
Reflectância
Na imagem

Comprimento de onda

Fig. 5.3- Níveis médios de reflectância de quatro alvos medidos em duas bandas para fins de divisão de bandas

Tabela 5- Valores digitais dos pixels das bandas 4 e 3 da figura

bandas
alvos 3 4 4/3 f´ 2/1
A 8 43 5,4 88

B 6 40 6,6 106

C 5 38 7,6 121

D 13 24 1,8 34

f´2/1 = a f(x, y)1 + b a = 15


f(x , y)2 b=7

É preciso perceber que na divisão de bandas nem sempre todos os alvos presentes na cena
são realçados. A condição para que um alvo seja realçado é apresentar alguma diferença de
reflectância entre as duas bandas. Quanto maior for esta diferença mais realçado este alvo se
apresentará na imagem de saída. Podemos observar essa condição através das curvas espectrais
mostradas na figura 50. De acordo com a Fig. 5.4 o contraste espectral da vegetação entre as bandas
4 e 3 será aumentado ao se efetuar a divisão 4/3, com a imagem resultante apresentando um maior
contraste para este alvo. A divisão resultará em valores maiores que 1. Para os alvos solo/rocha e água
não é esperado ocorrer algum aumento de contraste, pois nas duas bandas os valores de brilho são
praticamente idênticos. A divisão resultará em valores iguais a 1 tanto para o solo/rocha como para a
água. Portanto, estes dois alvos se confundirão entre si. Isso significa que a única condição para se
39

obter um aumento de contraste por uma divisão de bandas, é quando o alvo apresenta nas curvas de
reflectância entre as duas bandas uma diferença de gradiente de declividade. Portanto, a técnica deve
ser usada para realçar alvos específicos e não para se buscar uma tentativa de realce para toda a
imagem. O analista precisa conhecer a curva espectral dos alvos que deseja realçar, escolhendo as
bandas onde o gradiente de reflectância seja maior.

Bandas
3 4

vegetação

solo/rocha
Reflectância

água
%

0,63 0,69 0,76 0,90 μm

Fig. 5.4 – Curvas espectrais de alvos e seus gradientes de reflectância entre as bandas 4 e 3

È comum usar a técnica de divisão de bandas como uma forma para se estabelecer índices de
realces para certos tipos de alvo. Um dos índices mais conhecidos é o índice de vegetação Difference
vegetation index – DVI, que realça diferenças de reflectância entre vegetação e solo. Para este índice
deve-se dividir a banda do infravermelho próximo (NIR) pela banda do vermelho (R) obedecendo desta
forma o critério de se selecionar duas bandas onde o gradiente de reflectância é maior, como visto na
figura 50. Para o sensor TM a divisão das bandas é 4/3.
:Os valores de DVI computados são sempre maiores que zero e podem assumir valores altos,
às vezes maiores que 5. Os seguintes valores de DVI são normalmente computados para os alvos,
verificando-se que solo e rocha exibem valores de divisão similares e próximos a 1, enquanto a
vegetação mostra valores de divisão maiores que 2 ou mais.

Vegetação NIR/R > 2 DVI = TM4


Solo/rocha NIR/R ≥ 1 TM3
Água NIR/R < 1

Um índice similar, porém mais complexo, envolve a soma e a diferença entre a banda do
infravermelho próximo e a banda do vermelho ( Normalize difference vegetation index – NDV I), segundo
a razão NIR – R / NIR + R. Os valores de NDVI computados variam de -1 a +1. A vantagem do NDVI
sobre o DVI é que ele tende a ser linearmente mais proporcional à biomassa. Também é mais
apropriado quando se pretende fazer comparações ao longo do tempo de uma mesma área, pois é
esperado de ser menos influenciado pelas variações das condições atmosféricas.
A Fig. 5.5 é um escatergrama de uma área agrícola onde teria-se parcelas de solo cultivado e
parcelas de solo exposto, mostrando a figura as isolinhas que representam os valores computados
pelos dois índices. Para o índice DVI igual 1 tem-se solo nu ou exposto; o aumento do valor do índice é
em direção às áreas plantadas; entre 1 e 3 são as áreas com cobertura vegetal parcial; quando for
40

igual a 3 a área plantada é densa. A mesma interpretação de índices pode ser feita para os valores de
NDVI também mostrados na mesma figura.
NIR
NDVI 0,5 0,33 0

DVI 3 2 1

Fig. 5.5- Escatergrama dos números digitais da banda 4 x banda 3, polígono verde, com as isolinhas dos índices

Os resultados destes dois índices podem ser visto na Fig. 5.6. Os níveis de cinza mais claros
destacam as áreas com vegetação mais densa, ou seja, com maior índice de área foliar e os níveis de
cinza cada vez mais escuros indicam uma decrescente taxa de cobertura foliar da vegetação e maior
exposição de solos. Visualmente nota-se que não se observa diferenças notáveis entre os dois índices.

Fig. 5.6- (a) Difference vegetation index pela divisão da banda 3 (vermelho) pela banda 4 (infravermelho próximo) do sensor
TM; (b) Normalize diffference vegetation index com as mesma bandas

Estes dois índices são muito usados para monitorar a cobertura vegetal em escala continental
e global, usando as imagens do satélite NOAA, porém não são bons indicadores da biomassa da
41

vegetação em áreas com baixa cobertura vegetal, como em regiões áridas ou semi-áridas. O índice
Soil-adjusted vegetation index (SAVI) tem um melhor desempenho para as áreas com baixa cobertura
vegetal, ou seja, com a presença de maiores exposições de solos, incluindo a variação dos tipos de
solos. Sua formulação é a seguinte:

SAVI = ρNIR- ρR ( 1 + L )
ρNIR + ρR

L é uma constante empiricamente determinada para minimizar a sensitividade do índice de


vegetação às variações de reflectância dos tipos de solo. Como a primeira parte da equação SAVI é
idêntica ao índice NDVI, se L for igual a zero o SAVI é igual ao NDVI. Para áreas de cobertura vegetal
intermediária, L é tipicamente em torno de 0,5. O fator (1 + L) assegura que o intervalo de valores de
SAVI é o mesmo que o do NDVI, isso é, entre -1 +1.

5.2 – Subtração de bandas

A subtração de bandas deve ser feita entre duas bandas corregistradas da mesma faixa
espectral do mesmo sensor, e tomadas em datas diferentes. O propósito da subtração é avaliar o grau
de mudança ocorrido num determinado espaço. A subtração é efetuada pixel a pixel. A diferença
máxima negativa –255 e a diferença máxima positiva é +255. Para reescalar este resultado da
subtração, 255 é adicionado à diferença e assim o intervalo digital é deslocado para 0 – 510. Divide-se
este intervalo por 2 para ter o intervalo recuperado entre 0 – 255. O esquema abaixo exemplifica o que
acontece na operação de subtração de imagens, segundo a equação abaixo
Dif (x,y) = (255 + banda (x,y) – banda (x,y))/2
.
Sem mudança

0 127 255

Direção e grau de mudança


aumenta mudança aumenta mudança

5.3 – Decorrelação Espectral

As diferentes bandas espectrais de um sistema sensor apresentam normalmente um certo


grau de correlação interbanda. Essa correlação aparece sempre quando a reflectância dos alvos é
quase a mesma entre diferentes bandas. A presença da correlação entre as bandas implica que há
redundância nos dados, ou seja, repetição. Uma composição colorida padrão RGB não terá muito
contraste se as bandas escolhidas tiveram alta correlação. Uma breve discussão do conceito básico de
correlação é dada a seguir.
Se duas variáveis x e y (ou duas bandas) são perfeitamente correlacionáveis, medidas
simultâneas de x e y quando plotadas traçam uma linha reta, como na Fig. 5.7a. Se x e y não são
perfeitamente correlacionáveis, haverá uma direção predominante ( AB) de variabilidade tal como na
Fig. 5.7b. O gráfico da Fig. 5.7b revela mais corretamente a estrutura que está presente dentro dos
dados das imagens. Se a direção CD contém somente uma pequena proporção do total da
42

variabilidade nos dados, ela pode ser ignorada sem muita perda da informação. Neste contexto,
variabilidade significa a variância, a qual é uma medida do conteúdo de informação presente numa
banda. Seria como tomarmos duas bandas, onde elas apresentassem uma certa correlação positiva,
como por exemplo a banda ETM5 e a banda ETM3, porém tendo a banda 5 uma alta variância,
comparada com a banda 3. Quase toda a informação estará presente na banda 5, e se desprezarmos
a banda 3 não estaríamos perdendo muita informação.

Y Y

 B
 
C
 

  D
 

A
X X

Fig. 5.7- (a) Correlação perfeita entre medidas de duas variáveis; (b) alta correlação positiva medida

Esse exemplo serve para mostrar que podemos fazer uma distinção entre o número de
variáveis (bandas espectrais) do conjunto de dados e a dimensionalidade deste conjunto de dados. Na
figura 5.7b o número de variáveis é dois mas a dimensionalidade de dados é um. Normalmente,
imagens multiespectrais tem uma dimensionalidade que é menor do que o número de bandas
espectrais.
Essa correlação presente nas imagens de um sensor multiespectral não é eliminada ao se
efetuar realces por ampliações histogrâmicas de contraste nas bandas individuais. Embora sejam
eficientes em muitos casos para realçar individualmente as imagens, as ampliações histogrâmicas
falham no sentido de não promover uma redistribuição equilibrada das cores entre bandas que tenham
um certo grau de correlação entre si. Graficamente, este efeito é mostrado no espaço cúbico de cores
RGB (Fig. 5.8 a), onde a representação histogrâmica tridimensional de três bandas tem uma
distribuição de forma elíptica, alongada segundo o eixo acromático. O tamanho da elipse é
dimensionado pelos seus três eixos, ao longo dos quais são representadas as três bandas da imagem
original. O eixo maior da elipse e a sua orientação representam a variação de intensidade (brilho)
dentro da imagem, a qual é a maior fonte de correlação interbanda. Depois de ser aplicado um
contraste histogrâmico nas três bandas individuais, a elipse torna-se mais alongada (Fig. 5.8b),
ocupando uma porção maior do espaço cúbico de cores. A imagem se apresentará mais colorida do
que na composição original. Porém, ainda é mantida a mesma proporção básica dos eixos da elipse,
porque a correlação entre as bandas permanece. A consequência da manutenção desta correlação é
que grande parte da periferia do histograma tridimensional do espaço de cores não é utilizado.
43

R
Eixo acromático

R Região não utilizada

G
B
Fig. 5.8- A correlação entre três bandas gera um histograma em três dimensões que assume a forma de uma elipse
alongada; (b) Contraste linear amplia a elipse mas a correlação permanece.
B
Para se ocupar todo o espaço de cores do cubo e assim se ter uma contribuição total ou
quase total de todas as cores representadas pelos eixos RGB do cubo, a elipse deveria tornar-se uma
esfera. Para se obter isso é necessário realizar uma transformação conjunta das bandas originais, na
qual cada um dos valores (pixels) da imagem de saída dependa simultaneamente dos valores
conjuntos dos três valores de entrada. Esse tipo de transformação permite que se obtenha uma
distribuição esfericamente simétrica, na qual a correlação interbandas desaparece, resultando numa
mais eficiente exposição de cores. Estatisticamente, a esfera ou o círculo representa o espaço da
distribuição entre variáveis não correlacionadas, ou seja, correlação zero, como mostra a Fig. 5.9.

.
Variável Y

Variável X

Fig. 5.9- O círculo representa o espaço de uma distribuição entre duas variáveis não correlacionadas

Em processamento de imagens a técnica para se decorrelacionar as imagens é baseada na


transformação de uma composição colorida de três bandas quaisquer, por meio de uma matriz
44

denominada de “Whitening”, a qual produz três novas imagens cujos histogramas ocupam todo o
espaço de cores cúbico. Desta forma é maximizado as feições de cores, sem que sejam alteradas
consideravelmente as cores originais da imagem. O resultado é a obtenção de uma composição
colorida com uma intensidade de contraste de cores muito maior do que a composição colorida original.
Os procedimentos de realce por decorrelação usando a transformação Whitening consistem
numa transformação por componentes principais, seguido por uma equalização de variância, a qual
assegura que os dados ocupem o volume esférico no espaço de cores, e por último por uma rotação
dos eixos (imagens) usada nas componentes principais. Graficamente esta transformação tem a
representação mostrada na Fig. 5.10. A sua principal diferença com a transformação por componente
principal, é que na decorrelação se usa apenas três bandas quaisquer selecionadas a critério do
analista.

DEC 1

Banda X

Fig. 5.10- Transformação da distribuição elíptica dos dados originais para uma distribuição circular por decorrelação.

A equação da transformação “Whitening”, para promover a distribuição original para uma


distribuição circular tem a seguinte fórmula estatística:

Y = W -1/2 T X onde: 1/ 1 0 0


W = 0 1/  1 0
-1/2

0 0 1/ 1
onde 1... n da matriz W são os autovalores e  é a matriz de autovetores da matriz de covariância
-1/2

de X que promove a rotação dos eixos.


O retorno com rotação  é mais vantajoso do que no método de componentes principais
porque ele permite que as relações de cores básicas das bandas da imagem original sejam
preservadas. Isto é importante e facilita a interpretação da imagem decorrelacionada, porque o
entendimento das cores de uma imagem está diretamente relacionado com o comportamento da
reflectância dos alvos. Com as imagens componentes principais essa relação fica muito mais difícil de
se estabelecer, pois a cores da imagem original são substancialmente alteradas.
Após a rotação, um offset de 128 é adicionado para cada banda de entrada para fazer com
que o histograma fique posicionado na porção central do intervalo digital de 0 a 255. A Fig. 5.11
compara uma composição colorida das bandas TM 543 padrão RBG com a composição colorida das
mesmas bandas, obtida por decorrelação. Comparando as duas composições coloridas, nota-se que
as cores na imagem por decorrelação são mais claras, dai o nome da transformação usar uma matriz
que é denominada de Whitening. O lago na imagem RGB é de um azul marinho, por isso confundindo-
45

se com o tom preto. Na imagem por decorrelação a cor é transformada para um azul mais claro, assim
como são as outras cores da imagem.

543/RGB 543/DEC

Fig. 5.11- Exemplo comparativo de composições coloridas obtidas pelo padrão RBG normal e por transformação por
decorrelação das mesmas bandas
.

5.4. – Rotação Espectral por Componentes Principais

A transformação por componentes principais é também uma técnica para se retirar a


correlação entre as imagens, mas mais eficientemente, é uma técnica para reduzir a dimensão original
dos dados (número de banda originais), e deles retirando a correlação. A principal diferença com a
técnica de decorrelação, é que na transformação por principal componente pode-se trabalhar num
espaço com n bandas.
Normalmente, as várias bandas de um sensor multiespectral possuem uma alta correlação
entre algumas bandas, de modo que os eixos de suas funções de densidade de probabilidade ( FDP)
não são estatisticamente ortogonais, isto é, as variáveis nos eixos não são independentes. Essa
correlação existe porque os materiais da superfície terrestre muitas vezes apresentam padrões de
reflectância muito semelhantes entre si, em diferentes regiões espectrais, gerando assim uma
redundância de informação. Eliminar essa redundância tem a vantagem principal de reduzir o volume
de dados a ser analisado e de redistribuir a informação espectral das imagens entre as novas
componentes principais. A transformação por componentes principais tem o sentido de criar novas
imagens, chamadas de componentes principais, cuja FDP tenha eixos ortogonais ou independentes.
Isso é, cada componente terá informação não correlacionável ou redundante. A técnica envolve uma
rotação e uma translação num hipotético espaço de atributos do sistema de coordenadas da função de
densidade de probabilidade, produzindo novas variáveis conhecidas como componentes ou eixos, que
são combinações lineares das variáveis originais (imagens originais).
Portanto, o principal propósito da análise por componentes principais é definir o número de
dimensões que estão presentes no conjunto de dados (bandas) e fixar os coeficientes que especificam
as posições dos eixos que apontem nas direções de mais altas variabilidades dos dados.
Graficamente pode-se mostrar essa rotação dos eixos (das imagens) para retirar a correlação
inicial existente. No novo conjunto de eixos de coordenadas, o primeiro novo eixo ou primeira
componente terá uma orientação que maximiza a variância considerada para aquele eixo. Numa
46

representação hipotética, considere a distribuição no espaço bidimensional dos valores de brilho dos
pixels de duas bandas (Fig. 5.12). A elipse desenhada representa o espaço de distribuição dos pixels
que nas duas bandas originais ostentam quase que as mesmas características espectrais (alta
correlação). Na transformação por componentes principais, isso é, no novo sistema de eixos ou
componentes ortogonais rotacionados, o alvo apresenta na primeira componente ou primeiro eixo
principal, maior variabilidade de brilho ou reflectância, ou seja, maior quantidade de informação
espectral, enquanto que na segunda componente a variabilidade é menor. Desde que se assume que a
variância é uma medida do conteúdo de informação da imagem, a primeira componente ou primeiro
eixo produzirá uma imagem de maior detalhe. Situações similares podem ser imaginadas em espaços
de n dimensões, ou n bandas. Note também que no novo espaço de eixos, ou componentes principais,
a primeira componente não tem correlação com a segunda componente.

Segunda
componente
principal

Primeira
componente
principal
Banda 2

Banda 1

Fig. 5.12- Representação hipotética da orientação dos novos eixos (novas imagens) após a transformação por componentes
principais

Os novos eixos para as variáveis são computados de tal modo que o primeiro eixo ou
componente chega a conter até cerca de 90% da variância total dos dados da imagem, seguido pelas
demais componentes, as quais conterão sucessivamente menores valores da variância da imagem. Em
outras palavras, separa-se a variância não aleatória (conteúdo de informação) da variância aleatória
(ruído), enquanto, simultaneamente não correlacionam-se as componentes, de tal maneira que
qualquer redundância entre as bandas é eliminada. Neste processo é freqüentemente possível
desprezar as últimas componentes, porque conterão pouca ou nenhuma informação útil ao analista.
Deve-se atentar para o fato de que o realce por componentes principais é baseado no
conteúdo total de cena e não nas propriedades dos alvos individuais, como se pode fazer em imagens
divisão, o que é uma das razões para a dificuldade de se caracterizar ou descrever os atributos
47

fenomenológicos de um alvo nas imagens componentes principais. Desta forma, o realce por
componente principal deve ser entendido como uma ferramenta mais para distinguir os alvos do que
para identificar seus tipos. A avaliação de seus resultados requer uma análise dos valores estatísticos
fornecidos no processo de transformação por componente principal, pelas matrizes de autovalores e
autovetores.
Um exemplo real com imagens TM é mostrado na tabela 6. A primeira matriz dá os
coeficientes de correlação entre as 7 banda TM de uma área. Estes coeficientes variam de -1 a +1,
onde o sinal negativo indica que há correlação inversa entre as bandas, ou seja, quando um pixel tem
um alto valor digital numa banda, na outra banda ele tem um baixo valor. Os valores positivos indicam
que se tem uma correlação positiva, ou seja, quando um pixel numa banda aumenta ou diminui o seu
valor digital, o mesmo acontece na outra banda. Correlações positivas são prejudiciais, enquanto
correlações inversas não são. Essa redundância do conteúdo de informação das imagens originais
pode ser eliminada pela transformação por componente principal, cujos resultados são dados pela
matriz de autovalores. Os valores fora do traço da matriz de autovalores são agora zero, indicando não
haver mais correlação entre as imagens componentes. Os autovalores são arranjados em ordem
decrescente, e a variância total das imagens componentes principais mantém-se a mesma das
imagens originais, só que a maior variância está agora localizada na primeira componente, com valores
sucessivamente menores para as componentes de ordem maior.
Para se calcular a porcentagem de variância para cada imagem componente principal basta
dividir a variância total das 7 componentes pela variância de cada componente. Seus valores estão
mostrados abaixo da matriz de autovalores. Bastam as três primeiras componentes para somarem
quase que a variância total da cena original, 97,32% para o conjunto de 7 bandas originais. O restante
da variância não é significativo, pois mostra que as imagens componentes de ordem maior ( a partir da
quarta componente) contêm apenas ruídos ou baixa qualidade de informação para interpretação visual,
e portanto, podem ser descartadas. Assim, com as três primeiras componentes, que contêm 97,32% da
variância total original, podem ser combinadas em uma única composição colorida tipo RGB. Isso é
portanto uma forma de reduzir a dimensão dos dados originais de 7 bandas para 3 bandas, ou seja,
obter-se uma composição colorida a partir de 7 bandas..

Tabela 6- Matrizes calculadas para a transformação por componentes principais das sete bandas do sensor TM

Matriz de coeficientes de correlação


banda 1 2 3 4 5 6 7
s
1 1,00
2 0,83 1,00
3 0,78 0,96 1,00
4 -0,38 -0,004 -,009 1,00
5 0,34 0,66 0,71 0,40 1,00
6 0,69 0,74 0,70 -0,09 0,55 1,00
7 0,70 0,88 0,91 -0,04 0,80 0,68 1,00
Matriz de autovalores das componentes principais
componente
s
PC1 284,64
PC2 0 119,77
PC3 0 0 17,84
PC4 0 0 0 5,76
48

PC5 0 0 0 0 2,93
PC6 0 0 0 0 0 2,69
PC7 0 0 0 0 0 0 0,23

porcentagens da variância de cada componente principal da matriz de autovalores


65,61 27,61 4,10 1,33 0,67 0,63 0,05
porcentagem acumulada da variância desta componentes principais
65,61 93,22 97,32 98,65 99,32 99,95 100,00

Matriz de autovetores
CP1 0,107 0,125 0,264 0,266 0,847 0,123 0,318
CP2 -0,295 -0,129 -0,281 0,848 0,003 -0,143 -0,279
CP3 0,502 0,297 0,387 0,447 -0,467 0,258 0,163
CP4 0,163 -0,090 -0,369 -0,045 0,121 0,841 -0,324
CP5 -0,330 -0,095 -0,336 0,070 -0,203 0,251 0,812
CP6 -0,705 0,139 0,570 -0,030 -0090 0,350 -0,162
CP7 -0,129 0,918 -0,357 -0,054 0,041 -0,065 -0,058

A matriz de coeficientes de autovetores descreve qual das bandas originais mais contribui na
formação de cada componente principal. O termo contribuição é definido como a proporção que cada
pixel de uma banda original é somada para criar o novo valor de pixel para uma dada componente
principal. De uma maneira bem simples pode-se dizer que banda original que mais contribuiu para a
formação de uma componente principal é a que apresentar na matriz de autovetores o valor absoluto
maior. Por exemplo, o primeiro autovetor ou CP1 mostra que a banda 5 é a que teve uma maior
contribuição, seguida pela banda 7, as demais quase nada contribuindo. Por isso, a CP1 será muito
semelhante na aparência com a banda 5 original. A sua diferença com a imagem original da banda 5 é
que ela é interpretada como sendo aproximadamente uma imagem albedo, a qual descreve o brilho
médio da cena. Esta semelhança é porque a CP1 é quase que uma soma das médias das imagens,
enquanto as componente restantes de algum modo parecem diferenças entre pares das imagens
originais.
Tomando-se como exemplo a primeira componente da matriz de autovetores, a seguinte
operação é feita para se calcular o novo valor de cada pixel da imagem componente principal.

PC1ij = 0,107xij1 + 0,125xij2 + 0,264xij3 + 0,266xix4 + 0,847xij5 + 0,123xij6 + 0,318xij7


onde: PC1ij = valor do pixel na linha i coluna j da primeira componente principal
Xij1...7 = valor do pixel na linha i coluna j de cada uma das bandas originais
0,107....0,318 coeficientes autovetores
Como cada pixel da imagem componente principal é formado pela contribuição parcial dos
pixels das imagens originais, os níveis de cinza observados nas imagens componentes principais não
exprimem o comportamento espectral da reflectância dos materiais, como se interpreta nas imagens
originais.
A Fig. 5.13 ilustra as imagens de uma transformação por componente principais de uma
imagem TM com as bandas 1, 2 , 3, 4. 5, 6, e 7. Como as imagens componentes principais tem
correlação zero, qualquer pixel lido em uma componente terá um valor digital diferente nas outras
componentes.
49

PC1 PC2

PC3 PC4

PC5 PC6

Fig. 5.13 Imagens componentes principais das seis bandas TM

5.5 – Fusão de imagens no espaço de cores IHS

O espaço de cores no padrão RGB é umas das possíveis teorias de como o olho humano
percebe as cores de um objeto. Outra teoria de percepção de cor usa os triestímulos Intensidade (I),
Hue (H) e Saturação(S) para descrever, respectivamente, a sensação psicossomática de brilho, cor e
pureza.
50

A transformação de três bandas que compõem uma composição colorida RGB, para as
componentes IHS, pode ser usada como um passo intermediário no realce das cores de uma
composição colorida, mas esta técnica é mais usada como um meio de combinar imagens de
diferentes sensores, com diferentes resoluções espaciais. Para empregá-la como uma opção para
compor composições coloridas deve-se seguir os passos indicados Fig. 5.14. Executa-se a
transformação do espaço cúbico RGB para o espaço IHS e a seguir aplica-se um realce linear apenas
na componente I, evitando-se efetuar mudanças na cor (hue) e saturação da imagem. Neste caso não
haverá um deslocamento numérico da cor no realce da imagem, uma característica que não é
geralmente verdadeira se as componentes R, G e B forem contrastadas por um realce tipo linear.

3 R I I R

4 G H H G

5 B S S B

Transformação Realce linear em I Retorno ao


espaço de cor

Fig. 5.14 Etapas do processo de transformação do espaço de cores RGB para o espaço IHS

Pode-se descrever a transformação IHS usando o modelo de um hexacone. Imagine a


projeção de um hexacone com seus vértices representando as cores, como na figura 5.15. A origem
seria o local onde o hexacone se reduz a um ponto, onde seja, onde a intensidade é zero, isso é, o
cone é um ponto preto. Conforme aumenta-se a intensidade (brilho) o tamanho do hexacone vai
aumentando e o ponto preto torna-se um valor de cinza, enquanto a dimensão do hexacone determina
a quantidade da cores presentes (hue). O hexacone ao atingir o tamanho máximo, terá a intensidade I
máxima (branco), a máxima quantidade de cor H presente e a maior saturação S.
Como visto na Fig. 5.15, a distância relativa entre o ponto preto e o branco define o valor de
intensidade de cada projeção do hexágono (refere-se ao brilho da imagem). Para um pixel com uma
certa Intensidade, as outras duas componentes da cor, Hue e Saturação, são definidas
geometricamente na superfície do hexágono. O Hue é determinado pela posição da cor em torno do
hexágono e a Saturação é determinada pela distância ao centro do hexágono. Pontos mais distantes
do centro representam cores mais puras do que aquelas mais próximas ao centro. Usam-se medidas
de distâncias lineares para definir estes componentes das cores, o que torna o algoritmo do hexágono
bastante simples e eficiente.
51

I
amarelo
Green Green amarelo

a p´
O claro p
ciano Red ciano o Red
b
S

Blue magenta
Blue magenta

p é o ponto representando a cor


I=R+G+B
H = ap / ab
S = op / op´

Intensidade zero

preto
Preto 0
Fig. 5.15- Representação dos componentes IHS da cor no espaço do hexágono de cor

Esta representação no espaço de cores IHS, apresenta algumas propriedades, entre as quais
destaca-se o ordenamento das resoluções espaciais dos componentes I, H e S, como percebido pelo
olho humano. A componente I é percebida por máxima resolução, seguida de H e S, devido ao fato de
que a retina do olho humano compõe-se de um maior número de bastonetes (responsáveis pela
percepção de brilho I) do que de cones (responsáveis pela percepção do matiz H). Para perceber isso,
imagine uma foto aérea tomada de uma cena do terreno (portanto, colorida), mas usando-se um filme
preto e branco. As cores mais vivas da paisagem corresponderiam na foto preto e branco aos tons de
cinza claros e as cores escuras corresponderiam aos tons de cinza escuro. A foto aérea preto e branco
seria, portanto, apenas a representação da intensidade. Para compensar a falta dos outros dois
atributos da cor nas fotos aéreas preto e branco, é que se usa uma alta resolução espacial para que se
possa identificar os objetos pelas suas formas e não pelo suas propriedades de cor e saturação. Desta
forma, o sensor ideal seria aquele que registraria com a máxima eficiência os três componentes da
cores e tendo a imagem uma alta resolução espacial. Como nem sempre isso é encontrado, a técnica
IHS foi concebida para compensar essa deficiência.
O interessante desta propriedade é que ela faz da técnica de transformação IHS a mais
eficiente para integrar imagens de diferentes resoluções espaciais. Por exemplo, as imagens TM com
suas sete bandas espectrais são consideradas de possuírem uma boa resolução espectral (maior e
melhor seleção de bandas espectrais), mas têm uma baixa resolução espacial ( 30 m). Ao contrário,
uma imagem de radar por ser apenas em uma banda, precisa ter uma alta resolução espacial para ser
útil. Neste caso, o ideal seria ter uma imagem que somasse estas duas qualidades, o que pode ser
obtido por IHS. O processo é feito da seguinte maneira:
52

 Para explorar o atributo espectral seleciona-se três bandas TM que melhor retratem
espectralmente a cena de interesse, obtendo-se as componentes I, H e S, onde H e S são as
componentes que contém o matiz e a pureza das cores. Para explorar a melhor resolução
espacial da imagem de radar, basta substituir a componente I, que pelo olho humano é
percebida por máxima resolução, pela imagem de radar.
 Como passo seguinte é necessário apenas remostrar o tamanho dos pixels H e S das imagens
TM para a resolução espacial da imagem de radar. Como resultado tem-se uma composição
colorida com alta resolução espacial e que reúne os componentes da cor extraídas das
imagens TM.

Com procedimento semelhante pode-se combinar quaisquer outros tipos de imagens de


diferentes resoluções e sensores, como imagens geofísicas e de satélites. Por isso a técnica IHS deve
a princípio se considerada como uma técnica de integração de dados antes de ser propriamente uma
técnica de composição colorida.

Вам также может понравиться