Вы находитесь на странице: 1из 10

Reconhecimento de Padrões- Home work #1

Introdução
O processo de atribuição de um rótulo a um dado pixel sobre uma imagem em função das
suas propriedades numéricas é genericamente chamado por Classificação (Novo, 2008).
Existem várias técnicas de classificação de imagens digitais que permitem a extração de
informação com diversas finalidades. Podem ser divididas em dois grupos de
classificação que diferem no grau de intervenção do analista, nomeadamente: a
classificação não supervisionada e supervisionada. Diz se que classificação é não
supervisionada quando a rotulação dos pixels numa dada classe é feita sem que se saiba
previamente da sua existência. Enquanto que na classificação supervisionada, existe um
conhecimento prévio do analista sobre a localização espacial de amostras das classes de
interesse.Um pressuposto da classificação supervisionada é de que cada classe deve ser
descrita baseada nas amostras fornecidas pelo analista.
Uma variedade de algoritmos se encontra disponível para efetuar classificação
supervisionada, desde aqueles que se baseiam na distribuição de probabilidades de um
pixel pertencer a uma dada classe aos que usam superfícies localizadas no espaço
multidimensional particionado em regiões de classes (Richards, 1993).
No presente trabalho se vão analisar alguns métodos de classificação supervisionada de
imagens multiespectrais baseados na distribuição de probabilidades.
Em dados de imagens multiespectrais com n bandas espectrais, um pixel pode ser
representado em um espaço n-dimensional em que as coordenadas correspondem ao
brilho do pixel na respectiva banda. Uma classificação sobre esse tipo de dados visa
agrupar os pixels em um dado número de classes espectrais baseado na posição do pixel
no espaço n-dimensional.

Objetivos
• Avaliar o desempenho das técnicas de classificação supervisionada
• Comparar as técnicas de classificação supervisionada

Hugo Adriano Mabilana 1


Reconhecimento de Padrões- Home work #1

Metodologia
Um recorte de imagem TM/Landsat 5 da região norte do estado do Rio Grande do Sul,
foi usada para a classificação. A imagem corresponde á órbita ponto 223/080 adquirida
em quatro de fevereiro de 2008. As bandas um a cinco, incluindo a banda sete, do sensor
TM5 foram usadas para a classificação.
Quatro técnicas de classificação supervisionada baseadas na distribuição de
probabilidades foram usadas sobre a imagem, nomeadamente: o classificador de Bayes, a
máxima verosimilhança, distância Euclidiana mínima e o classificador de Fisher.
Foram definidas as classes e coletadas amostras de treinamento e de teste para efetuar as
classificações. Para todos os classificadores fez-se a estimativa dos respectivos
parâmetros e determinação das imagens de probabilidade.
As classes identificadas na imagem foram: albufeira, mata siliar, rio, solo exposto,
sombra, nuvem, área agrícola, solo húmido e campo. As amostras colhidas para as
respectivas classes auxiliaram na classificação pelas técnicas já referidas.

Classificador de Bayes
É uma técnica de classificação supervisionada que se baseia na distribuição de
probabilidades de um dado pixel pertencer a uma determinada classe. Se ωi for a classe
espectral e i = 1, 2, 3,..., M. onde M é o número de classes espectrais. A determinação da
classe a que um dado pixel com brilho X pertence é dependente da probabilidade
condicional p(ωi /X). Essa probabilidade dá-nos a verossimilhança que a classe ωi tem
para um dado pixel com valor de brilho X. A classificação por Bayes é feita de acordo
com:
X ∈ωi se p(ω i X ) > p(ω j X ) Para todo i ≠ j

Isto é, todo o pixel com valor de brilho X pertence à classe ωi se tiver a maior p(ωi /X). A
probabilidade p(ωi /X) é determinada pelo teorema de Bayes:
p ( X ωi ) • p(ωi )
p( ωi X ) =
p( X )
No entanto, p(ωi /X) é desconhecida e é estimada a partir das amostras de treinamento
providenciadas pelo analista. p(ωi) é a probabilidade de uma dada classe ωi ocorrer na
imagem e p(X) é a probabilidade total de encontrar um pixel com brilho X é qualquer

Hugo Adriano Mabilana 2


Reconhecimento de Padrões- Home work #1

classe. A p(ωi), também chamada probabilidade a priori e pode ser determinada com base
no conhecimento que o analista possui sobre a área de estudo ou então estimada por
analise visual da imagem em questão. No presente trabalho as probabilidades a priori
foram estimadas por análise visual das diferentes classes.
Nisto, a classificação por Bayes é dada por:
X ∈ωi
se p( X ω i ) • p(ω i ) > p( X ω j ) • p(ω j ) Para todo i ≠ j

Por convenção a expressão é convertida em uma função descriminante:


g i ( x ) = ln ( p ( X ωi ) + ln( p (ωi ))

Assumindo que as classes têm uma distribuição normal multivariada, a função


discriminante é deduzida em:

gi ( x) = − l ∑n i − ( X − m ) • ∑ • ( X − mi ) + l np(ω i() )
T −1
i i
Onde mi e Ʃi são os vetores de média e a matriz de covariância de cada classe estimados
pelos dados de treinamento. De maneira geral a implementação da regra de decisão de
Bayes é dada:
X ∈ωi se gi ( X ) > g j ( X ) Para todo i ≠ j

Máxima verossimilhança
É uma variação do classificador de Bayes, onde se assume que as probabilidades a priori
sejam iguais (p(ωi)) em todas as classes, portanto iguais a 1/M. onde M corresponde ao
níumero de classes espectrais. Introduzindo deste modo um termo comum nas funções
descriminantes das classes, simplificando-a em:

gi ( x) = − l ∑ni − ( X − m ) ∑• • ( X − mi )
T −1
i i
Com a mesma regra de decisão.

Classificador Linear de Fisher

Hugo Adriano Mabilana 3


Reconhecimento de Padrões- Home work #1

Considera a distância entre os vetores de média e assume que as matrizes de covariância


entre as classes sejam iguais. E, portanto a mesma não teria influência na diferenciação
das funções descriminantes ficando:

g i ( x ) = − ( X − mi ) • ∑ −1 •( X − mi )
T

Distância Euclidiana Mínima


Também se baseia na função descriminante Bayesiana, para além das assunções da
máxima verossimilhança, considera que a matriz de covariância é igual em todas as
classes espectrais. Assume também que esta mesma matriz é diagonal, o que pressupõe a
inexistência de covariância entre as bandas espectrais em questão. A sua função
descriminante é dada por:
g i ( x ) = ( X − mi ) • ( X − mi )
T

A acurácia de cada classificador foi determinada a partir da matriz de contingência, onde


foram descriminados a acurácia do analista e do classificador. A matriz de contingência
foi usada para avaliação do desempenho dos classificadores e possibilitou a comparação
dos diferentes técnicas de classificação.
Foram testados dois métodos de extração de amostra para estimativa dos parâmetros
sobre as classificações e determinação da acurácia da classificação: a re-substituição e
Hold out. A re-substituição consiste no uso da mesma amostra para a determinação dos
parâmetros para realização da classificação e para a determinação da matriz de
contingência. No Hold out, a amostra é dividida e uma parte é usada para a estimativa dos
parâmetros da classificação e a outra a matriz de contingência.
No presente, não foram definidos nenhuns limiares de probabilidade para as
classificações.

Resultados e discussão
No classificador de Bayes, para as classes de informação, foram definidos os seguintes
pesos para cada uma delas (Tabela 1). Pelos dois métodos de extração de amostras,
ambas classificações não apresentaram grandes diferenças, tanto na imagem temática
resultante, como na matriz de contingência. As duas apresentam acurácias do analista e

Hugo Adriano Mabilana 4


Reconhecimento de Padrões- Home work #1

do classificador superiores a 97%, para todas as classes definidas. Pelo que pode se dizer
que as mesmas foram satisfatórias com poucas indicações de confusão entre as classes
definidas. As matrizes de confusão para re-substituição e hold out se encontram
respectivamente nas tabelas 3 e 4.
Tabela 1 Peso das classes para a determinação das probabilidades a priori
Número da classe Classes Pesos
1 Albufeira 10.000
2 Mata siliar 10.000
3 Rio 5.000
4 Solo exposto 10.000
5 Sombra 2.500
6 de contingência para Nuvem
Tabela 2 Matriz o classificador de Bayes pela2.500
re-substituição
7 Área agrícola Classes 20.000
8
Classes Acuracia do Analista amostra 1 Solo
2 úmido 3 4 20.000
5 6 7 8 9
1 100.0 9
1679 1679 Campo
0 0 0 20.000
0 0 0 0 0
2 98.5 261 0 257 0 0 0 0 0 0 4
3 98.0 102 0 0 100 0 0 0 0 0 2
4 100.0 236 0 0 0 236 0 0 0 0 0
5 100.0 150 0 0 0 0 150 0 0 0 0
6 100.0 152 0 0 0 0 0 152 0 0 0
7 98.4 668 0 5 0 0 0 0 659 0 4
8 100.0 162 0 0 0 0 0 0 0 162 0
9 100.0 415 0 0 0 0 0 0 0 0 415
TOTAL 3825 1679 262 100 236 150 152 659 162 425
Acuracia do classificador 100.0 98.1 100.0 100.0 100.0 100.0 100.0 100.0 97.6

Tabela 3 Matriz de contingência para o classificador de Bayes pela Hold out


Classes
Classes Acuracia do Analista amostra 1 2 3 4 5 6 7 8 9
1 100.0 200 200 0 0 0 0 0 0 0 0
2 98.5 50 0 49 0 0 0 0 1 0 0
3 98.0 28 0 0 27 0 0 0 0 0 1
4 100.0 84 0 0 0 84 0 0 0 0 0
5 100.0 35 0 0 0 0 35 0 0 0 0
6 100.0 12 0 0 0 0 0 12 0 0 0
7 98.4 130 0 0 0 0 0 0 130 0 0
8 100.0 130 0 0 0 0 0 0 0 107 23
9 100.0 144 0 0 0 0 0 0 0 0 144
TOTAL 813 200 49 27 84 35 12 131 107 168
Acuracia do classificador 100.0 100.0 100.0 100.0 100.0 100.0 99.2 100.0 85.7

Hugo Adriano Mabilana 5


Reconhecimento de Padrões- Home work #1

O classificador pela máxima verossimilhança comportou-se de maneira similar, mesmo


considerando que todas as classes possuíam as probabilidades a priori iguais. Pela
simplicidade desta técnica em relação ao classificador Bayes, pressupõe que a definição
de probabilidades a priori no caso específico da imagem não contribui para a melhoria
significativa da acurácia da classificação. Mesmo porque ambas acurácias se encontram
num nível considerado bom.
Tabela 4 Matriz de contingência da Maxima verossimilhança pela re-sebstituição

Classes
Classes Acuracia do Analista amostra 1 2 3 4 5 6 7 8 9
1 100.0 1679 1679 0 0 0 0 0 0 0 0
2 98.5 261 0 257 0 0 0 0 0 0 4
3 98.0 102 0 0 100 0 0 0 0 0 2
4 100.0 236 0 0 0 236 0 0 0 0 0
5 100.0 150 0 0 0 0 150 0 0 0 0
6 100.0 152 0 0 0 0 0 152 0 0 0
7 98.5 668 0 6 0 0 0 0 658 0 4
8 100.0 162 0 0 0 0 0 0 0 162 0
9 99.8 415 0 1 0 0 0 0 0 0 414
TOTAL 3825 1679 264 100 236 150 152 658 162 424
Acuracia do classificador 100.0 97.3 100.0 100.0 100.0 100.0 100.0 100.0 97.6

Tabela 5 Matriz de contingência da Maxima verossimilhança pelo hold Out


Classes
Classes Acuracia do Analista amostra 1 2 3 4 5 6 7 8 9
1 100.0 200 200 0 0 0 0 0 0 0 0
2 100.0 50 0 50 0 0 0 0 0 0 0
3 96.4 28 0 0 27 0 0 0 0 0 1
4 100.0 84 0 0 0 84 0 0 0 0 0
5 100.0 35 0 0 0 0 35 0 0 0 0
6 100.0 12 0 0 0 0 0 12 0 0 0
7 100.0 130 0 0 0 0 0 0 130 0 0
8 82.3 130 0 0 0 0 0 0 0 107 23
9 100.0 144 0 0 0 0 0 0 0 0 144
TOTAL 813 200 50 27 84 35 12 130 107 168
Acuracia do classificador 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 85.7

As tabelas 4 e 5 mostram as matrizes de contingência do classificação pela máxima


verossimilhança para a re-substituição e hold out.
O classificador linear de Fisher também se mostrou, pela matriz de contingência, uma
boa técnica para a classificação da área de estudo. Com valores de acurácia superiores a
noventa por cento em todas as classes pelo método de re substituição.

Hugo Adriano Mabilana 6


Reconhecimento de Padrões- Home work #1

Tabela 6 Matriz de contingência do classificador linear de Fisher pela re-sebstituição


Classes
Classes Acuracia do Analista amostra 1 2 3 4 5 6 7 8 9
1 100.0 1679 1679 0 0 0 0 0 0 0 0
2 98.5 261 0 257 0 0 0 0 0 0 4
3 98.0 102 0 0 100 0 0 0 0 0 2
4 100.0 236 0 0 0 236 0 0 0 0 0
5 100.0 150 0 0 0 0 150 0 0 0 0
6 100.0 152 0 0 0 0 0 152 0 0 0
7 98.4 668 0 6 0 0 0 0 657 0 5
8 100.0 162 0 0 0 0 0 0 0 162 0
9 100.0 415 0 0 0 0 0 0 0 0 415
TOTAL 3825 1679 263 100 236 150 152 657 162 426
Acuracia do classificador 100.0 97.7 100.0 100.0 100.0 100.0 100.0 100.0 97.4

Tabela 7 Matriz de contingência do classificador linear de Fisher pelo Hold Out


Classes
Classes Acuracia do Analista amostra 1 2 3 4 5 6 7 8 9
1 100.0 200 200 0 0 0 0 0 0 0 0
2 100.0 50 0 50 0 0 0 0 0 0 0
3 96.4 28 0 0 27 0 1 0 0 0 0
4 100.0 84 0 0 0 84 0 0 0 0 0
5 100.0 35 0 0 0 0 35 0 0 0 0
6 100.0 12 0 0 0 0 0 12 0 0 0
7 100.0 130 0 0 0 0 0 0 130 0 0
8 99.2 130 0 0 0 0 0 0 0 129 1
9 2.8 144 0 140 0 0 0 0 0 0 4
TOTAL 813 200 190 27 84 36 12 130 129 5
Acuracia do classificador 100.0 26.3 100.0 100.0 97.2 100.0 100.0 100.0 80.0

O desempenho do classificador linear de Fisher pela matriz de contingência usando a


amostragem do Hold out se mostrou diferente dos restantes até agora apresentados. A
acurácia do analista se mostrou elevada em quase todas as classes, à exceção da classe
campo (6), que apresentou uma acurácia insignificante. Uma vez que a amostragem por
Hold Out utiliza amostras diferentes para o treinamento e para o teste do classificador,
possivelmente esse baixo valor na acurácia do analista tenha sido resultado de uma
amostragem incorreta dos dados de teste da classe em questão. No que se refere à
acurácia do classificador, este demostra confusão entre as classes de mata e campo
reduzindo a acurácia da classe de mata.

Hugo Adriano Mabilana 7


Reconhecimento de Padrões- Home work #1

Tabela 8 Matriz de contingência da distância mínima euclidiana pela re-sebstituição

Classes
Classes Acuracia do Analista amostra 1 2 3 4 5 6 7 8 9
1 99.9 1679 1678 0 1 0 0 0 0 0 0
2 95.4 261 0 249 0 0 10 0 0 0 2
3 97.1 102 0 0 99 0 2 0 0 1 0
4 100.0 236 0 0 0 236 0 0 0 0 0
5 98.0 150 3 0 0 0 147 0 0 0 0
6 90.8 152 0 0 0 14 0 138 0 0 0
7 96.0 668 0 11 0 0 0 0 641 0 16
8 100.0 162 0 0 0 0 0 0 0 162 0
9 51.3 415 0 144 18 1 4 0 1 34 213
TOTAL 3825 1681 404 118 251 163 138 642 197 231
Acuracia do classificador 99.8 61.6 83.9 94.0 90.2 100.0 99.8 82.2 92.2

A matriz de contingência da classificação pela distância euclidiana mínima na


Tabela 9 Matriz de contingência da distância mínima euclidiana pelo Hold Out
Classes
Classes Acuracia do Analista amostra 1 2 3 4 5 6 7 8 9
1 100.0 200 200 0 0 0 0 0 0 0 0
2 100.0 50 0 50 0 0 0 0 0 0 0
3 96.4 28 0 0 27 0 1 0 0 0 0
4 100.0 84 0 0 0 84 0 0 0 0 0
5 100.0 35 0 0 0 0 35 0 0 0 0
6 41.7 12 0 0 0 7 0 5 0 0 0
7 100.0 130 0 0 0 0 0 0 130 0 0
8 100.0 130 0 0 0 0 0 0 0 130 0
9 56.9 144 0 62 0 0 0 0 0 0 82
TOTAL 813 200 112 27 91 36 5 130 130 82
Acuracia do classificador 100.0 44.6 100.0 92.3 97.2 100.0 100.0 100.0 100.0
amostragem por re-substituição apresenta baixos valores de acurácia tanto do analista
como o do classificador. O classificador pela distância mínima euclidiana mínima é o que
menos rigor na estimativa dos parâmetros apresenta pelo que era de se esperar que estes
apresentassem valores não muito satisfatórios quando comparados aos restantes.
As imagens de probabilidade determinadas pelas diversas técnicas de classificação são
no geral semelhantes. As figuras 1, 2 e 3 apresentam respectivamente a imagem da
composição colorida verdadeira da área de estudo, o resultado da classificação de Bayes e
a imagem de máxima probabilidade.

Hugo Adriano Mabilana 8


Reconhecimento de Padrões- Home work #1

Figura 1 Composição colorida verdadeira da área de estudo (321)

Figura 3 Imagem de probabilidade máxima


Figura 2 Resultado da classificação de Bayes (re
substituição)

Verifica-se pela imagem de máxima probabilidade que vários pixels apresentam


probabilidades entre 0 a 1 %, é um valor de probabilidade baixoe indicador da
possibilidade de se incluir mais classes espectrais de modo a melhorar o desempenho da
mesma. Esta deficiência na classificação poderia ser melhor ilustrada se fosse definido
um limiar de classificação, onde alguns dos locais com baixa probabilidade se mostraria
não classificados.

Hugo Adriano Mabilana 9


Reconhecimento de Padrões- Home work #1

Conclusão
De maneira geral, todos classificadores apresentados tiveram um desempenho
satisfatórios quando avaliados pela matriz de contingência. O classificador de Bayes por
ser mais robusto foi o que apresentou melhor desempenho, para ambos os métodos de
amostragem. A matriz de contingência distância euclidiana mínima foi o que mostou
maior confusão entre as classes de treinamento.
Todos os classificadores formaram uma imagem de mínima probabilidade com uma
grande porção de pixels com funções de decisão de probabilidades baixas, indicador de
uma diferença mínima entre as funções das restantes classes. O aumento do número de
classes espectrais e/ou a definição de um limiar de probabilidades poderia melhorar o
desempenho das classificações.

Hugo Adriano Mabilana 10

Вам также может понравиться