Вы находитесь на странице: 1из 151

OTÁVIO DA FONSECA MARTINS GOMES

Processamento e Análise de Imagens Aplicados à


Caracterização Automática de Materiais

Dissertação apresentada ao Departamento de


Ciência de Materiais e Metalurgia da PUC/Rio
como parte dos requisitos para a obtenção do
título de Mestre em Ciências da Engenharia
Metalúrgica.

Orientador: Sidnei Paciornik

Departamento de Ciência de Materiais e Metalurgia

Pontifícia Universidade Católica do Rio de Janeiro

Rio de Janeiro, 25 de setembro de 2001


Agradecimentos

• Ao meu orientador, Prof. Sidnei Paciornik, que, além de brilhante cientista,


tornou-se um estimado amigo e demonstrou muita calma e tranqüilidade no
decorrer deste trabalho.

• A todo pessoal do Departamento de Ciência de Materiais e Metalurgia


(DCMM) da PUC-Rio.

• A toda equipe do nosso Laboratório de Processamento Digital de Imagens


(LPDI).

• À minha eterna chefinha, Yannick Nouailhetas, pela permissão de vôo


concedida.

• Aos velhos amigos da UFRJ, CETEM e CNEN e a todos os novos amigos da


PUC-Rio, em especial a Guilherme Lúcio Abelha Mota e Conrado de Souza
Rodrigues, que contribuíram para este trabalho.

• Ao Image, que, literalmente, se ferrou sozinho pra me proteger, sem o qual este
trabalho não teria sido concluído, pelo menos não por mim.

• À Technical Ship Engenharia, na pessoa do meu pai, pelo apoio financeiro para
a impressão deste trabalho.

• À FINEP/MCT, através do Programa Recope, e à Carl Zeiss do Brasil, pelo


apoio financeiro ao LPDI.
RESUMO
A presente dissertação consiste no estudo de três casos de caracterização automática de

materiais, através do emprego de técnicas de Processamento e Análise Digital de Imagens

(PADI). Cada caso envolve uma escala diferente (milimétrica, micrométrica e nanométrica) e

apresenta complexidade em um diferente aspecto de PADI. Deste modo, juntos, estes três casos

oferecem um panorama abrangente das técnicas de PADI, assim como de sua aplicação na

caracterização de materiais.

O primeiro caso (Análise da Mesoestrutura de Bambus) tem a segmentação como etapa

crítica. Um procedimento, que, à primeira vista, parece fácil, demanda uma complexa rotina

recursiva para agrupar regiões de esclerênquima a fim de reconstruir os conjuntos vasculares.

Contudo, feita a segmentação, a classificação dos conjuntos é simples. Amostras de indivíduos

diferentes, de mesmas espécies de bambu, apresentaram grande semelhança nas classes dos

conjuntos vasculares predominantes em cada camada do colmo.

Já no segundo caso (Classificação Automática de Grafita em Ferros Fundidos), a

seqüência de PADI é substancialmente mais simples. Entretanto, este é em um problema de

caracterização por forma e sua maior dificuldade reside na escolha dos atributos descritores da

forma das partículas de grafita, sendo realizado um extenso estudo para isto. Como resultado,

obteve-se taxas de acerto na classificação próximas a 100%.

O terceiro caso (Análise Nano-estrutural de um Compósito Resina-Grafite) apresenta

uma abordagem diferente. Não há etapa de segmentação e as medidas são feitas diretamente

sobre as imagens originais do material. A caracterização é feita a partir da textura das imagens

(parâmetros de Haralick). Os resultados obtidos confirmam a hipótese de que, no processo de

fabricação, as nano-partículas de grafite estão sendo erodidas, gerando uma significativa

quantidade de camadas de carbono dispersas na matriz de resina, o que justifica variações das

propriedades dielétricas relatadas na literatura.


ABSTRACT
The present dissertation consists of three case studies in automatic materials

characterization through the use of Digital Image Processing and Analysis (DIPA). Each case

involves a different scale (millimeters, microns and nanometers) and presents complexity in a

different aspect of the DIPA sequence. Thus, together, the three case studies cover a broad range

of DIPA techniques and their application to materials characterization.

The first case (Analysis of the Mesostructure of Bamboos) has the segmentation as

critical step. Although simple at first sight, the procedure requires a complex recursive procedure

to cluster sclerenchyma regions to reconstruct the vascular bundles. However, once the

segmentation is successful, the classification of vascular bundles is simple. Samples of different

plants belonging to the same species showed great similarity in the prevailing classes of vascular

bundles in each layer of the culms.

In the second case study (Automatic Classification of Graphite in Cast Iron), the DIPA

sequence is substantially simpler. Nevertheless, this is a shape characterization problem and its

greatest difficulty resides in the choice of appropriate shape parameters to describe the graphite

particles. This required an extensive study. As a result, classification rates close to 100% were

achieved.

The third case study (Nanostructural Analysis of a Resin-Graphite Composite) uses a

different approach. There is no segmentation step and the measurements are made directly on the

original images. The characterization is based on image texture (Haralick parameters). The

results confirm the hypothesis that during the manufacture of the composite material, graphite

nano-particles are eroded leading to a substantial amount of carbon layers dispersed in the resin

matrix. This is compatible with variations in the dieletric properties of the material reported in

the literature.
SUMÁRIO

1 INTRODUÇÃO .......................................................................................... 1

2 PROCESSAMENTO E ANÁLISE DIGITAL DE IMAGENS ................ 4


2.1 Aquisição da imagem ...................................................................................................... 8
2.2 Imagem digital ................................................................................................................ 9
2.2.1 Resolução e Profundidade ..................................................................................... 9
2.2.2 Brilho e Contraste ............................................................................................... 11
2.2.3 Histograma.......................................................................................................... 12
2.3 Pré-processamento......................................................................................................... 14
2.3.1 Operações Pontuais ............................................................................................. 16
2.3.1.1 Mapeamento linear ................................................................................. 17
2.3.1.2 Mapeamento não-linear .......................................................................... 24
2.3.1.3 Operações sobre o histograma ................................................................ 26
2.3.2 Operações entre imagens ..................................................................................... 30
2.3.3 Operações Locais ................................................................................................ 31
2.3.4 Operações Geométricas....................................................................................... 38
2.4 Segmentação ................................................................................................................. 39
2.4.1 Limiarização ....................................................................................................... 40
2.4.2 Segmentação por contornos................................................................................. 45
2.5 Pós-processamento ........................................................................................................ 46
2.5.1 Operações Lógicas .............................................................................................. 47
2.5.2 Operações Morfológicas...................................................................................... 49
2.5.3 Separação de objetos que se tocam...................................................................... 59
2.6 Extração de Atributos .................................................................................................... 60
2.6.1 Medidas de Campo.............................................................................................. 61
2.6.1.1 Contagem de Objetos ............................................................................. 61
2.6.1.2 Área ....................................................................................................... 62
2.6.1.3 Interceptos e Interseções......................................................................... 62
2.6.1.4 Intensidade ............................................................................................. 63
2.6.1.5 Textura................................................................................................... 64
2.6.2 Medidas de Região.............................................................................................. 70
2.6.2.1 Tamanho ................................................................................................ 70
2.6.2.2 Forma..................................................................................................... 72
2.6.2.3 Posição................................................................................................... 79
2.6.2.4 Intensidade ............................................................................................. 80
2.6.2.5 Textura................................................................................................... 80
2.7 Reconhecimento de Padrões e Classificação .................................................................. 81
2.7.1 Classificação Supervisionada .............................................................................. 82
2.7.1.1 Conjunto de treinamento......................................................................... 83
2.7.1.2 Conjunto de características ..................................................................... 83
2.7.1.3 Classificador .......................................................................................... 84
2.7.1.4 Etapas da classificação supervisionada ................................................... 85

III
3 ANÁLISE DA MESOESTRUTURA DE BAMBUS ............................... 86
3.1 Introdução ..................................................................................................................... 86
3.2 Métodos Experimentais ................................................................................................. 90
3.2.1 Treinamento e Validação..................................................................................... 90
3.2.2 Classificação ....................................................................................................... 91
3.2.2.1 Segmentação do bambu .......................................................................... 92
3.2.2.2 Escamação do bambu ............................................................................. 96
3.2.2.3 Segmentação dos conjuntos vasculares ................................................... 98
3.2.2.4 Segmentação das regiões de esclerênquima .......................................... 101
3.2.2.5 Extração dos atributos .......................................................................... 103
3.2.2.6 Classificação ........................................................................................ 105
3.3 Resultados e Discussões .............................................................................................. 105

4 CLASSIFICAÇÃO AUTOMÁTICA DE GRAFITA EM FERROS


FUNDIDOS ............................................................................................. 111
4.1 Introdução ................................................................................................................... 111
4.2 Métodos Experimentais ............................................................................................... 114
4.2.1 Treinamento e Validação................................................................................... 114
4.2.2 Classificação ..................................................................................................... 117
4.3 Resultados e Discussões .............................................................................................. 118

5 ANÁLISE NANO-ESTRUTURAL DE UM COMPÓSITO RESINA-


GRAFITE................................................................................................ 129
5.1 Introdução ................................................................................................................... 129
5.2 Métodos Experimentais ............................................................................................... 131
5.3 Resultados e Discussões .............................................................................................. 134

6 CONCLUSÕES....................................................................................... 138

IV
LISTA DE ILUSTRAÇÕES
Figura 1. Seqüência padrão de PADI...................................................................................... 5
Figura 2. Um exemplo de problema de PADI: (a) imagem original; (b) imagem das partículas
de grafita (regiões); (c) área de cada partícula; e (d) distribuição das áreas. ........... 7
Figura 3. Imagem digital. ....................................................................................................... 8
Figura 4. Resolução e profundidade. .................................................................................... 10
Figura 5. Brilho e contraste. ................................................................................................. 14
Figura 6. Operação de negativo: (a) função de mapeamento; (b) imagem original; (c) imagem
negativo; (d) histograma da imagem original; e (e) histograma do negativo......... 18
Figura 7. Exemplo de operação de Normalização para expansão do contraste....................... 20
Figura 8. Funções de mapeamento logarítmica (a) e exponencial (b). ................................... 24
Figura 9. Exemplo de função de mapeamento linear por partes. ........................................... 25
Figura 10. Equalização do histograma: (a) imagem original com seu histograma; e (b) imagem
com seu histograma equalizado. .......................................................................... 27
Figura 11. Operações entre imagens. .................................................................................... 30
Figura 12. Operações locais. ................................................................................................ 31
Figura 13. Filtros passa-baixa 3x3: (a) média; (b) gaussiana. ................................................ 33
Figura 14. Correção de iluminação irregular: (a) imagem original; (b) fundo calculado; e (c)
imagem com iluminação corrigida....................................................................... 35
Figura 15. Filtros passa-alta 3x3: (a) passa-alta básico; (b) alto reforço. ............................... 35
Figura 16. Operadores cruzados de gradiente de Roberts...................................................... 37
Figura 17. Filtro laplaciano 3x3............................................................................................ 38
Figura 18. Operações geométricas........................................................................................ 39
Figura 19. Exemplo de segmentação: (a) imagem em 256 tons de cinza; (b) imagem binária.
........................................................................................................................... 40
Figura 20. Exemplo de limiarização bi-modal: (a) imagem original; (b) tom de corte; (c)
imagem binária. .................................................................................................. 41
Figura 21. Exemplo de limiarização tetra-modal: (a) imagem em 256 tons de cinza; (b) tons
de corte; (c) imagem quaternária. ........................................................................ 42
Figura 22. Comparação entre métodos limiarização automática: (a) imagem em 256 tons de
cinza; (b) corte no ponto de mínimo; (c) corte pelo método de Otsu; (d) imagem
segmentada pelo método dos mínimos; e (e) imagem segmentada pelo método de
Otsu. ................................................................................................................... 44
Figura 23. Comparação entre a segmentação de Otsu e a limiarização adaptativa: (a) imagem
em 256 tons de cinza; (b) imagem da segmentação de Otsu; e (c) imagem da
limiarização adaptativa........................................................................................ 45
Figura 24. Exemplo de segmentação conjunta por limiarização e Marr-Hildreth: (a) imagem
em tons de cinza; (b) imagem da limiarização; (c) imagem da segmentação de
Marr-Hildreth; e (d) interseção entre as imagens (b) e (c). ................................... 46
Figura 25. Operações lógicas básicas (NOT, AND e OR)..................................................... 48
Figura 26. Operação lógica XOR. ........................................................................................ 49
Figura 27. Erosão e dilatação. .............................................................................................. 50
Figura 28. Elementos estruturantes 3x3: (a) conectividade 4; (b) conectividade 8................. 51
Figura 29. Extração de bordas. ............................................................................................. 51
Figura 30. Preenchimento de buracos (hole filling)............................................................... 52
Figura 31. Eliminação de objetos que tocam na borda da imagem (border object killing). .... 52
Figura 32. Extração de objetos marcados (object marking)................................................... 53

V
Figura 33. Eliminação de objetos por área (scrapping). ........................................................ 53
Figura 34. Comparação entre as operações de propagação com elemento estruturante
(conectividade 4) e EDM..................................................................................... 54
Figura 35. Mapa de Distâncias Euclidianas (EDM). ............................................................. 55
Figura 36. Erosão e dilatação a partir do EDM: (a) imagem binária inicial; (b) complemento
da imagem binária inicial; (c) EDM (com look-up table); (d) EDM do
complemento (com look-up table); (e) erosão (10 passos); e (f) dilatação (10
passos). ............................................................................................................... 56
Figura 37. Abertura e fechamento: (a) imagem binária inicial; (b) abertura (10 passos); e (c)
fechamento (10 passos). ...................................................................................... 57
Figura 38. Erosão derradeira e transformada do eixo medial: (a) imagem binária inicial; (b)
erosão derradeira; e (c) transformada do eixo medial. .......................................... 58
Figura 39. Dilatação derradeira e dilatação derradeira com barreiras: (a) imagem binária
inicial; (b) dilatação derradeira; e (c) dilatação derradeira com barreiras.............. 58
Figura 40. Método dos divisores de águas (watersheds): (a) imagem binária inicial; e (b)
imagem binária com objetos separados................................................................ 59
Figura 41. Conectividade. .................................................................................................... 61
Figura 42. Exemplo de possível erro de contagem de objetos devido à conectividade........... 62
Figura 43. (a) interceptos e (b) interseções. .......................................................................... 63
Figura 44. Vetor d................................................................................................................ 67
Figura 45. Objeto exemplo para ilustrar as medidas de tamanho........................................... 70
Figura 46. Medidas de área: (a) área; (b) área preenchida; e (c) área convexa. ...................... 70
Figura 47. Medidas de perímetro: (a) perímetro; (b) perímetro preenchido; e (c) perímetro
convexo. ............................................................................................................. 71
Figura 48. Ferets: (a) feret mínimo; (b) feret máximo; e (c) feret ortogonal ao máximo........ 72
Figura 49. Width. ................................................................................................................. 72
Figura 50. Comparação de fatores adimensionais de forma. ................................................. 77
Figura 51. Assinatura seqüencial de contorno....................................................................... 79
Figura 52. Medidas de posição............................................................................................. 79
Figura 53. Classificação supervisionada. .............................................................................. 82
Figura 54. Classificação não-supervisionada. ....................................................................... 82
Figura 55. Características anatômicas do bambu usadas para sua classificação..................... 87
Figura 56. Seção reta de um colmo de bambu a olho nu (a) e numa lupa (b)......................... 88
Figura 57. Detalhes da estrutura dos bambus. ....................................................................... 88
Figura 58. Classes de conjuntos vasculares........................................................................... 89
Figura 59. Conjunto de treinamento. .................................................................................... 90
Figura 60. Fluxograma da rotina de classificação de conjuntos vasculares............................ 92
Figura 61. Imagem capturada em 256 tons de cinza.............................................................. 93
Figura 62. “Expansão” da imagem do bambu. ...................................................................... 94
Figura 63. Segmentação grosseira do bambu. ....................................................................... 94
Figura 64. Imagem binária das bordas. ................................................................................. 95
Figura 65. “Limpeza” da imagem binária das bordas............................................................ 95
Figura 66. União das bordas................................................................................................. 96
Figura 67. Imagem binária do bambu. .................................................................................. 96
Figura 68. Escamação do bambu. ......................................................................................... 98
Figura 69. Um ciclo de segmentação de conjuntos vasculares. ........................................... 100
Figura 70. Resultados dos ciclos de segmentação de conjuntos vasculares.......................... 100

VI
Figura 71. Eliminação dos conjuntos vasculares que tocam as bordas da imagem ou que
possuem área fora do desvio padrão. ................................................................. 101
Figura 72. Segmentação das regiões de esclerênquima (primeira parte). ............................. 102
Figura 73. Segmentação das regiões de esclerênquima (segunda parte). ............................. 103
Figura 74. Preparação de imagens fáceis de serem medidas................................................ 104
Figura 75. “Limpeza” para a classificação.......................................................................... 105
Figura 76. Classificação das amostras de bambu da espécie Áurea. .................................... 106
Figura 77. Classificação das amostras de bambu da espécie Gigante. ................................. 107
Figura 78. Classificação das amostras de bambu da espécie Matake. .................................. 108
Figura 79. Classificação das amostras de bambu da espécie Moso...................................... 109
Figura 80. Imagens de referência das seis classes de partículas de grafita (ISO-945). ......... 112
Figura 81. Fluxograma da rotina de classificação de ferro fundido. .................................... 114
Figura 82. Ângulo interno médio: (a) imagem binária; (b) imagem pintada com um tom de
cinza k2; (c) imagem borrada pelo filtro passa-baixa média com kernel de tamanho
k x k; (d) imagem final resultante (com look-up table); e (e) look-up table......... 116
Figura 83. Grande correlação tamanho-forma..................................................................... 120
Figura 84. Diferença entre taxas de acerto globais médias (%) com e sem o atributo. ......... 122
Figura 85. Taxa de acerto global máxima sem o atributo. ................................................... 122
Figura 86. Influência da resolução com conjuntos de atributos com AIM............................ 124
Figura 87. Influência da resolução com conjuntos de atributos sem AIM. ........................... 125
Figura 88. Representação pictórica das taxas de acerto....................................................... 126
Figura 89. Classificação das três amostras de ferro fundido................................................ 127
Figura 90. Imagens de HRTEM de: (a) resina pura; (b) compósito em região sem nano-
partículas de grafite; e (c) compósito onde aparecem nano-partículas de grafite. 132
Figura 91. Imagens dos mosaicos. ...................................................................................... 133
Figura 92. Aplicação das imagens dos mosaicos sobre uma imagem do compósito............. 133
Figura 93. Influência do tamanho dos quadrados nos parâmetros de Haralick (Uniformidade,
Contraste e Entropia) para resina pura (a) e compósito (b)................................. 134
Figura 94. Histogramas da uniformidade (a), contraste (b) e entropia (c) para resina pura e
compósito entre nano-partículas de grafite (quadrados de 100x100 pixels). ....... 135
Figura 95. Pequenas regiões organizadas na matriz, provavelmente carbono. ..................... 136

VII
LISTA DE TABELAS
Tabela 1. Operadores diferenciais parciais............................................................................ 37
Tabela 2. Parâmetros de Haralick ......................................................................................... 69
Tabela 3. Fatores Adimensionais de Forma .......................................................................... 76
Tabela 4. Taxas de acerto globais de auto-validação........................................................... 121
Tabela 5. Validação ........................................................................................................... 123
Tabela 6. Taxas de acerto do conjunto de atributos escolhido na auto-validação................. 125
Tabela 7. Influência do classificador .................................................................................. 126

VIII
1 Introdução
O Processamento e Análise Digital de Imagens (PADI) é uma ferramenta

relativamente recente que cresce acompanhando o desenvolvimento dos recursos

computacionais. Consiste na utilização de operações matemáticas para alterar os valores

dos pixels de imagens digitais, modificando-as, para facilitar sua visualização e/ou para

proceder à extração de dados quantitativos.

A utilização de PADI abre novas perspectivas para a caracterização de materiais,

pois permite fazer medidas impossíveis de serem realizadas manualmente e confere maior

reprodutibilidade, confiabilidade e velocidade ao processo. Além disso, possibilita o uso de

técnicas de reconhecimento de padrões e inteligência artificial para automatizar

procedimentos de classificação.

De fato, quando se pensa na utilização de técnicas de PADI para a caracterização

de materiais, vem à mente a automação, de modo que, a partir de uma amostra

adequadamente preparada ou de uma imagem digital desta, aperte-se um botão e o

computador forneça o resultado. Para isto, as rotinas de PADI seguem uma seqüência

padrão de etapas, através da qual pode-se ir de amostras ou imagens digitais a dados

quantitativos interpretados.

O objetivo da presente dissertação consiste no estudo de três casos de

caracterização automática de materiais, através do emprego de técnicas de PADI. A grosso

modo, pode-se dizer que se trata da caracterização de três materiais compósitos, a partir da

análise quantitativa de sua fase secundária.

Os materiais estudados (bambu, ferro fundido e compósito resina-grafite) são

analisados em diferentes escalas de tamanho, respectivamente, milimétrica, micrométrica e

nanométrica. Além disto, cada caso apresenta complexidade em uma etapa diferente da

1
seqüência padrão. Deste modo, juntos, estes três casos oferecem um panorama abrangente

das técnicas de PADI, assim como de sua aplicação na caracterização de materiais.

O primeiro caso (Análise da Mesoestrutura de Bambus) tem a segmentação como

sua etapa crítica. Os objetos a serem medidos e classificados, os conjuntos vasculares, são

objetos complexos formados, cada um, por um conjunto de objetos separados, as regiões de

esclerênquima. Assim, a segmentação dos conjuntos vasculares é realizada através do

agrupamento destas regiões.

No entanto, há uma grande variabilidade no tamanho, espaçamento e forma das

regiões de esclerênquima. E, deste modo, um procedimento, que, à primeira vista, parece

fácil, demanda uma complexa rotina recursiva a fim de se garantir a robustez. Contudo,

feita a segmentação, a etapa de classificação é simples, pois os conjuntos vasculares

apresentam-se em 5 classes muito específicas, de modo que os atributos para classificá-los

são óbvios.

Já no segundo caso (Classificação Automática de Grafita em Ferros Fundidos), a

segmentação é fácil. O fato das amostras de ferro fundido não serem atacadas propicia uma

boa distinção entre as partículas de grafita (preto) e a matriz (cinza claro), facilitando sua

segmentação por limiarização. Deste modo, uma rápida segmentação automática de Otsu é

suficiente.

De fato, no que concerne ao processamento e análise das imagens, esta rotina é

bem simples e segue passo a passo a seqüência padrão de PADI, utilizando-se

principalmente de operações simples e corriqueiras. Entretanto, este é em um problema de

caracterização por forma e sua maior dificuldade reside justamente aí. Assim, a etapa

crítica é a escolha do conjunto de atributos, pois este precisa ser robusto para agrupar a

grande variabilidade de formas apresentada dentro cada classe de grafita e sensível bastante

para distingüir estas classes umas das outras.

2
O terceiro caso (Análise Nano-estrutural de um Compósito Resina-Grafite)

apresenta uma abordagem diferente, sua rotina de PADI é simples, porém peculiar. Por não

haver definição clara de tons de cinza ou contornos discriminando as duas fases do

compósito, sua segmentação não é possível. Assim, não há etapa de segmentação e as

medidas são feitas sobre objetos arbitrários desenhados, no caso, quadrados de igual

tamanho, que são aplicados como máscaras sobre as imagens do material. O material é

caracterizado, a partir das regiões marcadas por cada um dos quadrados, através de

características da textura das imagens, utilizando-se os parâmetros de Haralick.

Assim, esta dissertação está organizada em seis capítulos. O primeiro capítulo

consiste desta introdução. O segundo capítulo (“Processamento e Análise Digital de

Imagens”) pretende-se tornar o embrião de uma futura apostila de PADI, e, neste sentido,

tenta ser abrangente, abordando inclusive, mesmo que de maneira mais sucinta, técnicas

não diretamente relacionadas aos casos aqui estudados. Os três capítulos seguintes tratam,

cada um, de um dos casos de caracterização. Por fim, no sexto capítulo, apresenta-se uma

conclusão geral.

3
2 Processamento e Análise Digital de Imagens
O Processamento Digital de Imagens (PDI) é uma técnica que se utiliza de

operações matemáticas para alterar os valores dos pixels de uma imagem digital,

modificando-a, para:

(i) facilitar sua visualização; ou para

(ii) preparar a imagem para ser analisada pelo próprio computador (Análise

Digital de Imagens).

A Análise Digital de Imagens (ADI) consiste na extração e tratamento de dados

quantitativos de imagens digitais. Através de ADI pode-se realizar medições mais rápidas,

precisas e acuradas, possibilitando ainda a realização de medidas impossíveis de se

executar manualmente.

Comumente, o termo Processamento Digital de Imagens é usado referindo-se

globalmente a ambas as técnicas, PDI e ADI. Isto é, de certo modo, justificável, já que

geralmente as técnicas se intercalam, podendo a etapa seguinte do processamento ser

determinada por uma etapa de análise. Neste trabalho, utiliza-se o termo Processamento e

Análise Digital de Imagens (PADI) para englobar as duas técnicas.

Os sistemas de Processamento e Análise Digital de Imagens, ou, simplesmente,

analisadores de imagem, são basicamente programas de computador que executam, em

imagens digitais, rotinas de procedimentos baseados em operações matemáticas. Tais

rotinas podem ser compiladas em linguagem de programação comum, de modo a gerar

programas específicos independentes, ou implementadas em programas de PADI ou

programas mais genéricos de cálculos matemáticos. Alternativamente, pode-se utilizar uma

solução combinada, com programas genéricos e de PADI e rotinas compiladas.

4
A fim de estruturar o estudo dessas rotinas, os procedimentos de PADI são

discriminados em etapas, de acordo com seu objetivo imediato, formando uma seqüência

padrão (Paciornik, 2001). A Figura 1 mostra a seqüência padrão de PADI.

Formação da imagem

Digitalização da imagem

Pixels Pré-Processamento

Segmentação Qualitativo

Regiões Pós-Processamento

Extração de Atributos
Dados Quantitativo
Reconhecimento de padrões e
Classificação

Figura 1. Seqüência padrão de PADI.

O fluxograma das etapas da seqüência padrão é dividido em três blocos básicos,

Aquisição, PDI e ADI. O bloco Aquisição tem, como entrada, uma amostra adequadamente

preparada e engloba a formação da imagem e sua digitalização, fornecendo, como saída,

um arquivo digital de imagem. A partir daí, o processo torna-se inteiramente digital. O

bloco PDI (pré-processamento, segmentação e pós-processamento) recebe a imagem

original, saída do bloco Aquisição, e fornece uma imagem processada. O bloco ADI

(extração de atributos e reconhecimento de padrões e classificação) recebe a imagem

processada e fornece dados numéricos, constituindo-se na fase quantitativa do processo.

Ao lado do fluxograma, apresentam-se setas que indicam o nível dos dados sobre

os quais se trabalha. No pré-processamento e na segmentação, opera-se diretamente sobre

5
os pixels da imagem, gerando-se uma imagem com objetos, representados por regiões de

pixels contíguos de mesmo valor. No pós-processamento e na extração de atributos,

trabalha-se sobre os objetos, acabando por medi-los. A partir daí, na etapa de

reconhecimento de padrões e classificação, trabalha-se com estas medidas, gerando-se

dados de mais alto nível.

Na Figura 2, isto pode ser observado através de um exemplo típico de problema de

PADI. Uma imagem de ferro fundido (Figura 2-a), gerada por microscopia óptica, é

segmentada e processada, obtendo-se uma imagem formada por objetos (Figura 2-b), que

representam as partículas de grafita. Então, são feitas medições nestas partículas, obtendo-

se dados quantitativos (Figura 2-c), que são então analisados (Figura 2-d).

6
(a) (b)
No. de partículas: 89

Partícula Área (pixel2)


1 13
2 337
3 214
4 218
5 13
6 938
7 572
8 18
-------------------
87 15
88 35
89 465
(c) (d)

Figura 2. Um exemplo de problema de PADI: (a) imagem original; (b) imagem das
partículas de grafita (regiões); (c) área de cada partícula; e (d) distribuição das áreas.

A seqüência padrão é uma generalização. Obviamente, ela não é imutável e seu

grau de flexibilização denota a complexidade do problema envolvido. Qualquer etapa pode

ser pulada e, na etapa de reconhecimento de padrões e classificação, uma análise pode fazer

o fluxograma retroceder a qualquer outra etapa, até mesmo à etapa de formação da imagem,

retro-alimentando o processo de modo a aprimorá-lo. De fato, esta retro-alimentação

geralmente ocorre em rotinas automáticas de PADI, onde, partindo-se da Aquisição ou do

arquivo digital de imagem, chega-se aos dados quantitativos, não havendo interferência

humana no decorrer do processo.

7
2.1 Aquisição da imagem

O objetivo do bloco de Aquisição é a obtenção de uma imagem digital. Uma

imagem digital é um arquivo de computador composto basicamente por um cabeçalho, com

informações diversas, e uma matriz de números, onde cada um deles identifica a cor ou

intensidade do pixel de posição correspondente na imagem. Assim, esta matriz constitui-se

num mapa que reproduz a imagem pixel a pixel (Figura 3).

pixel

245,230,185 216,182,138
231,216,184 214,186,151

Figura 3. Imagem digital.

A partir de uma amostra adequadamente preparada, um instrumento formador de

imagem gera uma imagem da amostra, que então é capturada por um instrumento de

captura de imagem. A imagem pode ser capturada diretamente de forma digital (arquivo de

computador) ou de forma analógica (fotografia, vídeo, etc.), necessitando, neste caso,

passar por um processo de digitalização.

Os instrumentos formadores de imagem podem ser os mais variados. No campo da

Ciência de Materiais, os mais utilizados são os microscópios ópticos e eletrônicos (MEV,

MET, etc.). Da mesma forma, os instrumentos de captura de imagem associados a eles são

diversos. Os mais comuns ainda são instrumentos analógicos, como câmeras fotográficas e

câmeras de vídeo, acoplados a digitalizadores de imagens, notadamente scanners e frame

grabbers, que são dispositivos para digitalização de fotografia e vídeo, respectivamente.

8
Atualmente, as câmeras de vídeo vem sendo substituídas por câmeras digitais, que

apresentam resolução bem superior. No entanto, quando se trata de alta resolução, estas

ainda não conseguem superar as câmeras fotográficas, pois apesar de atingirem resolução

semelhante, apresentam preços bem mais elevados. Câmeras de vídeo geralmente

apresentam resolução de 640 x 480 pixels, já, com câmeras fotográficas e recentemente

com digitais, pode-se atingir resoluções de alguns milhares de pixels. Por exemplo, a

câmera digital Zeiss Axiocam HR tem resolução de 3900 x 3090 pixels (Carl Zeiss, 2001).

2.2 Imagem digital

Antes de se iniciar a discussão das técnicas de Processamento e Análise Digital de

Imagem, faz-se necessária uma breve introdução de alguns conceitos sobre a imagem

digital.

2.2.1 Resolução e Profundidade

O pixel, abreviação de picture element, é a unidade básica da imagem digital. A

resolução espacial ou simplesmente resolução consiste no tamanho, na imagem real, que

um pixel da imagem digital representa, ou seja, a resolução é a capacidade máxima de

discriminação de dois pontos na imagem.

A profundidade, quantização ou resolução espectral de uma imagem digital

consiste no número máximo de níveis de intensidade que esta imagem pode apresentar. A

Figura 4 mostra pictoricamente, por comparação, os conceitos de resolução e profundidade.

A Figura 4, aqui adaptada de (Paciornik, 2001), apresenta quatro imagens digitais,

com diferentes resoluções e profundidades, obtidas a partir da fotografia da Lena,

tradicionalmente utilizada em livros de PADI. Pode-se observar a variação de resolução

entre as imagens da direita e da esquerda, as da direita têm maior resolução (512 x 512

pixels) do que as da esquerda (128 x 128 pixels). Da mesma forma, a profundidade varia

9
entra as imagens de cima e as de baixo, as imagens de baixo apresentam maior

profundidade (256 tons de cinza) do que as de cima (4 tons de cinza).

128 x 128 pixels 512 x 512 pixels


4 tons de cinza 4 tons de cinza

128 x 128 pixels 512 x 512 pixels


256 tons de cinza 256 tons de cinza

Figura 4. Resolução e profundidade.

Em Ciência de Materiais, geralmente, as imagens são de 8 bits, 256 tons de cinza,

pois esta é a profundidade que predomina em imagens de microscopia eletrônica, também

sendo muito comum em microscopia óptica. Assim, este trabalho trata somente de casos

onde as imagens adquiridas tem esta profundidade.

No entanto, as técnicas de PADI aqui descritas podem ser generalizadas, também

sendo passíveis de utilização em imagens com outros níveis de profundidade, como, por

exemplo, em imagens de 14 bits e em imagens coloridas. Em Ciência de Materiais, as

imagens de 14 bits, ou seja, com 214 tons de cinza, são utilizadas em imagens de figuras de

difração obtidas em MET. Já as imagens coloridas são geralmente oriundas de microscopia

10
óptica e são usadas quando as cores são necessárias para se distinguir as feições de

interesse.

As imagens coloridas geralmente utilizadas são imagens de 24 bits, formadas pela

adição de 3 cores primárias com 256 níveis de intensidade (8 bits) para cada uma. Assim,

uma imagem colorida deste tipo constitui-se numa composição de três imagens com 8 bits

cada, que podem ser tratadas separadamente, com as técnicas de PADI descritas neste

trabalho, como três imagens de 256 tons de cinza.

2.2.2 Brilho e Contraste

O brilho e o contraste são características da imagem que podem ser intuitivamente

percebidas. Uma imagem formada predominantemente por pixels com tons de cinza baixos,

próximos a 0 (preto), é percebida como uma imagem escura, ou seja, com baixo brilho. Já

uma imagem que contém predominantemente pixels com tons de cinza próximos a 255

(branco) é considerada uma imagem clara, com alto brilho. Da mesma forma, uma imagem

que apresenta pixels com uma pequena variação de tons de cinza é percebida como uma

imagem com baixo contraste e vice-versa.

Como uma imagem digital é uma representação matemática de uma imagem real,

estas características intuitivamente percebidas podem ser matematicamente descritas como

mostrado a seguir.

O brilho de uma imagem digital pode ser definido como a média dos tons de cinza

de todos os pixels da imagem. Dada uma imagem f(x,y) de dimensão X x Y, seu brilho é

definido como:

1 Y −1 X −1
B= ∑∑ f ( x, y ) .
n y =0 x =0
(1)

onde n é o número total de pixels da imagem f(x,y), calculado como n = X ⋅ Y , a partir de

suas dimensões X e Y.

11
O contraste de uma imagem digital pode ser definido como o desvio padrão dos

tons de cinza de todos os pixels da imagem (Weeks, Jr., 1996). Dada uma imagem f(x,y) de

dimensão X x Y, seu contraste é definido como:

1 Y −1 X −1
C= ∑∑ [ f ( x, y) − B ]2 (2)
n y =0 x=0

onde B é o brilho da imagem f(x,y), calculado de acordo com a Equação (1); e n é o número

total de pixels ( n = X ⋅ Y ).

2.2.3 Histograma

O histograma de uma imagem digital constitui-se na representação gráfica da

função distribuição dos tons de cinza de seus pixels. Dada uma imagem f(x,y) de dimensão

X x Y, seu histograma é definido pela função:

nr
p( r ) = (3)
n

onde r representa os tons de cinza, e pode variar de 0 a 255; nr é o número de pixels com o

tom de cinza r; e n é o número total de pixels da imagem f(x,y).

O histograma é um gráfico que tem como eixo horizontal a escala de tons de cinza

e cujo eixo vertical representa as probabilidades de ocorrência dos tons de cinza na

imagem. De fato, o histograma fornece uma descrição global da aparência da imagem, mas

nada diz sobre seu conteúdo.

A partir da definição de histograma, pode-se reescrever as Equações (1) e (2) que

definem, respectivamente, as propriedades de brilho (B) e contraste (C). Assim,

255
B = ∑ r ⋅ p (r ) ; (4)
r =0

255
C= ∑ [r − B]
r =0
2
⋅ p( r ) . (5)

12
A Figura 5 mostra três imagens ao lado de seus respectivos histogramas. Trata-se

obviamente da mesma imagem, uma imagem de uma areia, obtida em microscópio óptico,

apresentada aqui com diferentes níveis de brilho e contraste para fins de comparação.

As imagens mostradas na Figura 5-a e na Figura 5-b têm o mesmo nível de

contraste e diferentes níveis de brilho. Como pode ser visto nestas Figuras, ambos os

histogramas têm a mesma forma e largura, mas o da Figura 5-b está deslocado para a direita

em relação ao da Figura 5-a, ou seja, apresenta maior média, o que implica o maior brilho

da imagem da Figura 5-b.

Já as imagens da Figura 5-b e Figura 5-c têm o mesmo nível de brilho e diferentes

níveis de contraste. Como pode-se observar, os histogramas têm forma semelhante e

mesma média, porém o histograma da Figura 5-c é mais estreito, denotando o menor

contraste desta imagem.

13
(a)

B= 80
C = 31,1

(b)

B = 130
C = 31,1

(c)

B = 130
C = 13,8

Figura 5. Brilho e contraste.

Embora o histograma forneça uma descrição global da imagem que nada diz sobre

seu conteúdo, sua forma constitui-se em informação crucial para o processamento digital da

imagem (Gonzalez & Woods, 1992).

2.3 Pré-processamento

O pré-processamento é a etapa que visa melhorar a imagem, corrigindo defeitos

gerados durante sua aquisição e/ou realçando detalhes de interesse específico.

14
Tão variados, quanto os métodos de aquisição de imagem digital e os defeitos

deles decorrentes, são os procedimentos empregados para corrigi-los. Da mesma forma,

muitos podem ser os tipos de detalhes que se deseje realçar. Assim, existem diversos

procedimentos característicos da etapa de pré-processamento, cada qual específico para

uma situação. Alguns procedimentos rotineiramente utilizados são: manipulação do brilho;

expansão do contraste; correção de iluminação irregular; redução de ruído; e realce de

bordas.

Os procedimentos da etapa de pré-processamento podem ser divididos em duas

grandes categorias, procedimentos realizados no domínio do espaço real e procedimentos

realizados no domínio das freqüências. O domínio do espaço real refere-se a imagem

propriamente dita e os procedimentos nele realizados são baseados na direta manipulação

dos pixels da imagem. Já os procedimentos no domínio das freqüências são feitos através

da modificação da imagem da transformada de Fourier da imagem original, seguida da

obtenção de sua transformada inversa (Gonzalez & Woods, 1992). Por não necessitarem do

cálculo da transformada de Fourier, nem de sua inversa, os procedimentos realizados no

domínio do espaço real são, geralmente, menos custosos computacionalmente, tendo assim

a preferência.

Neste trabalho, são considerados apenas os procedimentos de pré-processamento

no domínio do espaço real.

Os procedimentos de pré-processamento no domínio do espaço real são realizados

através de operações matemáticas que operam diretamente sobre pixels das imagens. Tais

operações podem ser divididas em quatro tipos principais:

(i) operações pontuais;

(ii) operações entre imagens;

(iii) operações locais; e

15
(iv) operações geométricas.

2.3.1 Operações Pontuais

Operações pontuais são operações onde para cada tom de cinza na imagem de

entrada é retornado um único tom de cinza na imagem de saída. As operações pontuais

podem ser definidas de acordo com a seguinte expressão:

g ( x, y ) = M [ f ( x, y )] (6)

onde f(x,y) é a imagem de entrada, g(x,y) é a imagem de saída, (x,y) são as coordenadas dos

pixels nas imagens e M é a função transformação que designa a operação.

Dada uma imagem de entrada f(x,y), a função transformação M mapeia um tom de

cinza s na imagem de saída g(x,y) para cada tom de cinza r na imagem de entrada f(x,y).

Assim, a função transformação M é chamada função de mapeamento, fazendo com que as

operações pontuais sejam conhecidas também como operações de mapeamento.

Cada pixel com tom de cinza r na imagem de entrada f(x,y) recebe o tom de cinza s

na imagem de saída g(x,y), de modo que as operações pontuais podem ser expressas, de

forma mais simples, como:

s = M (r ) (7)

onde M é a função de mapeamento e r e s representam, respectivamente, os tons de cinza na

imagem de entrada f(x,y) e na imagem de saída g(x,y).

A função de mapeamento de uma operação pontual pode ser linear ou não-linear.

Uma função de mapeamento linear modifica o brilho e o contraste de uma imagem, não

alterando muito a forma de seu histograma. Uma manipulação de brilho deste tipo provoca

um deslocamento lateral do histograma e uma manipulação de contraste modifica sua

largura. Já as funções de mapeamento não-lineares alteram mais acentuadamente a forma

16
do histograma da imagem, modificando prioritariamente alguma região do histograma ou

visando dar a ele uma forma determinada.

2.3.1.1 Mapeamento linear

Pode-se generalizar uma função de mapeamento linear como a expressão de uma

reta:

s = a⋅r +l (8)

onde a é o coeficiente angular e l é o coeficiente linear. O coeficiente linear l afeta somente

o brilho da imagem, um valor positivo faz o brilho aumentar, um valor negativo o reduz. O

coeficiente angular a afeta, conjuntamente, o brilho e o contraste da imagem. Um

coeficiente angular com valor maior do que 1, resulta num aumento tanto do brilho quanto

do contraste, do contrário, caso seu valor seja menor do que 1, ambos, brilho e contraste,

diminuem.

Um exemplo de operação com função de mapeamento linear é a operação de

negativo, que mapeia os tons de cinza claros na imagem de entrada como escuros na

imagem de saída e vice-versa, fornecendo, como imagem de saída, um negativo da imagem

de entrada. Para isto, esta função tem, como coeficientes angular e linear, respectivamente,

os valores -1 e 255, conforme a expressão:

s = 255 − r . (9)

A Figura 6 mostra a função de mapeamento (Figura 6-a) da operação de negativo

que, ao agir sobre uma imagem de ferro fundido (Figura 6-b), obtida por microscopia

óptica, gera uma imagem negativo (Figura 6-c) da original. Na Figura 6-d e na Figura 6-e,

podem ser vistos os histogramas destas duas imagens.

17
(a)

(b) (c)

(d) (e)

Figura 6. Operação de negativo: (a) função de mapeamento; (b) imagem original; (c)
imagem negativo; (d) histograma da imagem original; e (e) histograma do negativo.

Uma forma mais específica de função de mapeamento linear ocorre na operação de

Normalização, também chamada Autoscaling (Weeks, Jr., 1996). Esta operação pontual é

composta por uma função que mapeia a faixa de tons de cinza da imagem de entrada para

uma faixa desejada na imagem de saída. Assim, nesta operação, os coeficientes angular e

linear da função de mapeamento não são escolhidos diretamente, mas calculados a partir

dessas duas faixas de tons de cinza. Desta forma, a função de mapeamento de uma

operação de Normalização é definida como:

18
g max − g min (10)
s= (r − f min ) + g min
f max − f min

onde fmin e fmax são, respectivamente, o tom de cinza mínimo e máximo na imagem de

entrada f(x,y); gmin e gmax designam a faixa de tons de cinza desejada para a imagem de

saída g(x,y), sendo portanto, respectivamente, seu tom de cinza mínimo e máximo.

Como pode ser visto na Equação (10), o coeficiente angular a de uma função de

Normalização, aqui chamado fator de escala, é calculado como:

g max − g min (11)


a= .
f max − f min

Caso o fator de escala, calculado pela Equação (11) para uma determinada operação de

Normalização em uma determinada imagem, seja menor do que 1, trata-se de uma operação

de redução do contraste, caso contrário, é uma operação de expansão do contraste.

A Figura 7 mostra um exemplo de operação de Normalização para expansão do

contraste. Uma imagem de uma areia (Figura 7-a), obtida em microscópio óptico, contendo

tons de cinza compreendidos entre 55 e 225 conforme seu histograma, é mapeada para uma

imagem (Figura 7-c) com tons de cinza em toda escala de 0 a 255, como pode ser visto em

seu histograma. A função de mapeamento desta operação de Normalização é mostrada na

Figura 7-b.

19
(a)

(b)

(c)

Figura 7. Exemplo de operação de Normalização para expansão do contraste.

Nas funções de mapeamento linear, o coeficiente angular afeta, conjuntamente, o

brilho e o contraste da imagem, enquanto que o coeficiente linear afeta somente seu brilho.

Assim, o contraste é função do coeficiente angular e o brilho função dos coeficientes

angular e linear:

C ′ = C ′(a) ; (12)

20
B′ = B′(a, l ) ; (13)

onde C' é o contraste da imagem de saída; B' é o brilho da imagem de saída; e a e l são,

respectivamente, os coeficientes angular e linear da função de mapeamento.

Visando separar a manipulação do brilho e do contraste em duas variáveis

diferentes, a Equação (8) é rescrita de acordo com a seguinte expressão (Weeks, Jr., 1996):

s = a ⋅ ( r − B ) + (b + B ) (14)

onde B é o brilho da imagem de entrada; e a é o coeficiente angular; e b a variável de

manipulação do brilho. Assim, tem-se que:

C ′ = C ′(a) ; (15)

B′ = B′(b) . (16)

Estas equações que definem funções de mapeamento são válidas somente para s no

domínio de r, ou seja, [0; 255]. Quando a função de mapeamento calcula s fora deste

domínio, s precisa ser ajustado. Existem diferentes modos de se fazer este ajuste e, ao se

utilizar este tipo de função, deve-se ter o cuidado de observar de que modo o ajuste está

implementado. O modo de ajuste mais comum consiste em saturar a imagem de saída nos

tons de cinza extremos da escala, igualando s a 0, caso ele seja calculado menor do que 0, e

igualando-o a 255, caso seja calculado maior do que 255, ou seja,

s ≤0⇒ s =0 ; (17)

s ≥ 255 ⇒ s = 255 . (18)

A princípio, as variáveis a e b da Equação (14) deveriam afetar de forma

independente as propriedades de contraste e brilho, respectivamente. No entanto, devido ao

ajuste para conter s no domínio [0; 255], isto nem sempre acontece. Caso a função de

mapeamento calcule algum s fora deste domínio, o ajuste fará com que as propriedades de

brilho e contraste não possam ser tratadas de maneira independente uma da outra.

21
Para se manipular brilho e contraste separadamente, deve-se garantir que s seja

sempre calculado dentro do domínio [0; 255], para isso, acresce-se algumas condições à

Equação (14), de modo que, repetindo-a, tem-se:

s = a ⋅ (r − B) + (b + B) ; (19)

− f min ≤ b ≤ (255 − f max ) ; (20)

B+b B+b B + b − 255 B + b − 255 (21)


≤a≤ ∧ ≤a≤ .
B − f max B − f min B − f min B − f max

Uma outra maneira de se manipular brilho e contraste separadamente é se utilizar

um analisador de imagem que opere também com imagens de maior profundidade. Deste

modo, ao invés de uma única operação, poder-se-ia empregar um conjunto de operações

com função de mapeamento linear, onde apenas a última teria o compromisso de fornecer

uma imagem de saída com s no domínio [0; 255].

De qualquer forma, deve-se sempre lembrar que a escala de tons de cinza nas

imagens de 8 bits é composta por valores inteiros no domínio [0; 255]. Assim, caso o

coeficiente angular da função de mapeamento não seja um número inteiro, alguns valores s

irão sofrer arredondamento. Deste modo, quando se manipula o contraste, pode ocorrer

uma pequena distorção no brilho da imagem de saída.

Às vezes, é interessante manipular o brilho de uma imagem de forma a igualá-lo a

um valor determinado, sem se importar com seu contraste. A princípio, esta seria uma

operação simples, realizada através de uma função de mapeamento com a forma da

Equação (19), onde o coeficiente angular a seria unitário e a variável b seria calculada

como a diferença entre o valor de brilho B' desejado para a imagem de saída e o brilho B da

imagem de entrada. Deste modo, esta operação seria definida como:

s = a ⋅ (r − B) + (b + B) ; (22)

a =1 ; (23)

22
b = B' − B . (24)

Entretanto, para que não haja saturação, a variável b tem que estar dentro de um

certo domínio, definido pela Equação (20), não sendo possível igualar o brilho de uma

imagem a um valor determinado, caso a variável b, calculada para isso, esteja fora deste

domínio. Então, pode-se pensar nesta operação como se fosse feita em duas etapas.

Primeiro, faz-se uma redução do contraste suficiente para estender o domínio da variável b

para que seu valor calculado pela Equação (24) seja válido. Aí, modifica-se o brilho até o

valor desejado através de uma operação simples de manipulação de brilho, como mostrado

na Equação (22). Substituindo-se b, de acordo com a Equação (24), esta operação como um

todo pode ser expressa como:

s = a ⋅ (r − B) + B ' ; (25)

( f min + B '− B ) ≥ 0 ∧ ( f max + B '− B ) ≤ 255 ⇒ a = 1 ; (26)

B' (27)
( f min + B'− B) < 0 ⇒ a = ;
B − f min

255 − B' (28)


( f max + B'− B) > 255 ⇒ a = .
f max − B

No entanto, de acordo com as Equações (27) e (28), o coeficiente angular da

função de mapeamento desta operação pode apresentar valores não inteiros. Assim, como

explicado anteriormente, isto pode gerar uma pequena distorção no brilho da imagem de

saída, não se atingindo o valor desejado. Na prática, isto é resolvido dando-se uma

tolerância de alguns tons de cinza, de forma a igualar o brilho da imagem de saída a um

valor bem próximo do desejado.

Esta operação de igualar o brilho de uma imagem a um valor determinado é

utilizada quando se deseja processar várias imagens com uma mesma rotina ou quando se

quer comparar diversas imagens.

23
2.3.1.2 Mapeamento não-linear

As operações pontuais com função de mapeamento não-linear alteram a forma do

histograma da imagem, visando dar a ele uma forma determinada ou modificando

prioritariamente alguma região específica na escala de tons de cinza. Existem diversos tipos

de funções de mapeamento não-lineares, as mais comumente utilizadas são as funções

logarítmica e exponencial (Weeks, Jr., 1996).

A aplicação de uma operação pontual com função de mapeamento logarítmica

aumenta o contraste das regiões escuras da imagem e reduz o contraste das regiões claras,

aumentando o brilho da imagem como um todo. Uma função de mapeamento exponencial

provoca o efeito inverso, reduz o brilho da imagem como um todo, aumenta o contraste das

regiões claras e reduz o contraste das regiões escuras. Isto pode ser percebido observando-

se a Figura 8.

(a) (b)
255 255

0 0
0 255 0 255

Figura 8. Funções de mapeamento logarítmica (a) e exponencial (b).

Pode-se definir, para imagens de 256 tons de cinza, uma função de mapeamento

logarítmica e uma exponencial, respectivamente, como:

s = ML(r ) = 45,98 ⋅ ln( r + 1) (29)

r (30)
s = ME (r ) = e 45 , 98
−1

24
onde r e s representam respectivamente os tons de cinza na imagem de entrada e na

imagem de saída; ML é a função de mapeamento logarítmica e ME é a função de

mapeamento exponencial. O fator de 45,98 foi calculado para que não haja saturação e para

que toda a escala de tons de cinza seja usada.

Neste caso, as funções foram definidas na base e, mas obviamente, desde que não

haja saturação e que toda a escala de tons de cinza seja abrangida, qualquer base pode ser

utilizada e sua escolha será determinada pelo problema em questão.

Outro tipo também comum de função de mapeamento não-linear são as funções de

mapeamento lineares por partes. Tais funções são não-lineares como um todo, mas são

formadas por partes que são funções lineares. A Figura 9 mostra um exemplo de função de

mapeamento linear por partes.

255

0
0 255

Figura 9. Exemplo de função de mapeamento linear por partes.

As funções de mapeamento não-lineares e seus objetivos podem ser os mais

variados. No limite, tratando-se de uma escala discreta de tons de cinza, pode-se especificar

um tom de cinza para mapear cada tom de cinza na escala, fazendo-se uma verdadeira

tabela de mapeamento, semelhante a uma look-up table (LUT).

25
2.3.1.3 Operações sobre o histograma

As operações pontuais sobre o histograma são um caso particular de mapeamento

não-linear, pois a função de mapeamento neste caso é calculada a partir do próprio

histograma da imagem de entrada e, às vezes, também de um histograma que se deseja

obter para a imagem de saída. Existem basicamente duas operações deste tipo, a

equalização de histograma e a especificação de histograma.

A equalização de histograma, também chamada linearização de histograma,

modifica os tons de cinza dos pixels na imagem, visando tornar o histograma

uniformemente distribuído, com a forma de uma linha horizontal, de modo que o número

de pixels de qualquer tom de cinza seja o mesmo. A especificação de histograma altera a

imagem, buscando dar ao seu histograma uma forma determinada, a partir de um

histograma especificado, cuja forma é a que se deseja para o histograma da imagem de

saída.

Por gerar imagens com histogramas uniformes ou com uma forma determinada,

estas operações são utilizadas principalmente quando se deseja processar automaticamente

várias imagens com a mesma rotina ou quando se quer comparar diversas imagens. A

vantagem da equalização de histograma, quando comparada ao ajuste para igualar o brilho,

visto na seção 2.3.1.1 (“Mapeamento linear”), é que a equalização de histograma é uma

operação totalmente automática, não havendo a necessidade de se estipular um nível de

brilho. Já a especificação de histograma é empregada quando a equalização de histograma e

o ajuste para igualar o brilho não conseguem atingir um resultado satisfatório.

A operação de equalização de histograma é baseada na utilização da função de

distribuição acumulada do histograma como função de mapeamento. A função de

distribuição acumulada calcula, para cada tom de cinza r na imagem de entrada, um tom de

cinza s na imagem de saída, de modo que:

26
r r
ni
s = M (r ) = ∑ = ∑ p(i ) (31)
i =0 n i =0

onde r e s representam respectivamente os tons de cinza na imagem de entrada e na

imagem de saída; ni é o número de pixels com o tom de cinza i na imagem de entrada; n é o

número total de pixels da imagem de entrada; e p(i) é a função de distribuição de

probabilidades de tons de cinza i que define o histograma da imagem de entrada.

Na Figura 10, apresenta-se um exemplo de operação de equalização de

histograma.

(a)

(b)

Figura 10. Equalização do histograma: (a) imagem original com seu histograma; e (b)
imagem com seu histograma equalizado.

Ao observar a Figura 10, nota-se que esta operação de equalização de histograma

não produziu uma imagem com histograma uniforme. De fato, isto é o que geralmente

acontece. Devido à escala de tons de cinza nas imagens de 8 bits ser discreta, composta por

valores inteiros no domínio [0; 255], podem ocorrer arredondamentos no mapeamento,

fazendo com que o histograma da imagem resultante não seja uniforme. Todavia, o

27
histograma da imagem resultante da equalização tende a apresentar melhor distribuição do

que o histograma da imagem original, como na Figura 10.

A operação de especificação de histograma está um estágio adiante da operação de

equalização de histograma. Pois, enquanto esta última só é capaz de gerar imagens cujo

histograma é uma aproximação do histograma uniforme, a especificação de histograma é

capaz de aproximar o histograma da imagem de saída a uma forma especificada

previamente.

Teoricamente, considerando imagens com uma escala contínua de tons de cinza, a

especificação de histograma consiste em 4 passos:

(i) o cálculo da função de mapeamento (M) da equalização do histograma da

imagem de entrada:

r
s = M (r ) = ∫ pr (i)di (32)
0

onde r e s representam respectivamente os tons de cinza na imagem de entrada

e na imagem resultante da equalização do histograma; e pr(i) é a função de

distribuição de probabilidades dos tons de cinza i que define o histograma da

imagem de entrada;

(ii) o cálculo da função de mapeamento (N) da equalização do histograma

especificado:

t
u = N (t ) = ∫ pt (i)di (33)
0

onde t e u representam respectivamente os tons de cinza na imagem hipotética

do histograma especificado e na imagem hipotética resultante da equalização

do histograma especificado; e pt(i) é a função de distribuição de

probabilidades dos tons de cinza i que define o histograma especificado;

(iii) o cálculo da função de mapeamento inversa (N-1) do histograma especificado:

28
t = N −1 (u ) ; (34)

(iv) e a substituição da Equação (32) na Equação (34), já que, considerando uma

escala contínua de tons de cinza, dois histogramas equalizados são iguais

( u = s ), assim:

t = N −1 [M (r )] . (35)

Resumindo, de acordo com a Equação (35), basta determinar a função de

mapeamento M e a função de mapeamento inversa N-1 para se proceder a especificação de

histograma. O problema deste método para escalas contínuas de tons de cinza reside em se

obter analiticamente a função inversa N-1 (Gonzalez & Woods, 1992).

Na prática, trabalhando-se com imagens com uma escala discreta de tons de cinza,

faz-se estes cálculos para cada valor da escala. Assim, a especificação de histograma

consiste em quatro passos:

(i) o cálculo dos valores dos tons de cinza s a partir da equalização do histograma

da imagem de entrada;

(ii) o cálculo dos valores dos tons de cinza u a partir da equalização do histograma

especificado;

(iii) a busca do valor de tom de cinza u que mais se aproxima de cada valor de tom

de cinza s;

(iv) o mapeamento dos tons de cinza r, da imagem de entrada, para os tons de

cinza t, da imagem final resultante, a partir dos os tons de cinza u que se

aproximam dos os tons de cinza s.

A operação de especificação de histograma não chega a gerar uma imagem com o

histograma igual ao especificado. Isto ocorre devido às aproximações advindas do fato da

escala de tons de cinza ser discreta, como discutido anteriormente para a operação de

equalização de histograma.

29
2.3.2 Operações entre imagens

Existem também operações pontuais que envolvem duas ou mais imagens de

entrada, são as chamadas operações pontuais entre imagens ou, simplesmente, operações

entre imagens. Um operador matemático varre as imagens de entrada, sendo aplicado pixel

a pixel, relacionando os pixels correspondentes em cada uma das imagens de entrada, como

ilustrado na Figura 11.

Figura 11. Operações entre imagens.

Este operador pode ser aritmético (soma, subtração, multiplicação e divisão) ou

comparativo (máximo e mínimo), de modo que, as operações deles derivadas também são

conhecidas, respectivamente, como operações aritméticas e operações comparativas. No

caso de imagens binárias, imagens que contém somente dois tons, preto (0) e branco (1),

ainda existem as operações lógicas, que serão abordadas detalhadamente mais adiante, na

seção 2.5 (“Pós-processamento”).

Assim, as operações entre imagens podem ser definidas como:

g ( x, y ) = T [ f 1 ( x, y ), f 2 ( x, y ),..., f n ( x, y )] (36)

onde f1(x,y), f2(x,y), ..., fn(x,y) são as n imagens de entrada; g(x,y) é a imagem de saída e T é

um operador aritmético, comparativo ou lógico.

30
Nas operações aritméticas ainda possível operar com um escalar, um parâmetro

multiplicativo (fator de ganho) ou aditivo (off-set), que é aplicado pixel a pixel na imagem

resultante da operação entre as imagens de entrada, assim, as operações aritméticas são

definidas, de forma mais genérica, como:

g ( x, y ) = OS + G ⋅ {T [ f 1 ( x, y ), f 2 ( x, y ),..., f n ( x, y )]} (37)

onde OS é o off-set; e G é o fator de ganho.

Apesar da simplicidade, deve-se ter cuidado na utilização de operações

aritméticas, pois, ao se fazer uma operação deste tipo, é comum se obter, para a imagem de

saída, pixels com valores de tons de cinza fora da escala (0 a 255), ou seja, valores

negativos ou maiores de que 255. Para resolver isso, os analisadores de imagem geralmente

oferecem pelo menos duas opções, que são:

(i) normalizar a faixa de valores obtidos para a escala original (0 a 255); ou

(ii) saturar nos tons de cinza limites da escala (clipping), ou seja, qualquer valor

calculado abaixo do limite inferior da escala (0) é igualado a 0, e qualquer

valor maior que o limite superior (255) é igualado a 255.

2.3.3 Operações Locais

Operações locais, também conhecidas como operações de vizinhança ou filtros

espaciais, são operações onde o tom de cinza de um determinado pixel na imagem de saída

é função não apenas de seu tom de cinza na imagem de entrada, mas também dos tons de

cinza de seus pixels vizinhos nesta imagem, como ilustrado na Figura 12.

Figura 12. Operações locais.

31
Este tipo de operação é geralmente realizada através do cálculo de uma média

ponderada dos pixels da vizinhança. Cada vizinho tem um peso associado, definido pelos

elementos de uma matriz denominada kernel, que, através de seu tamanho, também define

a vizinhança. O kernel varre a imagem de entrada, atribuindo, na imagem de saída, o valor

da média ponderada a cada pixel de posição correspondente à do pixel central do kernel

sobre a imagem de entrada. Trata-se de uma operação de convolução entre a imagem de

entrada e o kernel, definida como:

m m
g ( x, y ) = ∑ ∑ f ( x + i, y + j ) ⋅ k ( i, j ) ;
i =− m j =− m
(38)

0 ≤ x ± m ≤ X −1 ; (39)

0 ≤ y ± m ≤ Y −1 ; (40)

K −1
m= ; (41)
2

K = (2 ⋅ a + 1) | a ∈ℵ* ; (42)

onde f (x,y) é a imagem de entrada, de dimensão X x Y; g(x,y) é a imagem de saída, de

mesma dimensão; e k(i,j) é o kernel, de dimensão K x K.

Pelas Equações (39) e (40), nota-se que o kernel não pode operar sobre os pixels

das extremidades da imagem, suas m primeiras e últimas linhas e colunas. Apesar disto não

ser geralmente um grande problema, já que as informações relevantes costumam estar mais

centradas na imagem, deve-se ter cuidado em alguns casos, pois os analisadores de imagem

tratam isto de formas diferentes. Existem quatro opções principais de tratamento desta

questão:

(i) só considerar na imagem de saída os pixels filtrados, obtendo-se então uma

imagem de saída de menor tamanho, com dimensão ( X − 2 ⋅ m) x (Y − 2 ⋅ m) ,

sendo esta a única opção que não introduz erro;

32
(ii) replicar os pixels das extremidades para fora da imagem de entrada, gerando

uma imagem intermediária com dimensão ( X + 2 ⋅ m) x (Y + 2 ⋅ m) , na qual

então é aplicado o filtro kernel de acordo com a opção (i), gerando-se uma

imagem de saída com dimensão X x Y, como a imagem de entrada;

(iii) atribuir, na imagem de saída, o valor 0 aos pixels não filtrados; ou

(iv) repetir, na imagem de saída, os pixels não filtrados da imagem de entrada.

As operações locais são muito utilizadas em PADI, pois, a partir da escolha do

kernel adequado, diversos procedimentos podem ser implementados, tais como redução de

ruído, aguçamento de detalhes e detecção de bordas.

Um tipo de filtro empregado para redução de ruído são os filtros passa-baixa,

assim chamados por privilegiarem a passagem dos componentes de baixa freqüência

espacial, atenuando os de alta freqüência. E, como ruídos apresentam alta freqüência

espacial, estes filtros os retêm.

A Figura 13 mostra o kernel 3x3 do filtro passa-baixa média e do passa-baixa

gaussiano. Os escalares 1/9 e 1/16, multiplicando os kernels, são fatores de escala,

utilizados para que não seja calculado nenhum valor de tom de cinza maior do que 255,

para a imagem de saída. Estes fatores de escala são geralmente calculados como o inverso

da soma dos elementos positivos do kernel.

(a) média 3x3: (b) gaussiano 3x3:

1 1 1 1 2 1
1 1
× 1 1 1 × 2 4 2
9 16

1 1 1 1 2 1

Figura 13. Filtros passa-baixa 3x3: (a) média; (b) gaussiana.

Os filtros passa-baixa são definidos por kernels com elementos positivos. O filtro

média é assim chamado pois atribui ao pixel filtrado, na imagem de saída, a média dos

33
valores de tom de cinza dos pixels da vizinhança, na imagem de entrada. O filtro gaussiana

é um filtro média ponderada, seu kernel é circularmente simétrico e seus elementos variam

de acordo com uma função gaussiana. Devido ao maior peso no centro de seu kernel, ele

preserva mais a imagem, borrando-a menos do que o filtro média.

Um outro filtro utilizado para a redução de ruído é o filtro mediana, que é um tipo

diferente de filtro, onde o kernel só define o tamanho da vizinhança. Os pixels da

vizinhança são ordenados em ordem crescente de tom de cinza e o valor mediano, que está

no meio da seqüência, é atribuído ao pixel filtrado na imagem de saída. O filtro mediana

geralmente fornece um resultado melhor do que os filtros passa-baixa, pois borra menos a

imagem, preservando melhor as bordas e detalhes finos. Ele é especialmente indicado na

redução de ruído tipo “spike”, ruído localizado com intensidade muito diferente da

vizinhança (Gonzalez & Woods, 1992).

Além da redução de ruído, os filtros passa-baixa são empregados em outros

procedimentos, como, por exemplo, a correção de iluminação irregular, um procedimento

típico em imagens de microscopia óptica, que consiste na obtenção de uma imagem do

fundo e posterior subtração desta imagem, da original. A imagem do fundo é calculada

borrando-se a imagem original através da aplicação, repetidas vezes, de um filtro passa-

baixa de kernel bem largo, de tamanho maior do que os possíveis objetos na imagem.

Então, subtrai-se esta imagem calculada do fundo, da imagem original, obtendo-se a

imagem com a iluminação corrigida. A Figura 14 mostra um exemplo deste procedimento.

34
(a) (b) (c)

Figura 14. Correção de iluminação irregular: (a) imagem original; (b) fundo calculado; e (c)
imagem com iluminação corrigida.

É interessante salientar que a imagem do fundo também pode ser obtida

diretamente na etapa de aquisição e, neste caso, a correção de iluminação irregular

envolveria apenas a operação de subtração.

Outro procedimento implementado através de filtros espaciais é o aguçamento de

detalhes, que visa realçar detalhes finos da imagem. Neste caso, os filtros usados são os

passa-alta, assim denominados por privilegiarem a passagem dos componentes de alta

freqüência espacial, como as bordas. A Figura 15 mostra o kernel 3x3 do filtro passa-alta

básico e do filtro alto reforço.

(a) passa-alta básico 3x3: (b) alto reforço 3x3:

–1 –1 –1 –1 –1 –1
1 1
× –1 8 –1 × –1 9·a - 1 –1
8 9·a - 1

–1 –1 –1 –1 –1 –1

Figura 15. Filtros passa-alta 3x3: (a) passa-alta básico; (b) alto reforço.

Os filtros passa-alta são definidos por kernels com elementos positivos próximo ao

centro e elementos negativos na periferia, de modo que, num kernel passa-alta 3x3, o

elemento central é positivo e os demais são negativos.

35
O filtro passa-alta básico, devido à soma nula dos elementos de seu kernel, retorna

valores próximos ou iguais a 0 quando passa por uma região de baixa freqüência espacial

na imagem de entrada, gerando, assim, uma imagem de saída com bordas aguçadas sobre

um fundo escuro.

O filtro alto reforço (“high boost”) realça as bordas, mas preserva mais a imagem,

pois o parâmetro a, quando maior que 1, aumenta o peso no centro do kernel, deixando

passar parcialmente os componentes de baixa freqüência espacial. De fato, a imagem

resultante do alto reforço é uma adição da imagem resultante do passa-alta básico com uma

fração da imagem de entrada, definida pela imagem de entrada multiplicada pelo fator de

ganho (a -1).

No entanto, os filtros passa-alta são muito sensíveis a pixels brilhantes

circundados por pixels mais escuros ou vice-versa, tipicamente ruído, não sendo sempre

adequados a detecção de bordas.

As bordas são regiões da imagem caracterizadas por uma grande variação de

intensidade em um pequeno intervalo de espaço numa certa direção, sendo, portanto,

regiões de alta derivada espacial de intensidade. O vetor gradiente é normal às bordas em

cada pixel, apontando para a direção de maior derivada espacial, e seu módulo equivale a

esta derivada máxima. Assim, a detecção de bordas é geralmente feita através de filtros que

estimam o módulo do gradiente.

Dada uma imagem f(x,y), o módulo do gradiente é definido como:

2 2
 ∂f   ∂f  ∂f ∂f
∇f =   +   ≈ + . (43)
 ∂x   ∂y  ∂x ∂y

A Equação (43) indica que uma aproximação do módulo do gradiente pode ser

calculada pela soma dos módulos das derivadas parciais em x e y. Deste modo, a imagem

módulo do gradiente de f(x,y) é obtida através da soma dos valores absolutos resultantes da

36
aplicação, em f(x,y), de filtros que operem estas derivadas parciais. Existem diversas

implementações de filtros operadores diferenciais parciais, a Tabela 1 mostra os kernels dos

mais conhecidos.

Tabela 1. Operadores diferenciais parciais

∂ ∂
Operador
∂x ∂y

1 0 –1 –1 –1 –1
1 1
Prewitt × 1 0 –1 × 0 0 0
3 3
1 0 –1 1 1 1

1 0 –1 –1 –2 –1
1 1
Sobel × 2 0 –2 × 0 0 0
4 4

1 0 –1 1 2 1

1 0 –1 –1 – 2 –1
1 1
Frei-Chen × 2 0 – 2 × 0 0 0
2+ 2 2+ 2
1 0 –1 1 2 1

Uma outra forma de aproximação do módulo do gradiente é implementada através

da soma dos valores absolutos resultantes da aplicação dos operadores cruzados de

gradiente de Roberts, mostrados na Figura 16.

1 0 0 1

0 –1 –1 0

Figura 16. Operadores cruzados de gradiente de Roberts.

Uma imagem de saída, calculada como o módulo do gradiente, é uma imagem

formada, pixel a pixel, pela máxima derivada local na imagem de entrada. Regiões

37
homogêneas na imagem de entrada, com pequena ou nenhuma variação de tom de cinza,

terão intensidades próximas ou iguais a 0 na imagem de saída. Enquanto que as bordas

serão tão mais brilhantes, quanto mais abruptas e acentuadas forem as diferenças de

intensidade entre as regiões que essas bordas separam na imagem de entrada.

Além dos filtros espaciais já citados, existem muitos outros e ainda podem ser

definidos tantos quanto sejam necessários, com as mais diversas finalidades. Um

especialmente importante é o filtro laplaciano, mostrado na Figura 17.

0 –1 0
1
× –1 4 –1
4

0 –1 0

Figura 17. Filtro laplaciano 3x3.

O filtro laplaciano, como o nome sugere, simula a segunda derivada. Ele é bastante

sensível a ruído e, por isso, apesar de ser um operador de derivada, dificilmente é

empregado para detecção de bordas (Gonzalez & Woods, 1992). Geralmente é utilizado

após a aplicação de um filtro gaussiano, que atenua o ruído, num procedimento de

segmentação, a segmentação Marr-Hildreth, descrita mais adiante na seção 2.4.2

(“Segmentação por contornos”).

2.3.4 Operações Geométricas

As operações geométricas são operações onde a relação de posição entre os pixels

é alterada. Consistem em uma transformação espacial, que, caso leve à criação de pixels

inexistentes na imagem original, é seguida por uma interpolação das intensidades dos

pixels, como ilustrado na Figura 18.

38
Figura 18. Operações geométricas.

A operação geométrica mais comum é certamente a reamostragem (resampling),

que consiste numa transformação espacial linear de mudança de escala, definida como:

x′ = S ⋅ x ; (44)

y′ = S ⋅ y ; (45)

onde S é o fator de escala.

A reamostragem é particularmente útil no tratamento de imagens com problema de

baixa resolução, pois o aumento artificial da resolução pode melhorar a representação dos

contornos dos objetos, permitindo uma caracterização mais adequada de sua forma (Livens,

1997).

2.4 Segmentação

A segmentação visa reproduzir digitalmente a tarefa de reconhecer regiões de uma

imagem como objetos, um processo cognitivo extremamente sofisticado realizado pela

visão humana. A segmentação divide a imagem em regiões e distingue essas regiões como

objetos independentes uns dos outros e do fundo. No caso mais simples de diferenciar

objetos de um fundo, a segmentação tem como produto uma imagem binária, onde os

pixels pretos representam o fundo e as regiões de pixels brancos contíguos são

considerados objetos, ou vice-versa. No entanto, a partir deste ponto, fica instituído que,

neste trabalho, a notação é: os pixels pretos (0) são o fundo e as regiões de pixels brancos

(1) são os objetos.

39
A Figura 19 mostra um exemplo bem simples de segmentação. Uma imagem de

ferro fundido (Figura 19-a), em 256 tons de cinza, obtida por microscopia óptica, é

segmentada, gerando-se uma imagem binária (Figura 19-b), onde as partículas de grafita

(regiões de pixels brancos) distinguem-se da matriz (fundo preto).

(a) (b)

Figura 19. Exemplo de segmentação: (a) imagem em 256 tons de cinza; (b) imagem
binária.

A segmentação costuma ser a etapa crítica da seqüência padrão de PADI, pois é

através dela que se reconhece e se identifica os objetos de interesse, sobre os quais será

feita a análise.

2.4.1 Limiarização

Existem diversas técnicas de segmentação, a mais simples e mais utilizada é a

segmentação por faixa tonal, também chamada limiarização ou thresholding. A

limiarização usa o tom de cinza dos pixels para distingui-los, considerando como objetos,

as regiões de pixels contíguos com tom de cinza dentro de uma faixa tonal delimitada a

partir de um limiar ou tom de corte. No caso de diferenciar objetos de um fundo, utiliza-se

a limiarização bi-modal, que discrimina duas fases na imagem, o fundo e os objetos. A

limiarização bi-modal é determinada por um único tom de corte que separa duas faixas

40
tonais, de modo a gerar uma imagem binária, tornando brancos os pixels com tom de cinza

acima (ou abaixo) do tom de corte e pretos os demais.

A Figura 20 apresenta um exemplo de limiarização bi-modal. Uma imagem de

minério (Figura 20-a), gerada em MEV, é segmentada por limiarização bi-modal com o

tom de corte mostrado na Figura 20-b, gerando uma imagem binária (Figura 20-c), onde

distinguem-se os grãos de uma fase do restante do minério e do fundo.

(b)

(a) (c)

Figura 20. Exemplo de limiarização bi-modal: (a) imagem original; (b) tom de corte; (c)
imagem binária.

Muitas vezes faz-se necessário discriminar mais de um tipo de objeto na imagem,

não sendo suficiente simplesmente diferenciar objetos de um fundo. Neste caso, a técnica

da limiarização também é aplicável, pois ela não está restrita a apenas duas fases, podendo

ser utilizada para distinguir quantas fases se queira. É a chamada limiarização multi-modal,

onde para se distinguir n fases, especifica-se (n-1) tons de corte. Cada um destes (n-1) tons

de corte determina o início de uma faixa tonal, caracterizando portanto uma fase, e uma

fase adicional, geralmente o fundo, é definida pelos tons de cinza abaixo do primeiro tom

de corte, totalizando-se n fases.

A Figura 21 mostra um exemplo de limiarização tetra-modal, que consiste na

limiarização multi-modal para distinguir quatro fases. De fato, este exemplo utiliza a

mesma imagem do exemplo de limiarização bi-modal (Figura 20), havendo neste caso, uma

41
sofisticação do problema. A imagem do minério (Figura 21-a) passa por limiarização tetra-

modal, a partir dos três tons de corte mostrados na Figura 21-b, gerando uma imagem

quaternária (Figura 21-c), ou seja, uma imagem com quatro tons. Nesta imagem quaternária

(Figura 21-c), distinguem-se os grãos de três diferentes fases.

(b)

(a) (c)

Figura 21. Exemplo de limiarização tetra-modal: (a) imagem em 256 tons de cinza; (b) tons
de corte; (c) imagem quaternária.

O ponto mais sensível da técnica de limiarização é a escolha dos tons de corte.

Normalmente, esta escolha é feita através da observação do histograma da imagem, a partir

de onde pode-se mais facilmente escolher os tons de cinza que determinam as fronteiras

entre as fases. Intuitivamente, um operador humano escolhe o ponto de mínimo de cada

vale entre duas classes modais correspondentes a fases no histograma.

Na prática, determinar o exato tom de cinza de uma fronteira não é uma tarefa

simples, a escolha manual não é acurada e nem reprodutível, e, assim, busca-se sempre um

método automático. O primeiro método automático implantado reproduz a maneira

intuitiva de escolha, realizando automaticamente a busca dos pontos de mínimo entre as

classes no histograma. No entanto, é comum o método dos mínimos apresentar resultados

não satisfatórios, principalmente quando os vales entre as classes são largos e planos ou

muito baixos, o que torna o método muito sensível a ruídos.

42
Um outro método automático de limiarização é o método da minimização da

variância intraclasse, conhecido como segmentação de Otsu (Otsu, 1979). Para a realização

do cálculo do tom de corte, utiliza-se a maximização da variância interclasse, que equivale

à minimização da variância intraclasse, sendo, no entanto, mais facilmente calculada. Deste

modo, a segmentação de Otsu é de fácil implementação e extremamente eficiente. Assim,

dentre os diversos métodos de limiarização automática existentes, este é o mais comum.

Na Figura 22, faz-se uma comparação entre os dois métodos de limiarização

automática citados. Mostra-se a segmentação de uma mesma imagem pelo método dos

mínimos e pelo método de Otsu, apresentando seu histograma com os respectivos tons de

corte marcados.

43
(a)

(b) (c)

(d) (e)

Figura 22. Comparação entre métodos limiarização automática: (a) imagem em 256 tons de
cinza; (b) corte no ponto de mínimo; (c) corte pelo método de Otsu; (d) imagem
segmentada pelo método dos mínimos; e (e) imagem segmentada pelo método de Otsu.

O método de Otsu pode ser estendido para mais modos do histograma, mas em

geral os analisadores de imagem não contemplam esta opção. Apesar de ser facilmente

implementado, o método é, via de regra, extremamente custoso computacionalmente e se

torna inviável para imagens com mais do que 4 ou 5 modos no histograma.

Uma outra forma automática de limiarização é a limiarização adaptativa, que

consiste na aplicação de uma limiarização automática, individualmente, a porções da

imagem. Sub-divide a imagem e faz-se a limiarização automática em cada sub-divisão,

44
obtendo-se um tom de corte para cada uma. Em seguida, interpola-se estes tons de corte a

fim de se obter um tom de corte específico para cada pixel da imagem.

A limiarização adaptativa é mais sensível às variações locais de intensidade, sendo

portanto menos sensível a irregularidades de fundo, como problemas de iluminação. No

entanto, é um procedimento mais lento e não é muito comum em analisadores de imagem.

A Figura 23 faz uma comparação entre a segmentação de Otsu e a limiarização adaptativa.

Ela mostra uma imagem, com problema de iluminação irregular, segmentada por ambas as

técnicas.

(a) (b) (c)

Figura 23. Comparação entre a segmentação de Otsu e a limiarização adaptativa: (a)


imagem em 256 tons de cinza; (b) imagem da segmentação de Otsu; e (c) imagem da
limiarização adaptativa.

2.4.2 Segmentação por contornos

A segmentação por contornos simula o funcionamento da visão humana, ela

detecta as bordas dos objetos, a partir das quais, constrói seus contornos, considerando

como objeto a região dentro de um contorno. A segmentação por contornos é

computacionalmente mais custosa que a limiarização, devendo, assim, ser usada somente

quando a limiarização não produz um resultado satisfatório. Entre as técnicas de

segmentação por contornos, uma das mais conhecidas e utilizadas é a de Marr-Hildreth.

45
A assim denominada segmentação de Marr-Hildreth é implementada através da

aplicação de dois filtros espaciais. Primeiro borra-se a imagem em tons de cinza com um

filtro gaussiana, para então se aplicar, nesta imagem borrada, um filtro laplaciano. A partir

da imagem do laplaciano da gaussiana, obtém-se os contornos, que são formados pelos

cruzamentos por zero nessa imagem. Assim, a técnica de segmentação de Marr-Hildreth

também é conhecida como o Laplaciano da Gaussiana.

A segmentação de Marr-Hildreth é muito sensível a ruídos, por isto costuma

apresentar melhor resultado quando utilizada juntamente com a limiarização. Procede-se

separadamente à segmentação pelas duas técnicas e combina-se as duas imagens resultantes

através da operação lógica de interseção (AND). A Figura 24 mostra um exemplo de

segmentação conjunta por limiarização e Marr-Hildreth. Trata-se de uma imagem

biológica, especificamente, células de pêlos estaminais de flores de Tradescantia.

(a) (b) (c) (d)

Figura 24. Exemplo de segmentação conjunta por limiarização e Marr-Hildreth: (a) imagem
em tons de cinza; (b) imagem da limiarização; (c) imagem da segmentação de Marr-
Hildreth; e (d) interseção entre as imagens (b) e (c).

2.5 Pós-processamento

Muitas vezes o resultado da segmentação não é adequado, sendo necessária, para

se corrigir as imagens binárias resultantes da segmentação, a aplicação de procedimentos de

pós-processamento, como a separação de objetos que se tocam ou o agrupamento de

objetos para formar objetos mais complexos. Tais procedimentos são geralmente

implementados através de operações lógicas e operações morfológicas.

46
2.5.1 Operações Lógicas

As operações lógicas são operações pontuais entre imagens binárias, realizadas por

operadores lógicos que varrem as imagens de entrada, operando pixel a pixel, gerando uma

imagem de saída onde cada pixel é preservado ou invertido. As três operações lógicas

básicas são o complemento (NOT), a interseção (AND) e a união (OR), a partir das quais

qualquer outra operação lógica pode ser definida. A Figura 25 mostra, a partir de duas

imagens de entrada (A e B), as três operações lógicas básicas com suas respectivas tabelas-

verdade.

A operação de complemento (NOT), também chamada “não”, inverte todos os

pixels da imagem de entrada, gerando uma imagem de saída que é o seu negativo. A

operação de interseção (AND), também chamada “e”, faz a interseção das duas imagens de

entrada, produzindo uma imagem de saída onde são brancos somente os pixels que são

brancos em ambas as imagens de entrada. A operação de união (OR), também chamada

“ou”, realiza a união das duas imagens de entrada, produzindo uma imagem de saída onde

são brancos somente os pixels que são brancos em pelo menos uma das imagens de entrada.

47
A B

NOT A A AND B A OR B

A NOT A A B A AND B A B A OR B
0 1 0 0 0 0 0 0
1 0 0 1 0 0 1 1
1 0 0 1 0 1
1 1 1 1 1 1

Figura 25. Operações lógicas básicas (NOT, AND e OR).

Outra operação lógica, derivada dessas operações básicas, também bastante

utilizada, é o “ou exclusivo” (XOR). A operação de “ou exclusivo” (XOR) gera uma

imagem de saída onde são brancos somente os pixels que são brancos em somente uma das

imagens de entrada. De acordo com a notação estabelecida, tem-se que:

{A XOR B} = {[A OR B] AND [NOT(A AND B)]} (46)

A Figura 26 mostra a operação XOR e a tabela-verdade que a define, a partir das

mesmas duas imagens de entrada (A e B) da Figura 25.

48
A B

A XOR B

A B A XOR B
0 0 0
0 1 1
1 0 1
1 1 0

Figura 26. Operação lógica XOR.

2.5.2 Operações Morfológicas

Assim como as operações lógicas são derivadas de apenas três operações lógicas

básicas (NOT, AND e OR), as operações morfológicas também têm sua base, sendo

geralmente definidas a partir de duas operações morfológicas de propagação, a erosão e a

dilatação.

De maneira semelhante às operações locais (seção 2.3.3 – “Operações Locais”), a

erosão e a dilatação são operações orientadas pela vizinhança. A vizinhança, neste caso, é

definida por uma pequena imagem binária, denominada elemento estruturante, que varre a

imagem de entrada, preservando ou invertendo o pixel central da vizinhança, na imagem de

saída, em função de seus vizinhos.

A erosão e a dilatação são operações de propagação opostas. Como seus nomes

sugerem, elas, respectivamente, fazem os objetos encolher ou crescer. Na dilatação, para

cada pixel preto na imagem de entrada, se houver pelo menos um vizinho branco, o pixel é

49
invertido na imagem de saída. Assim, os objetos crescem em área, podendo até se unir, e o

fundo e os buracos nos objetos diminuem, sendo até mesmo eliminados. Na erosão, para

cada pixel branco na imagem de entrada, se houver pelo menos um vizinho branco, o pixel

é invertido na imagem de saída. De modo que os objetos diminuem ou são eliminados e o

fundo e os buracos crescem.

A Figura 27 mostra a erosão e a dilatação de uma imagem (A), de 10x10 pixels,

por um elemento estruturante (E), de 3x3 pixels.

A E

Erosão Dilatação

A? E A? E

Figura 27. Erosão e dilatação.

O elemento estruturante (E) da Figura 27 é chamado elemento de conectividade 4

(Figura 28-a). Ele define a vizinhança como 3x3, sendo considerados vizinhos do pixel

central somente os 4 pixels adjacentes a ele lateral e verticalmente. Um outro elemento

estruturante, também muito utilizado, é o elemento de conectividade 8 (Figura 28-b), que

define a vizinhança como 3x3, mas que considera todos os 8 pixels adjacentes como

vizinhos do pixel central. Contudo, podem ser definidos elementos estruturantes das mais

variadas formas e tamanhos, sendo a escolha do mais adequado determinada somente em

50
função do problema. Nos exemplos que se seguem, como na Figura 27, é utilizado o

elemento de conectividade 4.

(a) (b)

Figura 28. Elementos estruturantes 3x3: (a) conectividade 4; (b) conectividade 8.

A partir das operações lógicas básicas (NOT, AND e OR) e das operações

morfológicas de erosão e dilatação, são definidas outras operações morfológicas, simples

porém importantes, como o preenchimento de buracos (hole filling), a eliminação de

objetos que tocam na borda da imagem (border object killing) e a extração de objetos

marcados (object marking).

Dada uma imagem (A) e um elemento estruturante (E), uma imagem contendo

somente as bordas dos objetos de A pode ser obtida por uma operação morfológica de

extração de bordas (Figura 29), definida como:

b(A) = {[NOT (A ? E)] AND A}. (47)

A b(A)

Figura 29. Extração de bordas.

A partir desta operação de extração de bordas, pode-se definir a operação

morfológica de preenchimento de buracos (hole filling), mostrada na Figura 30, e que é

realizada de acordo com o seguinte algoritmo:

X0 = b(Ib) (48)

Xk = {[Xk-1 AND (NOT A)] ? E} (49)

51
k ∈ℵ* (50)

hf(A) = NOT Xk | (Xk = Xk-1) (51)

onde Ib é uma imagem com todos os pixels brancos, de mesma dimensão que A.

A fh(A)

Figura 30. Preenchimento de buracos (hole filling).

Utilizando-se a mesma notação, a operação morfológica de eliminação de objetos

que tocam na borda da imagem (border object killing) é mostrada na Figura 31 e definida

como:

bok(A) = {NOT [hf(NOT A)]} AND A. (52)

A kbo(A)

Figura 31. Eliminação de objetos que tocam na borda da imagem (border object killing).

Destas operações morfológicas derivadas, a mais importante é certamente a

extração de objetos marcados (object marking). De fato, ela pode ser considerada como

uma operação de interseção de mais alto nível, uma interseção de objetos, como

exemplificado na Figura 32. A partir de duas imagens de entrada (A e B), ela fornece uma

imagem de saída que contém somente os objetos de A que tenham algum pixel branco em

comum com a imagem B, ou seja, somente os objetos marcados por B. A operação

morfológica de extração de objetos marcados é definida pelo seguinte algoritmo:

52
X0 = B (53)

Xk = {[Xk-1 AND A] ? E} (54)

k ∈ℵ* (55)

om(A,B) = Xk | (Xk = Xk-1). (56)

A B om(A,B)

Figura 32. Extração de objetos marcados (object marking).

Uma outra operação, não propriamente derivada das operações já citadas, mas que

também é muito utilizada na etapa de pós-processamento, é a eliminação de objetos por

área (scrapping), que consiste em eliminar, na imagem, os objetos que tenham área, ou

seja, número de pixels, dentro de uma determinada faixa de valores. A Figura 33 mostra a

aplicação desta operação, tendo 20 a 100, como faixa de valoras de área.

A scrapping(A,20,100)

Figura 33. Eliminação de objetos por área (scrapping).

Todas essas operações morfológicas descritas acima, são definidas a partir das

operações clássicas de propagação (dilatação e erosão) orientadas a partir de um elemento

estruturante, como mostrado. No entanto, as operações de propagação, propriamente ditas,

são geralmente feitas de outro modo, pois a repetida aplicação de operações com elemento

estruturante deforma os objetos, dando-lhes a forma deste elemento. Assim, as operações

de propagação são feitas a partir do cálculo do Mapa de Distâncias Euclidianas (Euclidean

53
Distance Map - EDM) (Danielsson, 1980), descrito mais adiante. Apesar de

computacionalmente mais custosas, as operações baseadas no EDM realizam a propagação

de maneira verdadeiramente radial, afetando menos a forma dos objetos e sendo

independentes de sua rotação na imagem (Russ & Russ, 1989).

A Figura 34 faz a comparação entre as operações de propagação com elemento

estruturante (conectividade 4) e baseadas no EDM. Ela mostra uma imagem binária com

objetos geométricos regulares (Figura 34-a) e as imagens binárias resultantes da dilatação

desta imagem com elemento estruturante (Figura 34-b) e através do EDM (Figura 34-c).

(a) (b) (c)

Figura 34. Comparação entre as operações de propagação com elemento estruturante


(conectividade 4) e EDM.

De fato, as operações morfológicas baseadas no EDM são mais acuradas.

Entretanto, nas operações de preenchimento de buracos, eliminação de objetos que tocam a

borda da imagem e extração de objetos marcados, por só se fazerem propagações de um

passo, num único sentido (erosão ou dilatação) e somente para pixels adjacentes, a

utilização do EDM equivale ao emprego do elemento estruturante, conectividade 8 ou 4,

dependendo da aproximação utilizada no EDM. Desta forma, estas operações são feitas

orientadas a partir de um elemento estruturante 3x3 (conectividade 8 ou 4), o que é bem

mais rápido do que o cálculo, a cada iteração, de um novo EDM.

54
A partir de uma imagem binária de entrada, o cálculo do EDM gera uma imagem

de saída em tons de cinza, mantendo os pixels do fundo como 0 e atribuindo, a cada pixel

dos objetos, o valor, aproximado ou truncado, da distância euclidiana deste pixel ao pixel

do fundo mais próximo, como ilustrado na Figura 35.

A EDM(A)
0 1 1 1 0 0 0 0 0 0
1 1 2 1 1 1 1 1 0 0
1 1 1 1 1 2 2 1 1 1
0 1 1 0 1 2 3 2 2 1
0 1 1 0 1 2 3 2 1 1
0 1 1 0 1 2 3 2 1 0
0 1 1 1 1 2 3 2 1 0
0 0 1 1 2 3 3 2 1 0
0 0 0 1 2 2 2 2 1 0
0 0 1 1 1 1 1 1 1 0

Figura 35. Mapa de Distâncias Euclidianas (EDM).

Daí, as operações de propagação são feitas através da simples limiarização da

imagem do EDM, como mostrado na Figura 36. Calculando-se a imagem de EDM da

imagem binária em questão e fazendo-se sua limiarização, com uma faixa tonal de (k + 1) a

255, obtém-se uma erosão de k passos. Já a dilatação é feita como uma erosão do fundo,

envolvendo assim uma etapa a mais. Através do complemento (NOT) da imagem binária,

gera-se a imagem binária do fundo, então calcula-se sua imagem de EDM e faz-se a

limiarização desta, com uma faixa tonal de 0 a k, obtendo-se uma dilatação de k passos.

55
(a) (c) (e)

(b) (d) (f)

Figura 36. Erosão e dilatação a partir do EDM: (a) imagem binária inicial; (b) complemento
da imagem binária inicial; (c) EDM (com look-up table); (d) EDM do complemento (com
look-up table); (e) erosão (10 passos); e (f) dilatação (10 passos).

Por si só, as operações de dilatação e erosão distorcem a imagem, aumentando ou

reduzindo a área dos objetos, assim, elas são geralmente aplicadas de forma combinada,

como operações de abertura ou fechamento. Por outro lado, existem situações onde se

deseja realmente alterar a imagem, visando ressaltar certas características dos objetos ou da

imagem como um todo, no intuito de realizar medições. Neste sentido, aplicam-se

operações de propagação extrema, também baseadas no cálculo do EDM, como a erosão

derradeira, a transformada do eixo medial, a dilatação derradeira e a dilatação derradeira

com barreiras.

A operação de abertura consiste na aplicação sucessiva de erosão e dilatação, uma

abertura de k passos é feita através de uma erosão de k passos seguida por uma dilatação

56
também de k passos. Como resultado, de acordo com o número de passos, pequenos objetos

desaparecem e objetos com penínsulas finas são divididos.

A operação de fechamento é justamente o inverso, consiste na aplicação sucessiva

de dilatação e erosão. Um fechamento de k passos é feito por uma dilatação de k passos

seguida por uma erosão de k passos. Como resultado do fechamento, de acordo com o

número de passos, pequenos buracos são preenchidos e objetos próximos são unidos.

A Figura 37 mostra as imagens resultantes das operações de abertura e fechamento

de uma mesma imagem binária.

(a) (b) (c)

Figura 37. Abertura e fechamento: (a) imagem binária inicial; (b) abertura (10 passos); e (c)
fechamento (10 passos).

A erosão derradeira ou última erosão (ultimate erosion) consiste na erosão, passo a

passo, de cada objeto na imagem, até que um próximo passo o eliminaria. Já a operação de

transformada do eixo medial (Russ, 1995) corresponde a uma erosão derradeira

condicionada a não remover pixels que dividam os objetos. A Figura 38 mostra as imagens

resultantes destas duas operações numa mesma imagem binária.

57
(a) (b) (c)

Figura 38. Erosão derradeira e transformada do eixo medial: (a) imagem binária inicial; (b)
erosão derradeira; e (c) transformada do eixo medial.

A dilatação derradeira (ultimate dilation), também conhecida como última

dilatação e esqueleto skiz, consiste na dilatação dos objetos na imagem, com a condição de

que eles não se unam. Uma variante desta operação é a dilatação derradeira com barreiras

(Gomes & Almeida, 2001), onde os objetos se dilatam até o limiar de encontrarem uma

barreira (outro objeto), quando então, cessam a dilatação em todas as direções, não se

unindo. Assim, por não unirem os objetos que dilatam, estas operações são muito utilizadas

em procedimentos de pós-processamento para separação de objetos que se tocam. A Figura

39 mostra as imagens resultantes das operações de dilatação derradeira e dilatação

derradeira com barreiras de uma mesma imagem binária.

(a) (b) (c)

Figura 39. Dilatação derradeira e dilatação derradeira com barreiras: (a) imagem binária
inicial; (b) dilatação derradeira; e (c) dilatação derradeira com barreiras.

58
2.5.3 Separação de objetos que se tocam

Objetos colados ou superpostos são um dos mais corriqueiros problemas de

segmentação. Tal problema precisa ser resolvido antes da etapa de extração de atributos,

pois, caso contrário, os objetos não poderão ser corretamente identificados, contados e

medidos. Assim, a separação de objetos que se tocam é um dos mais importantes tópicos da

etapa de pós-processamento.

A técnica clássica utilizada para separação de objetos é o método dos divisores de

águas (watersheds), que se baseia no crescimento de sementes dos objetos. Calcula-se a

imagem do EDM e procede-se sua limiarização progressivamente, gerando-se sementes e

agregando pixels a elas, sem permitir que estes agrupamentos se unam. A limiarização

progride ampliando-se sua faixa de um em um a partir do maior valor de tom de cinza na

imagem (o pixel mais brilhante) até que a faixa vá deste valor até 1. O resultado deste

processo é uma imagem binária onde linhas de 1 pixel de espessura (os divisores de águas)

dividem os objetos considerados como a união de vários, como mostrado na Figura 40.

(a) (b)

Figura 40. Método dos divisores de águas (watersheds): (a) imagem binária inicial; e (b)
imagem binária com objetos separados.

A limiarização progressiva da imagem do EDM determina que os divisores de

águas são definidos como linhas formadas por pixels com valores de tons de cinza mínimos

locais. Deste modo, o método dos divisores de águas é muito sensível a ruídos locais na

59
imagem do EDM, como os gerados por irregularidades nos contornos dos objetos na

imagem binária. Assim, antes das sucessivas limiarizações, a imagem do EDM geralmente

sofre uma filtragem passa-baixa para atenuar os ruídos locais. Com esta filtragem, geram-se

divisores de águas mais bem comportados.

O método dos divisores de águas deve ser usado com cautela, pois é comum, para

uma mesma imagem, gerar separações espúrias e manter objetos unidos. O problema em

questão irá determinar o que é mais aceitável: sub ou super separação.

2.6 Extração de Atributos

Extração de Atributos é a etapa da seqüência padrão onde se inicia a análise da

imagem. Nela são realizadas medidas sobre a imagem segmentada e/ou sobre a imagem em

tons de cinza, extraindo-se atributos característicos. Existem dois tipos de medidas,

medidas de campo e medidas de região.

As medidas de campo são aquelas feitas na imagem, ou campo, como um todo, a

fim de caracterizá-la integralmente. Podem ser feitas também em sub-campos da imagem,

caracterizando-os individualmente como imagens diferentes. As medidas de campo são

geralmente divididas em medidas de:

(i) Contagem de Objetos;

(ii) Área;

(iii) Interceptos e Interseções;

(iv) Intensidade; e

(v) Textura.

As medidas de região são as medidas realizadas sobre os objetos segmentados na

imagem, visando caracterizá-los individualmente. As medidas de região podem ser

divididas em medidas de:

(i) Tamanho;

60
(ii) Forma;

(iii) Posição;

(iv) Intensidade; e

(v) Textura.

2.6.1 Medidas de Campo

2.6.1.1 Contagem de Objetos

A contagem de objetos em uma imagem é provavelmente a medida mais comum

em análise de imagem. Apesar de ser uma tarefa simples, esta pode não ser uma medida

muito fácil de ser feita manualmente, especialmente se o número de objetos for grande. No

entanto, digitalmente, é uma das medidas mais fáceis de ser realizada. A partir da imagem

segmentada, as regiões de pixels contíguos com a mesma tonalidade, que correspondem aos

objetos, são contadas.

Contudo esta simplicidade esconde armadilhas que podem gerar erros na

contagem, como a definição de pixel contíguo. Os analisadores de imagem geralmente

oferecem duas opções de contiguidade, também chamada conectividade, denotadas por 4 e

8. Conectividade 8 significa que todos os 8 pixels adjacentes são considerados contíguos, já

conectividade 4 leva em conta somente os 4 pixels adjacentes lateral e verticalmente, não

considerando os 4 pixels diagonalmente adjacentes, como mostrado na Figura 41, onde os

pixels cinzas representam os pixels adjacentes considerados contíguos ao pixel central

(branco).

Conectividade 8 Conectividade 4

Figura 41. Conectividade.

61
A Figura 42 apresenta uma pequena imagem, de 10x10 pixels, onde a definição da

conectividade como 8 ou 4 leva a uma contagem de um ou dois objetos, respectivamente. A

escolha de qual conectividade usar vai depender somente do problema em questão.

Figura 42. Exemplo de possível erro de contagem de objetos devido à conectividade.

2.6.1.2 Área

A área ocupada por objetos é uma medida fácil e rápida para o computador, ela é

obtida pela simples contagem dos pixels brancos na imagem binária. Dela, derivam-se

outras medidas importantes, também facilmente obtidas, como a fração de área do campo

ocupada por objetos e a área média dos objetos. A fração de área é calculada pela razão

entre o número de pixels brancos e o número total de pixels, na imagem binária. E a área

média dos objetos é calculada pela razão entre a área e o número de objetos.

2.6.1.3 Interceptos e Interseções

Muitas vezes, os conceitos de intercepto e interseção são confundidos. No entanto,

a diferença entre estas medidas é clara. Desenhada uma linha de teste sobre uma imagem

segmentada, os interceptos constituem-se nas sobreposições entre esta linha e os objetos na

imagem (Figura 43-a). Já as interseções são os pixels comuns entre a linha e os contornos

dos objetos (Figura 43-b), ou seja, são os pixels extremos de cada intercepto.

62
(a) (b)

Figura 43. (a) interceptos e (b) interseções.

Os interceptos e interseções são medidas a partir das quais derivam-se parâmetros

estereológicos, que fogem ao escopo deste trabalho.

2.6.1.4 Intensidade

As medidas de intensidade visam caracterizar a imagem a partir dos tons de cinza

de seus pixels. Assim, diferentemente das anteriores, estas medidas são feitas sobre

imagens em tons de cinza. A partir do histograma da imagem, são calculados parâmetros

estatísticos simples descritivos de sua aparência, tais como brilho e contraste, que são as

medidas de intensidade mais comuns. Como mostrado anteriormente, as propriedades de

brilho e contraste são definidas, respectivamente, como:

255
B = ∑ r ⋅ p (r ) ; (57)
r =0

255
C= ∑ [r − B]
r =0
2
⋅ p( r ) . (58)

onde r representa os tons de cinza; e p(r) é o histograma.

Outras medidas de intensidade são definidas através dos momentos do histograma.

Define-se o n-ésimo momento em torno da média como:

63
255
µ n (r ) = ∑ [r − B] ⋅ p(r ) .
n
(59)
r =0

O segundo momento (µ2) é a variância, que equivale ao quadrado do contraste. O

terceiro momento é uma medida de anti-simetria do histograma, enquanto o quarto é uma

medida de seu achatamento ou planaridade. Já os momentos de ordem mais alta não são

facilmente relacionados com o formato do histograma, mas fornecem informação

quantitativa adicional sobre a textura da imagem (Gonzalez & Woods, 1992).

De fato, estas medidas de intensidade constituem-se em parâmetros simples de

caracterização da textura em imagens em tons de cinza. Na seção seguinte, discute-se

textura mais detalhadamente.

2.6.1.5 Textura

Neste ponto cabe um parêntese. Em Ciência de Materiais, textura é entendida

como a orientação preferencial dos cristalitos num material poli-cristalino. Já, em PADI,

textura é um conceito mais abrangente, sem definição formal, que visa representar as

variações locais de intensidade dos pixels em uma imagem. Pensando a intensidade dos

pixels como uma terceira dimensão da imagem, a textura pode ser entendida como uma

medida de propriedades como rugosidade, granularidade e regularidade (Russ, 1995).

Por não haver uma definição formal, existem diversas técnicas de caracterização

da textura em uma imagem, cada qual mais adequada à detecção de um determinado tipo de

característica. A escolha da técnica a ser utilizada depende somente do problema em

questão.

Em imagens segmentadas, a caracterização da textura é feita através de técnicas

baseadas na análise estatística do posicionamento relativo entre os objetos. Tais técnicas

são geralmente utilizadas na análise de imagens que apresentam uma segunda fase dispersa,

como inclusões ou poros em um material, caracterizando a dispersão destes objetos quanto

64
ao seu grau de ordenamento, aleatoriedade e agrupamentos. Em (Shehata, 2000) são

descritas cinco técnicas usadas para caracterizar a dispersão de objetos, a saber:

(i) Variação da Densidade: uma técnica baseada no cálculo da densidade de

objetos por área em diferentes imagens ou regiões de uma mesma imagem;

(ii) Distribuição das Distâncias ao Vizinho Mais Próximo: uma técnica baseada na

distribuição da distância do centro de gravidade de cada objeto ao de seu

vizinho mais próximo;

(iii) Dilatação e Contagem: uma técnica baseada na distribuição das distâncias de

cada objeto aos seus vizinhos, medidas através de sucessivas dilatações e

contagens dos objetos;

(iv) Mosaico de Dirichlet: uma técnica baseada na construção do mosaico de

Dirichlet a meia distância entre o centro de gravidade de cada objeto, que

pode ser construído através da operação de dilatação derradeira em uma

imagem contendo somente os centros de gravidade dos objetos; e

(v) Mosaico por Dilatação: uma técnica baseada na construção de um mosaico,

semelhante ao de Dirichlet, a partir da dilatação derradeira dos objetos, ao

invés de seus centros de gravidade.

Em imagens em tons de cinza, as técnicas de caracterização de textura podem ser

divididas em três classes principais: estatística, estrutural e de transformada.

As técnicas estatísticas são as mais antigas técnicas de caracterização de textura.

Os parâmetros estatísticos de primeira ordem, diretamente calculados a partir do

histograma da imagem, são os mais simples e por isso devem ser sempre os primeiros a

serem testados. Devido a sua simplicidade, tais parâmetros podem ser classificados como

medidas de intensidade e, desta forma, estão descritos na seção anterior (“Medidas de

Intensidade”).

65
Os parâmetros estatísticos de segunda ordem, derivados da matriz de co-

ocorrência de tons de cinza da imagem, apesar de mais complexos, trazem a vantagem de

considerar o posicionamento relativo entre os pixels. (Haralick et al., 1973) propôs 14

parâmetros deste tipo, cada qual quantificando uma característica de textura, como

contraste, homogeneidade e complexidade. Os parâmetros de Haralick certamente

constituem-se na mais conhecida técnica de caracterização de textura.

As técnicas estruturais caracterizam a textura a partir de primitivas de textura

(textels) que são ordenadas segundo regras sintáticas, formando padrões. Tais técnicas

geralmente só são usadas na análise de imagens com textura muito regular.

As técnicas de transformada, baseiam-se no emprego de alguma transformada,

visando obter uma representação da imagem onde determinadas características da textura

possam ser mais facilmente detectadas. As técnicas espectrais, baseadas nas propriedades

da transformada de Fourier, são um exemplo disto. Através da identificação dos pontos

mais brilhantes na imagem da transformada de Fourier, faz-se a detecção de padrões

periódicos na imagem original, já que a posição destes pontos fornece a direção e a

periodicidade espacial dos padrões. Mais recentemente, outras transformadas vem sendo

usadas para caracterizar textura, notadamente a transformada de wavelet.

Neste trabalho, a técnica utilizada para caracterização de textura foram os

parâmetros de Haralick. Assim, a partir deste ponto, dedica-se maior atenção a estes.

Dada uma imagem com resolução de Nx pixels na direção horizontal e Ny pixels na

direção vertical, e quantizada com Ng tons de cinza, ela pode ser representada como uma

matriz I de dimensão Ny × Nx, segundo a notação linha-coluna, e cujos elementos sejam os

valores de tom de cinza dos pixels na posição correspondente. Assim, a sua matriz de co-

ocorrência é uma matriz quadrada, de dimensão Ng × Ng, cujo elemento da linha i e coluna

j, designado pd(i,j), corresponde a freqüência de ocorrência de pares de pixels, com os tons

66
de cinza i e j, separados por uma certa distância numa dada direção e sentido, que são

determinados por um vetor d. O vetor d é definido por suas componentes dx e dy, como

mostrado na Figura 44.

dy

dx

d = (dx, dy )

Figura 44. Vetor d.

Assim, define-se, como freqüências não-normalizadas (Pd(i,j)), os números de

ocorrência de pares de pixels, com os tons de cinza i e j, separados segundo um vetor d,

como:

Pd (i, j ) = # {((k , l ), (m, n)) : I (k , l ) = i, I (m, n) = j} ; (60)

(k , l ), (m, n) ∈ N y × N x ; (61)

(m, n) = (k + dy , l + dx ) ; (62)

onde # denota o número de elementos do conjunto.

A partir daí, define-se os elementos (pd(i,j)) da matriz de co-ocorrência, como:

Pd (i, j )
pd (i, j ) = ; (63)
R

onde R representa o número total de pares de pixels (i,j) e pode ser calculado pela seguinte

expressão:

R = ( N x − | dx |) ⋅ ( N y − | dy |) . (64)

No entanto, os parâmetros de Haralick, como definidos originalmente, são

calculados a partir de matrizes de co-ocorrência de tons de cinza de pares de pixels

separados por uma certa distância numa dada direção, independendo do sentido. Assim, tais

67
matrizes de co-ocorrência são simétricas e designadas por dois vetores opostos, d e –d.

Desta forma, as Equações (62) e (64) tem que ser reescritas:

(m, n) = (k ± dy , l ± dx ) ; (65)

R = 2 ⋅ ( N x − | dx |) ⋅ ( N y − | dy |) . (66)

Além disso, originalmente, consideram apenas o posicionamento relativo entre cada pixel e

seus vizinhos mais próximos, os pixels adjacentes, havendo, portanto, somente quatro

valores possíveis (0°, 45°, 90° e 135°) para o ângulo α, que designa a direção do vetor d, e

três valores possíveis (-1,0 e 1) para suas componentes dx e dy, de modo que:

α = 0° ⇒ d = (1,0) ; (67)

α = 45° ⇒ d = (1,1) ; (68)

α = 90° ⇒ d = (0,1) ; (69)

α = 135° ⇒ d = (−1,1) . (70)

Para que se tornem medidas independentes de rotação, geralmente é utilizada a

média de cada parâmetro nessas quatro direções. A Tabela 2 lista os 14 parâmetros de

Haralick.

68
Tabela 2. Parâmetros de Haralick

Parâmetro Definição
Ng N g

1) Uniformidade f1 = ∑∑[ p (i, j )]2


i =1 j =1

Ng Ng

2) Contraste f 2 = ∑∑ (i − j ) 2 ⋅ p (i, j )
i =1 j =1

N g Ng

3) Correlação
∑∑ i ⋅ j ⋅ p(i, j) − µ
i =1 j =1
x ⋅µy
f3 =
σ x ⋅σ y

Ng Ng
4) Variância f 4 = ∑∑ (i − µ ) 2 ⋅ p (i, j )
i =1 j =1

Ng Ng
1
5) Momento Inverso da Diferença f5 = ∑∑ ⋅ p( i , j )
i =1 j =1 1 + (i − j ) 2

2⋅N g
6) Média da Soma f6 = ∑k ⋅ p
k =2
x+ y (k )

2⋅N g
7) Variância da Soma f7 = ∑ (k − f )
k =2
6
2
⋅ p x + y (k )

2⋅N g

8) Entropia da Soma f8 = − ∑ p x+ y ( k ) ⋅ log[ p x + y (k )]


k =2

N g Ng

9) Entropia f9 = −∑∑ p (i, j ) ⋅ log[ p (i, j )]


i =1 j =1

10) Variância da Diferença f10 = variância de p x− y

N g −1

11)Entropia da Diferença f11 = − ∑ p x− y (k ) ⋅ log[ p x− y (k )]


k =0

f9 − HXY1
12) Medida de Correlação (1) f12 =
max{HX , HY }

13) Medida de Correlação (2) f13 = 1 − exp[−2 ⋅ ( HXY 2 − f9 )]

14) Coeficiente de correlação máxima f 14 = segundo maior auto - valor de Q

Notação: p (i, j ) = pd (i , j ) HX e HY são entropias de px e py


Ng Ng Ng N g

p x (i ) = ∑ p(i, j ) p y ( j ) = ∑ p (i, j ) HXY1 = −∑∑ p (i, j ) ⋅ log[ p x (i ) ⋅ p y ( j )]


j =1 i =1 i =1 j =1
Ng Ng Ng Ng
Ng Ng
p x + y (k ) = ∑∑ p (i, j ) p x − y (k ) = ∑∑ p (i, j ) HXY 2 = −∑∑ p x (i ) ⋅ p y ( j ) ⋅ log[ p x (i ) ⋅ p y ( j )]
i =1 j =1 i =1 j =1
i =1 j =1
i+ j =k |i − j| = k

Ng
p (i, k ) ⋅ p ( j , k )
Q = −∑
k =1 p x (i) ⋅ p y ( k )
µx, µy e σx, σy são as médias e os desvios padrões de px e py

69
2.6.2 Medidas de Região

2.6.2.1 Tamanho

As medidas de tamanho constituem-se nas medidas geométricas básicas dos

objetos, como sua área e perímetro. A seguir, são apresentadas as principais medidas de

tamanho. A Figura 45 mostra um objeto exemplo a partir do qual as medidas de tamanho

são ilustradas.

Figura 45. Objeto exemplo para ilustrar as medidas de tamanho.

A área é uma medida fácil e rápida para o computador, ela é obtida pela simples

contagem dos pixels do objeto na imagem segmentada (Figura 46-a). Uma variante da área

é a área preenchida (filled area), que, da mesma forma, é obtida simplesmente contando-se

os pixels, só que, neste caso, incluindo-se a área dos “buracos” do objeto (Figura 46-b).

Uma outra medida é a área convexa (taut string area), que consiste na área obtida

após tornar o objeto convexo. Tal medida é equivalente à área definida por um elástico

passado em torno do objeto (Figura 46-c).

(a) (b) (c)

Figura 46. Medidas de área: (a) área; (b) área preenchida; e (c) área convexa.

Diferentemente da área, o perímetro é uma medida mais complicada de ser

realizada, pois a “pixelização” da imagem implica grandes erros. Uma aproximação do

perímetro de um objeto pode ser obtida diretamente de seu contorno. “Andando-se” sobre o

70
contorno do objeto e contando-se os passos horizontais, verticais e diagonais dados de cada

pixel para o seguinte, calcula-se aproximadamente o perímetro pela seguinte expressão:

P = N + Nd , (71)

onde N é o número de passos horizontais ou verticais e Nd é o número de passos diagonais.

Existem formas mais acuradas, porém mais complexas, de se medir o perímetro de

um objeto, reduzindo o impacto da “pixelização”. Uma em especial, muito comum em

analisadores de imagem, é o perímetro Crofton (Friel, 2000).

É importante ressaltar que na medida do perímetro (Figura 47-a), os perímetros

dos “buracos” do objeto também são considerados. E há, ainda, os perímetros preenchido

(Figura 47-b) e convexo (Figura 47-c), que são, respectivamente, os equivalentes de

perímetro às áreas preenchida e convexa.

(a) (b) (c)

Figura 47. Medidas de perímetro: (a) perímetro; (b) perímetro preenchido; e (c) perímetro
convexo.

Outras medidas comuns são os aspectos, também chamados calibres, Feret

diameters, ou simplesmente ferets. Eles equivalem às projeções ou sombras do objeto em

diferentes direções, e, assim, caracterizam suas dimensões externas. Os principais ferets são

o feret mínimo (Figura 48-a), também denominado breadth, e o feret máximo (Figura 48-

b). Como será visto mais adiante, a razão entre eles constitui-se numa boa medida de

alongamento. No entanto, como estes ferets nem sempre são ortogonais entre si, há ainda

um outro importante, o feret ortogonal ao máximo (Figura 48-c). Os ângulos destes ferets

também são medidas comumente utilizadas, o ângulo do feret máximo constitui-se numa

medida de orientação do objeto.

71
(a) (b) (c)

Figura 48. Ferets: (a) feret mínimo; (b) feret máximo; e (c) feret ortogonal ao máximo.

O diâmetro do maior círculo inscrito, também denominado maximum width ou

simplesmente width, é uma medida da “largura” do objeto. Como mostrado na Figura 49,

width é calculado, a partir do Mapa de Distâncias Euclidianas (EDM) do objeto, como o

dobro de sua intensidade máxima.

Figura 49. Width.

2.6.2.2 Forma

Não existe uma definição universal de forma suficientemente genérica para

descrever a forma de qualquer objeto. Intuitivamente, a forma de um objeto é descrita por

comparação a outro ou através de características do seu contorno. Assim, em PADI, a

forma de um objeto é caracterizada através de parâmetros que quantificam o afastamento da

forma do objeto em relação a de um modelo teórico ou que denotam alguma propriedade

característica de seu contorno.

Tais parâmetros são chamados parâmetros descritores de forma e, por princípio,

devem ser independentes do tamanho, posição e rotação dos objetos na imagem. Existem

dois tipos principais de parâmetros descritores de forma: fatores adimensionais de forma e

medidas de contorno (Gomes & Paciornik, 2001).

72
Os fatores adimensionais de forma são parâmetros adimensionais derivados das

medidas geométricas básicas (área, perímetro, calibres, etc.). Eles variam geralmente entre

0 e 1, sendo 1 para formas padrões, como formas geométricas regulares, e 0 para formas

irregulares. Tanto as formas padrões, quanto o modelos teóricos que as definem, podem ser

os mais variados. Assim, pode-se definir inúmeros fatores adimensionais de forma.

Tendo o círculo, definido a partir da área (A) e do perímetro (P), como modelo de

forma padrão, define-se o fator de forma circular (FFC), como:

4 ⋅π ⋅ A
FFC = . (72)
P2

É facilmente notável que FFC vale 1 para objetos circulares e apresenta valor menor para

objetos com outras formas, pois qualquer outra forma possui maior perímetro para a mesma

área. Por ser fortemente dependente do perímetro, o FFC é uma medida da suavidade do

contorno.

Caso se deseje um fator de forma circular mais sensível ao alongamento do objeto

e menos dependente da suavidade de seu contorno, pode-se utilizar a circularidade (FFCc),

que é um fator de forma circular calculado a partir da área e do feret máximo (Fmax), como

mostrado a seguir:

4⋅ A
FFCc = . (73)
π ⋅ Fmax 2

Do mesmo modo, FFCc vale 1 para objetos circulares e menos do que 1 para objetos com

outras formas, pois qualquer outra forma, tendo o mesmo feret máximo, possui menor área.

Muitos outros fatores de forma circular ainda podem ser definidos, visando dosar

as sensibilidades à suavidade do contorno e ao alongamento do objeto. Em (Gomes &

Paciornik, 2001), é definido o fator de forma circular modificado (FFCm) e, em (Grum &

Šturm, 1995), é proposto um outro, aqui designado FFCg, calculados, respectivamente,

como:

73
4⋅ A
FFCm = ; (74)
P ⋅ Fmax

16 ⋅ A
FFCg = . (75)
π ⋅ P ⋅ Fmax 3

A fim de se caracterizar a forma de um objeto a partir do conceito de alongamento,

são utilizados alguns fatores adimensionais de forma mais genéricos, que não visam

comparar sua forma a um modelo específico. Assim, é definida a razão de aspectos (RA),

que é calculada como a razão entre os ferets mínimo (Fmin) e máximo (Fmax), como

mostrado a seguir:

Fmin
RA = . (76)
Fmax

A RA é inversamente proporcional ao alongamento, sendo igual a 0 quando ele tende ao

infinito.

Um fator adimensional de forma sensível ao alongamento e à presença de

ramificações pode ser definido como uma razão de aspectos modificada (RAm), onde o

feret mínimo (Fmin) é substituído pelo diâmetro do maior círculo inscrito, width (W), de

modo que:

W
RAm = . (77)
Fmax

A sensibilidade à ramificação ainda é mais acentuada no fator adimensional de

forma, aqui chamado fator de ramificação (FR), definido como a razão entre width (W) e o

feret mínimo (Fmin), como mostrado a seguir:

W
FR = . (78)
Fmin

Aumentando-se a ramificação de um objeto, Fmin cresce mais aceleradamente que W. É

fácil perceber que FR também é sensível ao encurvamento, pois, apresentando um mesmo

valor de W, formas mais encurvadas possuem um maior Fmin.

74
Também é comum descrever um objeto como côncavo ou convexo. Para isso,

existem dois fatores adimensionais de forma, a convexidade (Conv) e a solidez (Sol), que

são definidos, respectivamente, como a razão entre o perímetro convexo (Pc) e o perímetro

(P) e como a razão entre a área (A) e a área convexa (Ac), de modo que:

Pc
Conv = ; (79)
P

A
Sol = . (80)
Ac

Ambos valem 1 para um objeto convexo e diminuem com a presença de concavidades. A

solidez é mais sensível a presença de ramificações finas e longas, enquanto a convexidade,

por depender do perímetro, é mais sensível à suavidade do contorno.

A Tabela 3 lista os principais fatores adimensionais de forma, mostrando suas

definições e características a que são mais sensíveis.

75
Tabela 3. Fatores Adimensionais de Forma

Nome Definição Sensibilidade


4 ⋅π ⋅ A
Fator de Forma Circular FFC = suavidade do contorno
P2

4⋅ A
Circularidade FFCc = alongamento
π ⋅ Fmax 2

4⋅ A alongamento e
Fator de Forma Circular Modificado FFCm =
P ⋅ Fmax suavidade do contorno

16 ⋅ A alongamento e
Fator de Forma Circular de Grum FFCg =
π ⋅ P ⋅ Fmax 3 suavidade do contorno

Fmin
Razão de Aspectos RA = alongamento
Fmax

W alongamento e
Razão de Aspectos Modificada RAm =
Fmax ramificação

W ramificação e
Fator de Ramificação FR =
Fmin encurvamento

Pc concavidade e
Convexidade Conv =
P suavidade do contorno

A concavidade e
Solidez Sol =
Ac ramificações finas e longas

Na Figura 50, adaptada de (Russ, 1991), pode-se observar a influência das

propriedades de alongamento e suavidade do contorno em alguns fatores adimensionais de

forma. Nota-se que os objetos à esquerda (A, C e E) são facetados, enquanto que os à

direita (B, D e F) possuem contornos mais suaves. Assim, o fator de forma circular

apresenta valores próximos a 0,32 para A, C e E, e valores maiores, próximos a 0,47, para

B, D e F. Além disso, o alongamento dos objetos diminui de cima para baixo, de modo que

há claramente três níveis de circularidade e razão de aspectos, característicos para os pares

A e B; C e D; e E e F.

76
A B
A B C D E F

Fator de forma circular 0,31 0,45 0,33 0,47 0,32 0,48

Circularidade 0,26 0,28 0,50 0,50 0,62 0,65


C D
Razão de aspectos 0,28 0,28 0,50 0,50 0,56 0,59

E F

Figura 50. Comparação de fatores adimensionais de forma.

É importante ressaltar que os nomes e definições destes fatores adimensionais de

forma variam na literatura (Russ, 1995).

As medidas de contorno, o segundo tipo principal de parâmetros descritores de

forma, são funções calculadas a partir da posição e raio (distância ao centro de gravidade

do objeto) de cada pixel do contorno e de medidas geométricas básicas. Elas são

computacionalmente mais complexas que os fatores adimensionais de forma. E, devido a

sua natureza, são geralmente mais sensíveis a irregularidades do contorno (Gomes &

Paciornik, 2001).

A partir das posições dos pixels do contorno, define-se a curvatura (Ci), que é um

parâmetro que descreve a variação de direção do contorno de um objeto, calculado pixel a

pixel como:

Ci = (2 ⋅ xi − xi−1 − xi+1 )2 + (2 ⋅ yi − yi−1 − yi+1 )2 , (81)

onde xi e yi são as coordenadas do i-ésimo pixel do contorno. Assim, define-se uma medida

de contorno, a chamada energia de curvatura (EC), como a média quadrática da curvatura

normalizada pela extensão do contorno, o perímetro (P), de modo que:

1 N 2
EC = ⋅ ∑ Ci , (82)
P i =1

onde N representa o número de pixels do contorno.

77
A partir dos raios dos pixels do contorno, são definidas outras medidas de

contorno, como o raio médio ( R ), a variância dos raios (VR) e a dispersão dos raios em

torno da média (DR), como mostrado, respectivamente, a seguir:

1 N
R= ⋅ ∑ Ri ; (83)
N i =1

⋅ ∑ (Ri − R ) ;
1 N
VR = (84)
N i =1

VR
DR = ; (85)
R2

onde Ri é o raio do i-ésimo pixel do contorno, calculado de acordo com a expressão

seguinte:

Ri = (xi − xG )2 + ( yi − yG )2 , (86)

onde xG e yG são as coordenadas do centro de gravidade do objeto.

Em (Gomes & Paciornik, 2001), é proposta uma medida de contorno, aqui

designada MCg, definida como:

VR 1
MCg = ⋅ . (87)
( Fmax − R ) FFCm
2

Medidas de contorno mais complexas podem ser definidas a partir de uma técnica

chamada análise de assinatura de contorno, que consiste em estender o contorno do objeto,

representando-o como uma função, para então analisá-la. A assinatura mais comum é a

assinatura angular de contorno, que é definida como o raio de cada pixel do contorno em

função de seu ângulo. No entanto, caso os objetos tenham reentrâncias, esta função não será

unívoca. Então, deve ser utilizada uma assinatura seqüencial, onde a abscissa é formada

pela posição seqüencial dos pixels ao longo do contorno e a ordenada marca o raio ou o

ângulo de cada pixel do contorno. A Figura 51 mostra a obtenção da assinatura seqüencial

de contorno de um objeto exemplo, uma partícula de grafita num ferro fundido cinzento.

78
35,0 D
B
30,0

25,0

20,0

Raio
15,0

10,0 A A

5,0
C
0,0
0 20 40 60 80 100 120 140
Pixel

Figura 51. Assinatura seqüencial de contorno.

Muitos parâmetros podem ser extraídos da análise de uma função de assinatura de

contorno. No entanto, devido a sua natureza, tal função é discreta e periódica, onde o

período é o próprio número de pixels do contorno. Assim, a análise é geralmente realizada

expandindo-se esta função em série de Fourier, obtendo-se seus coeficientes, a partir dos

quais são calculados os descritores de Fourier.

2.6.2.3 Posição

A posição de um objeto numa imagem é descrita principalmente pelas

coordenadas de seu centro de gravidade e por medidas relativas ao retângulo circunscrito,

como as coordenadas dos pixels mais em cima, mais em baixo, mais a esquerda e mais a

direita do objeto, como mostrado na Figura 52.

Figura 52. Medidas de posição.

A partir das medidas de posição de cada objeto na imagem, pode-se definir

parâmetros descritivos da posição relativa entre os objetos. Tais parâmetros são

79
considerados medidas de textura em imagens segmentadas e são geralmente utilizados para

caracterizar a dispersão dos objetos na imagem. Na seção 2.6.1.5, são listadas algumas

técnicas de caracterização da dispersão de objetos.

2.6.2.4 Intensidade

As medidas de intensidade de regiões visam caracterizar os objetos na imagem a

partir dos tons de cinza de seus pixels, assim, para a realização destas medidas são

necessárias as imagens segmentada e em tons de cinza. A imagem segmentada funciona

como uma máscara que determina os objetos, delimitando as regiões correspondentes na

imagem em tons de cinza, sobre as quais são feitas as medidas de intensidade.

Tais medidas são parâmetros estatísticos simples, como os tons de cinza mínimo e

máximo, o tom de cinza médio (brilho) e o desvio padrão dos tons de cinza (contraste). De

fato, são as mesmas medidas de intensidade utilizadas como medidas de campo (seção

2.6.1.4), só que, neste caso, são calculadas separadamente para cada região da imagem

correspondente a um objeto.

2.6.2.5 Textura

Assim como ocorre com as medidas de intensidade, as medidas de textura de

regiões são as mesmas medidas utilizadas como medidas de campo (seção 2.6.1.5).

As técnicas de caracterização de textura em imagens segmentadas podem ser

usadas para caracterizar a textura de “buracos” em regiões, como inclusões ou poros em um

material.

As técnicas de caracterização de textura em imagens em tons de cinza

caracterizam, na imagem em tons de cinza, a textura das regiões delimitadas numa imagem

binária, exatamente como no caso das medidas de intensidade.

80
2.7 Reconhecimento de Padrões e Classificação

A etapa de reconhecimento de padrões e classificação é a etapa final da seqüência

padrão de PADI. Nela é feito o tratamento dos dados quantitativos obtidos na etapa de

extração de atributos, interpretando-os, de modo a fornecer um resultado de mais alto nível.

Assim, esta etapa constitui-se numa transformação de informação em conhecimento.

O reconhecimento de padrões visa construir uma representação mais simples de

um conjunto de dados, através de suas características mais relevantes, possibilitando sua

divisão em classes. Em PADI, as técnicas de reconhecimento de padrões e classificação

podem ser usadas para classificar os objetos em uma imagem. A partir dos atributos dos

objetos, constrói-se um espaço de atributos (espaço de características), onde cada objeto é

representado por um vetor, formado por seus atributos, que assume a forma de um ponto

neste espaço. Então, a classificação dos objetos é feita através da análise do posicionamento

destes pontos no espaço de características.

Existem dois tipos de classificação: supervisionada e não-supervisionada. Na

classificação supervisionada (Figura 53), as classes são definidas por padrões conhecidos,

de modo que um objeto é atribuído a uma classe de acordo com sua proximidade aos

padrões conhecidos de cada classe no espaço de características. Já na classificação não-

supervisionada (Figura 54), não há nenhuma informação sobre as classes e a classificação é

feita através da busca de clusters, agrupamento de pontos próximos, no espaço de

características.

81
15
objeto desconhecido,
provavelmente classe verde
10

Atributo 2
5

0
0 5 10 15

Atributo 1

Figura 53. Classificação supervisionada.

15 15

10 10

Atributo 2
Atributo 2

5 è 5

0 0
0 5 10 15 0 5 10 15

Atributo 1 Atributo 1

Figura 54. Classificação não-supervisionada.

Este trabalho considera apenas a classificação supervisionada.

2.7.1 Classificação Supervisionada

A classificação supervisionada atribui uma classe a um objeto desconhecido

através de uma medida de similaridade de suas características com as características de

objetos padrões conhecidos. Assim, classificação supervisionada demanda:

• um conjunto de treinamento, conjunto de objetos padrões conhecidos,

rotulados, para representar as classes;

• um conjunto de características, conjunto de atributos que define o espaço de

características; e

• um classificador, que é o algoritmo que realiza as medidas de similaridade.

82
2.7.1.1 Conjunto de treinamento

O conjunto de treinamento é um conjunto constituído por objetos padrões

conhecidos rotulados (previamente classificados). Ele deve ser grande o suficiente para ter

uma boa estatística, minimizando o efeito de ruídos, e deve apresentar grande variabilidade

dentro de cada classe para representar bem as diversas classes.

2.7.1.2 Conjunto de características

O conjunto de características é o conjunto de atributos que define o espaço de

características. Deve ser um conjunto de atributos que caracterize bem os objetos,

agrupando os objetos similares e separando os distintos. No entanto, o conjunto de

características precisa ser robusto para agrupar as diferenças dentro de cada classe e

sensível bastante para discriminar essas classes. Assim, os atributos do conjunto de

características são escolhidos visando a separação das classes para possibilitar a

classificação.

Na prática, raramente um único atributo é suficiente para distinguir duas ou mais

classes, sendo geralmente utilizados vários atributos. Por outro lado, a adição de mais

atributos ao conjunto de características não significa sempre uma melhora da classificação.

O aumento da dimensionalidade do espaço de características torna necessário, a fim de

manter-se uma boa estatística, o aumento do conjunto de treinamento, o que nem sempre é

possível (Raudys & Jain, 1991). Além disso, um grande conjunto de características pode

reduzir a generalidade do sistema de classificação. Deste modo, deve-se utilizar o menor

conjunto de características possível, combinando e/ou selecionando atributos dentre os

atributos disponíveis.

A técnica clássica de combinação de atributos é a análise de componentes

principais (PCA), que constrói atributos a partir da combinação linear de outros que

maximiza a variância entre as classes.

83
A seleção dos atributos, para formar o conjunto de características ótimo, pode ser

feita através da busca exaustiva do conjunto que atinja a melhor taxa de acerto para a

classificação. Na prática, quando se tem um grande número de atributos disponíveis, não é

factível o teste de todos os conjuntos possíveis, sendo, então, buscado um conjunto sub-

ótimo. Neste sentido, a busca do melhor conjunto a partir daqueles atributos que sozinhos

apresentam as melhores taxas de acerto nem sempre dá bons resultados. Métodos de busca

de conjuntos sub-ótimos fogem do escopo deste trabalho. Diversas referências podem ser

encontradas na literatura (Kudo & Skalansky, 2000).

2.7.1.3 Classificador

O classificador é o algoritmo que mensura a similaridade entre os objetos e entre

estes e as classes. Existem dois tipos principais de classificador: estatístico (não-

paramétrico e paramétrico) e conexionista (redes neurais).

Os classificadores não-paramétricos são os mais simples, eles utilizam uma função

de distância para determinar as fronteiras de decisão que dividem o espaço de

características em sub-espaços, discriminando as classes. Os classificadores não-

paramétricos mais comuns são os classificadores de Distância Euclidiana e de

Mahalanobis.

O classificador de Distância Euclidiana determina as fronteiras de decisão a partir

das distâncias euclidianas entre os centróides de cada classe no espaço de características.

Devido à sua natureza radial, este classificador só apresenta bons resultados quando os

clusters, que representam as classes, são convexos. Tal problema é minimizado com a

utilização do classificador de Mahalanobis, pois este leva em consideração a forma dos

clusters.

84
Os classificadores paramétricos discriminam as classes através da estimativa de

parâmetros da distribuição dos pontos de cada classe no espaço de características, como a

densidade de probabilidade (classificador de Bayes).

As redes neurais são classificadores mais complexos, inspirados na estrutura

neural de organismos inteligentes, que aprendem através da experiência.

2.7.1.4 Etapas da classificação supervisionada

Um procedimento de classificação supervisionada consiste em três etapas:

treinamento, validação e classificação. Treina-se o sistema com os padrões do conjunto de

treinamento e faz-se sua validação através da classificação de um conjunto de objetos

conhecidos. A partir de então, o sistema está pronto para a classificação, propriamente dita,

de objetos desconhecidos.

O treinamento prepara o sistema para a classificação. A partir do classificador e do

conjunto de treinamento, são determinadas funções discriminantes, que são as fronteiras de

decisão que dividem o espaço de características em sub-espaços, que representam, cada um,

uma classe.

A validação mede a qualidade do sistema e verifica sua capacidade de

generalização. É realizada através do cálculo da taxa de acerto da classificação de um

conjunto de objetos conhecidos (conjunto de validação) diferentes dos objetos do conjunto

de treinamento. No entanto, quando o número de objetos conhecidos disponíveis é

pequeno, privilegia-se a formação do conjunto de treinamento, sendo a validação feita

através da classificação do próprio conjunto de treinamento (auto-validação), mas, neste

caso, há apenas uma estimativa da qualidade do sistema.

85
3 Análise da Mesoestrutura de Bambus

3.1 Introdução

Os bambus são plantas encontradas em abundância nas regiões tropicais da Ásia e

América Latina, sendo largamente utilizadas principalmente pelas suas populações rurais.

Muitas são as aplicações dos bambus, dentre as quais destacam-se seu uso como material

de construção (material estrutural, de vedação e mobiliário), como dutos para irrigação e

distribuição de água e na alimentação (rizoma).

Recentemente, o estudo dos bambus como material estrutural vem exercendo um

interesse crescente entre engenheiros, arquitetos e pesquisadores, pois, além de ser um

recurso renovável, os bambus podem propiciar outras vantagens. Utilizado em substituição

ao aço em estruturas de concreto armado, os bambus apresentam menores custo e peso para

uma mesma capacidade de carga. Uma outra linha de pesquisa estuda a introdução de fibras

vegetais, de bambus e outras plantas, no cimento, o que geralmente proporciona maior

ductilidade e maiores resistência à fratura, impacto e compressão.

Apesar da extensa gama de aplicações dos bambus, a maioria ainda é realizada

empiricamente nas áreas rurais, havendo conhecimento apenas parcial de características

fundamentais, como crescimento, reprodução e taxionomia (Rao, 1987). Contudo, uma

utilização mais científica dos bambus, como na indústria da construção civil, depende

substancialmente de sua classificação, pois existem inúmeras espécies de bambu, muito

diferentes entre si.

Tradicionalmente, a classificação dos bambus é realizada de forma visual com

base em algumas características anatômicas macroscópicas (pontas dos colmos, bainhas dos

colmos e folhas) e microscópicas (conjuntos vasculares), Figura 55.

86
(b) bainhas dos colmos
(d) conjuntos vasculares
(a) ponta dos
colmos
(c) folhas

Figura 55. Características anatômicas do bambu usadas para sua classificação.

No entanto, a inspeção visual destas características anatômicas é um procedimento

subjetivo e lento, que não é adequado para o uso em grande escala na indústria e que nem

sempre é possível. Assim, este trabalho propõe um método automático, baseado em

técnicas de PADI, para a caracterização da mesoestrutura de bambus através da análise de

seções retas de colmos, observadas ao microscópio óptico. Trata-se de um procedimento de

classificação supervisionada para reconhecimento dos tipos dos conjuntos vasculares,

visando a diferenciação entre espécies de bambu.

Observando-se a olho nu (Figura 56-a) uma seção reta de um colmo de bambu,

nota-se que este é constituído de duas fases, de modo que os bambus podem ser

considerados como um material compósito, formado por longas e alinhadas fibras imersas

em uma matriz. No entanto, ao observar-se parte da mesma seção reta através de um

microscópio óptico (Figura 56-b), percebe-se que o que a princípio é visto como uma fibra

é na verdade um conjunto vascular composto por vasos e fibras. A Figura 57 mostra duas

imagens obtidas em MEV, extraídas de Liese (Liese, 1987), onde vê-se em detalhe estas

estruturas.

87
(a)

(b)

Figura 56. Seção reta de um colmo de bambu a olho nu (a) e numa lupa (b).

parênquima

vasos

esclerênquima

Figura 57. Detalhes da estrutura dos bambus.

Os conjuntos vasculares integram os tecidos de condução e os de resistência

mecânica. Os vasos têm como função o transporte de nutrientes da raiz às demais partes da

planta e, como os bambus possuem estrutura bastante esbelta, estes são reforçados por um

tecido (esclerênquima), composto por micro-fibras de celulose, que é responsável pela

88
resistência do bambu. Já a matriz do compósito bambu é formada por um tecido

denominado parênquima, constituído de lignina.

Segundo Taihui & Wenwei (Taihui & Wenwei, 1987), os conjuntos vasculares

podem ser divididos em sete tipos, de acordo com o modo como as regiões de

esclerênquima se arranjam em torno dos vasos. Na Figura 58, pode-se ver desenhos

produzidos por Taihui & Wenwei, que mostram estes sete tipos de conjunto vascular.

1. Não-diferenciado

2. Semi-diferenciado

3. Double-broken

4. Broken

5. Slender waist

6. Open

7. Semi-open

Figura 58. Classes de conjuntos vasculares.

Dentre estes, os tipos não-diferenciado e semi-diferenciado são comuns a todas as

espécies, ocorrendo nas regiões da espessura próximas à superfície externa do colmo dos

bambus. Assim, visando a diferenciação entre espécies de bambu, utilizou-se somente os

demais cinco tipos como classes de conjuntos vasculares. Extraindo-se alguns conjuntos

vasculares dos desenhos de Taihui & Wenwei (Figura 58), foram produzidas cinco imagens

para formar o conjunto de treinamento (Figura 59).

89
Classe I – Double-broken

Classe II – Broken

Classe III – Slender-waist

Classe IV – Open

Classe V – Semi-open

Figura 59. Conjunto de treinamento.

3.2 Métodos Experimentais

3.2.1 Treinamento e Validação

A princípio pensou-se em dois atributos, o número de regiões de esclerênquima do

conjunto vascular e a razão entre área da maior região de esclerênquima e a área convexa

das regiões como um todo.

O primeiro atributo é óbvio, pois das cinco classes de conjunto vascular, apenas

duas têm o mesmo número de regiões de esclerênquima, open e slender-waist, que possuem

quatro. Além disso, este é um atributo discreto e que só pode assumir quatro valores (2, 4, 5

e 6). Qualquer conjunto vascular que apresente um outro número de regiões de

esclerênquima constitui-se num erro, devendo portanto eliminado.

90
O segundo atributo tem por objetivo justamente a separação das classes open e

slender-waist no espaço de características. Ele foi desenvolvido baseado na observação de

duas características que são diferentes nestas classes. Os conjuntos vasculares da classe

slender-waist são mais “densos”, apresentam mais área de esclerênquima por área de

conjunto vascular. Além disso, os conjuntos vasculares da classe slender-waist possuem

uma região de esclerênquima com área bem superior às demais.

Em seguida, notou-se que a soma destes dois atributos formaria um atributo capaz

de classificar sozinho os conjuntos vasculares. Assim, a classificação foi feita empregando

somente este atributo único (AU):

área da maior região


AU = número de regiões + . (88)
área convexa das regiões como um todo

O classificador utilizado foi o de Distância Euclidiana. O conjunto de treinamento

foi composto pelas cinco imagens da Figura 59. E a validação foi feita com o próprio

conjunto de treinamento (auto-validação).

3.2.2 Classificação

Foram retiradas amostras dos colmos de oito indivíduos de quatro espécies

diferentes de bambu, vulgarmente conhecidas como Áurea, Gigante, Matake e Moso,

totalizando oito amostras, duas por espécie. As amostras foram preparadas por lixamento

(lixas no 400, 600 e 1000) e polimento (alumina, 6mm). Então, observou-se as amostras em

uma lupa com 6x de magnificação e suas imagens (1 campo por amostra) foram captadas

por uma câmera de vídeo, ligada a um computador PC através de uma placa digitalizadora

de vídeo (frame grabber). As 8 imagens digitais obtidas foram então processadas e

analisadas com o software KS400 (Carl Zeiss Vision, 1998).

A rotina de processamento e análise das imagens das seções retas de bambus é

complexa, pois os objetos a serem medidos e classificados, os conjuntos vasculares, são

91
objetos formados, não por uma única região branca cada, mas por conjuntos de regiões

brancas separadas. Assim, a seqüência padrão de PADI não é a forma mais simples de

representação desta rotina. Então, seu fluxograma foi organizado em etapas conforme

objetivos mais específicos do problema, como mostrado na Figura 60.

Imagens digitais das amostras

Segmentação do bambu

Escamação do bambu

Segmentação dos
conjuntos vasculares

Segmentação das
regiões de esclerênquima

Extração dos atributos

Classificação

Figura 60. Fluxograma da rotina de classificação de conjuntos vasculares.

A seguir, descreve-se em detalhe estas etapas, utilizando como exemplo uma

amostra da espécie Moso.

3.2.2.1 Segmentação do bambu

A primeira etapa da rotina de processamento e análise das imagens dos bambus é a

segmentação do bambu, que consiste em separar o bambu do resto da imagem, o fundo.

Para isso, buscou-se algo existente em todo o bambu e que não há no fundo. Como pode ser

visto na Figura 61, o que basicamente o diferencia o bambu do fundo é a alta freqüência

espacial no bambu, formada pelas bordas entre a matriz e o fundo e entre a matriz e as

92
regiões de esclerênquima. Assim, decidiu-se pela segmentação das bordas, seguida de

operações de pós-processamento (dilatação entre outras), para uni-las de modo a formar a

imagem binária do bambu.

3 mm

Figura 61. Imagem capturada em 256 tons de cinza.

Para que as extremidades da imagem não afetem as operações de dilatação das

bordas, “expande-se” a imagem em tons de cinza (Figura 62). É criada uma imagem

completamente preta (todos os pixels iguais a zero) de tamanho maior que a imagem

original. Então, a imagem original, em si, é colocada em seu centro. O problema é que isto

gera alta freqüência espacial no fundo, entre o fundo original e o novo fundo, que é

totalmente preto. Assim, antes da “expansão” da imagem, obtém-se uma imagem

aproximada do fundo original e mede-se seu tom de cinza médio. Aí, a fim de minimizar a

freqüência espacial entre o fundo original e o novo, pinta-se o novo fundo da imagem

“expandida” com o tom de cinza médio do fundo original, como mostrado na Figura 62.

93
è

Figura 62. “Expansão” da imagem do bambu.

A imagem aproximada do fundo original é obtida através de uma segmentação

grosseira do bambu. A partir da imagem em 256 tons de cinza do bambu (Figura 63-a),

procede-se a uma segmentação de Otsu (Figura 63-b) seguida por operações morfológicas

(dilatação, hole filling e erosão). Desta forma, gera-se uma imagem binária (Figura 63-c)

cujo negativo é uma aproximação do fundo, boa o suficiente para se medir seu tom de cinza

médio.

(a) (b) (c)

Figura 63. Segmentação grosseira do bambu.

Preparada a imagem “expandida” (Figura 62), aplica-se um filtro passa-baixa

seguido pelo filtro Sobel e segmenta-se a imagem obtida através de uma segmentação

adaptativa, obtendo-se a imagem binária das bordas (Figura 64).

94
Figura 64. Imagem binária das bordas.

Mesmo com uso do passa-baixa, esta imagem binária ainda contém muitos

artefatos no fundo, necessitando assim de uma “limpeza”. Procede-se a uma segmentação

adaptativa da imagem “expandida” original, gerando-se uma imagem binária (Figura 65-a).

Sobre esta, são feitas operações morfológicas (fechamento, hole filling e scrapping) para

fechar seus “buracos”, obtendo-se uma outra imagem binária (Figura 65-b), já bem próxima

da imagem binária do bambu, mas que apresenta erros nas bordas entre o bambu o fundo.

Esta imagem serve então como marcador numa operação de extração de objetos marcados

(object marking) com a imagem binária das bordas (Figura 64), de modo a gerar uma

imagem binária “mais limpa” das bordas (Figura 65-c).

(a) (b) (c)

Figura 65. “Limpeza” da imagem binária das bordas.

95
Então, a partir desta imagem binária “mais limpa” das bordas (Figura 65-c), faz-se

uma dilatação lateral radical (Figura 66-a) e preenche-se os “buracos” restantes através de

operações de fechamento e hole filling (Figura 66-b). Daí, procede-se a uma erosão lateral,

de igual tamanho ao da dilatação, de modo a preservar o tamanho original do bambu,

obtendo-se a imagem binária da Figura 66-c. Aí, corta-se esta imagem para que ela fique do

tamanho original, obtendo-se a imagem binária do bambu (Figura 67).

(a) (b) (c)

Figura 66. União das bordas.

Figura 67. Imagem binária do bambu.

3.2.2.2 Escamação do bambu

Obtida a imagem binária do bambu, parte-se para a sua escamação. A divisão do

bambu em camadas é necessária, pois os conjuntos vasculares variam em forma e tamanho

através de sua espessura. Então, após classificar cada conjunto vascular, determina-se a ou

96
as classes de conjunto vascular típicas de cada camada, caracterizando-se assim a variação

das classes de conjunto vascular através da espessura do colmo do bambu.

Foi arbitrado que dividir o colmo do bambu em oito camadas seria o suficiente. As

seis camadas mais internas, as de cima nas imagens, seriam usadas para caracterizar a

variação dos conjuntos vasculares através da espessura do colmo do bambu. As duas mais

externas, as de baixo nas imagens, foram ignoradas, pois geralmente contém de modo

predominante conjuntos vasculares dos tipos não-diferenciado e semi-diferenciado, tipos

não considerados na classificação.

Assim, a escamação se inicia com a geração da imagem de uma grade, formada

por linhas verticais igualmente espaçadas (10 pixels). Desta imagem, elimina-se as linhas

que não tocam o bambu e adiciona-se as linhas verticais que passam pelas extremidades

laterais do bambu. Aí, pinta-se cada linha da grade com o tom de cinza correspondente à

ordem em que ela aparece da esquerda para a direita (Figura 68-a), o que é necessário para

manter um registro do ordenamento das linhas, pois adiante estas são ligadas em ordem.

Para facilitar sua visualização, à Figura 68-a foi aplicada uma look-up table.

Então, aplica-se a imagem binária do bambu, como uma máscara, sobre a imagem

da grade pintada, gerando-se a imagem (Figura 68-b) onde se mede a posição (x, y mínimo

e y máximo) e a ordem (tom de cinza) de cada linha. A partir desses dados, liga-se pontos

intermediários (a 1/8, 2/8, 3/8, 4/8, 5/8 e 6/8) das linhas verticais, formando as curvas de

corte, com as quais obtém-se a imagem do bambu separado em camadas (Figura 68-c).

97
(a) (b) (c)

Figura 68. Escamação do bambu.

3.2.2.3 Segmentação dos conjuntos vasculares

À primeira vista, a segmentação dos conjuntos vasculares parece fácil. Entretanto,

como dito anteriormente, os conjuntos vasculares são objetos complexos, formados, cada

um, por um conjunto de regiões brancas separadas, as regiões de esclerênquima. Assim,

decidiu-se por construir os conjuntos vasculares através do agrupamento de regiões de

esclerênquima, a partir dos vales formados entre estas regiões, utilizando-se da

segmentação “Valleys” do KS400 (Carl Zeiss Vision, 1998). Os vales, no caso,

representam uma medida do espaçamento entre as regiões, de modo que vales mais

abruptos indicam uma maior proximidade entre duas regiões e vales mais suaves denotam

um maior afastamento.

No entanto, há uma grande variabilidade no tamanho, espaçamento e forma dos

conjuntos vasculares e regiões de esclerênquima. E isto acontece não só entre diferentes

espécies de bambu, mas também dentro de uma mesma amostra, fazendo-se necessário o

emprego de um procedimento de segmentação que seja robusto para abarcar toda esta

variabilidade.

Assim, a fim de realizar a segmentação dos conjuntos vasculares através do

agrupamento de regiões de esclerênquima e seus vales, desenvolveu-se um método de

98
segmentação recursiva a partir da segmentação “Valleys” do KS400 (Carl Zeiss Vision,

1998). O processo anda de modo que:

• as variáveis da segmentação “Valleys” e de algumas operações morfológicas

são parametrizadas por funções empíricas;

• as operações de segmentação são realizadas sucessiva e progressivamente de

acordo com estas funções;

• a cada ciclo de segmentação, a imagem resultante é avaliada e, caso não una

dois conjuntos vasculares, é adicionada às anteriores;

• o processo evolui na busca de uma otimização e pára quando não se consegue

mais agregar novos conjuntos vasculares;

• da imagem resultante dos diversos ciclos, elimina-se objetos muito pequenos

ou muito grandes (com área fora do desvio padrão), pois são provavelmente

erros diversos e não conjuntos vasculares;

• a imagem resultante é avaliada e, caso o tamanho dos conjuntos vasculares não

seja compatível com o tamanho das regiões de esclerênquima, o processo

recomeça do zero com novas condições iniciais, segundo as mesmas funções.

A seguir, segue-se os passos de um ciclo. A segmentação “Valleys” gera uma

imagem binária que, depois de passar por uma operação de dilatação, une regiões de

esclerênquima e vales (Figura 69-a). Algumas destas uniões formam anéis, cujos interiores

constituem “sementes” a partir das quais obtém-se os conjuntos vasculares. Assim, faz-se o

negativo desta imagem e elimina-se os objetos que tocam sua borda (border object killing),

obtendo-se a imagem binária das “sementes” (Figura 69-b).

Realiza-se uma segmentação de Otsu da imagem em tons de cinza do bambu,

gerando-se a imagem da Figura 69-c. Esta imagem serve então como marcador numa

operação de extração de objetos marcados (object marking) com a imagem das “sementes”,

99
de modo a eliminar as “sementes” que não tocam em regiões de esclerênquima, que

obviamente não são “sementes” de conjuntos vasculares. Aí, faz-se uma dilatação das

“sementes” e une-se esta imagem à imagem da segmentação de Otsu. Então, aplica-se, à

imagem resultante, uma operação de extração de objetos marcados, utilizando-se como

marcador a imagem das “sementes”. A imagem assim obtida passa por algumas operações

morfológicas (fechamento, hole filling e border object killing), gerando-se a imagem dos

conjuntos vasculares deste ciclo (Figura 69-d).

(a) (b) (c) (d)

Figura 69. Um ciclo de segmentação de conjuntos vasculares.

No caso da amostra que se vem acompanhando, bastaram três ciclos (Figura 70-a,

b e c) para se segmentar os conjuntos vasculares. Um quarto ciclo geraria erros na

segmentação (Figura 70-d).

(a) (b) (c) (d)

Figura 70. Resultados dos ciclos de segmentação de conjuntos vasculares.

100
Atingido o ponto ótimo da recursão (Figura 70-c), elimina-se os conjuntos

vasculares que tocam as bordas da imagem, com a operação border object killing,

resultando na imagem da Figura 71-a. Então, através de operações de scrapping, elimina-se

objetos muito pequenos ou muito grandes (com área fora do desvio padrão), que

provavelmente são erros diversos e não conjuntos vasculares, obtendo-se finalmente a

imagem dos conjuntos vasculares (Figura 71-b).

(a) (b)

Figura 71. Eliminação dos conjuntos vasculares que tocam as bordas da imagem ou que
possuem área fora do desvio padrão.

3.2.2.4 Segmentação das regiões de esclerênquima

A segmentação das regiões de esclerênquima começa com a segmentação de Otsu

da imagem em tons de cinza do bambu. Aí, faz-se a interseção desta imagem (Figura 72-a)

com a imagem dos conjuntos vasculares (Figura 72-b), obtendo-se a imagem da Figura 72-

c. O problema é que esta imagem geralmente contém muitos erros, como pequenos objetos

espúrios e regiões de esclerênquima coladas. Os objetos muito pequenos podem ser

facilmente eliminados com uma operação de scrapping, entretanto a separação das regiões

de esclerênquima coladas demanda um processamento mais complexo.

101
(a) (b) (c)

Figura 72. Segmentação das regiões de esclerênquima (primeira parte).

A primeira idéia para se separar as regiões de esclerênquima coladas foi usar o

método dos divisores de águas (watersheds), entretanto, neste caso, ele não é aplicável.

Devido à irregularidade dos contornos das regiões, efeito da má representação dos

contornos causada pela baixa resolução, o watersheds acaba por dividir regiões que não

precisam ser separadas. O emprego de um filtro passa-baixa antes do watersheds também

gera muitos erros, pois, devido ao tamanho reduzido de várias das regiões, ele tende a

eliminá-las.

Então, foi utilizada uma variante mais controlável do watersheds. Tal técnica,

como descrita na seção 2.5.3 (“Separação de objetos que se tocam”), consiste na realização

seguida de três operações (erosão, dilatação derradeira e interseção). Faz-se uma erosão de

alguns passos, aplica-se uma dilatação derradeira e procede-se à interseção da imagem

assim obtida com a imagem inicial dos objetos, gerando-se uma imagem onde alguns

objetos são separados.

Contudo, apesar do maior controle desta técnica variante, algumas regiões de

esclerênquima ainda continuavam sendo erroneamente divididas. Como as regiões de

esclerênquima são geralmente mais convexas que objetos formados pela união de duas ou

mais destas regiões, estabeleceu-se um limiar. Considerou-se, como regiões de

esclerênquima, todos os objetos com convexidade acima de 0,75 e solidez acima de 0,60,

102
retirando-os da imagem antes de se proceder à separação e retornando-os em seguida. De

maneira similar, objetos pequenos (com área entre 5 e 25 pixels) devem ser retirados da

imagem e retornados após o procedimento de separação dos objetos que se tocam.

Assim, a partir da imagem da interseção entre a imagem dos conjuntos vasculares

e a imagem obtida pela segmentação de Otsu (Figura 72-c), faz-se um scrapping para

eliminar objetos muito pequenos, com área menor ou igual a 5 pixels. Então, retira-se, da

imagem assim obtida, os objetos pequenos (com área entre 5 e 25 pixels) e os objetos mais

convexos (com convexidade acima de 0,75 e solidez acima de 0,60). Isto gera três imagens,

uma somente com os objetos pequenos (Figura 73-a), uma só com os mais convexos

(Figura 73-b) e uma outra onde eles foram excluídos (Figura 73-c). Nesta última, procede-

se à separação de objetos que se tocam, com a técnica variante do watersheds, utilizando-se

apenas um passo na erosão. Aí, por fim, a imagem resultante é somada à imagem dos

objetos pequenos e à dos mais convexos, gerando-se a imagem das regiões de

esclerênquima (Figura 73-d).

(a) (b) (c) (d)

Figura 73. Segmentação das regiões de esclerênquima (segunda parte).

3.2.2.5 Extração dos atributos

Como dito anteriormente, os conjuntos vasculares são objetos complexos,

formados, cada um, não por uma única região branca, mas por um conjunto de regiões

103
brancas separadas, as regiões de esclerênquima. Assim, para se proceder à extração dos

atributos, faz-se necessária ainda uma etapa de processamento, através da qual são

preparadas imagens mais fáceis de serem medidas.

Separa-se cada conjunto vascular em uma imagem diferente (Figura 74-a) e faz-se

a interseção de cada uma destas com a imagem das regiões de esclerênquima, obtendo-se

imagens com as regiões de esclerênquima de cada conjunto vascular (Figura 74-b). A partir

destas imagens, mede-se o número de regiões de esclerênquima, a área da maior região e as

coordenadas do primeiro pixel de cada região, varrida a imagem da esquerda para a direita,

de cima para baixo. Aí, para medir a área convexa das regiões como um todo, une-se as

regiões a partir do primeiro pixel de cada uma (Figura 74-c) e mede-se a área convexa deste

objeto assim formado.

(a) (b) (c)

Figura 74. Preparação de imagens fáceis de serem medidas.

Então, a partir destas medidas, calcula-se o atributo único (AU) usado para a

classificação dos conjuntos vasculares:

área da maior região


AU = número de regiões + . (89)
área convexa das regiões como um todo

Além disso, no intuito de, após a classificação dos conjuntos vasculares,

caracterizar as camadas do bambu, faz-se necessário determinar a que camada cada

conjunto vascular pertence. Assim, procede-se à interseção da imagem de cada conjunto

vascular com a imagem de cada camada, medindo-se as áreas de cada um em cada uma.

Então, atribui-se cada conjunto vascular à camada do bambu na qual ele tem maior área.

104
3.2.2.6 Classificação

Antes da classificação é feita uma “limpeza” na base de dados. Elimina-se os

conjuntos vasculares cujo número de regiões de esclerênquima difere dos valores possíveis

(2, 4, 5 e 6) e, também, os conjuntos vasculares não pertencentes a uma das seis camadas

mais internas, as de cima nas imagens. Visualmente, a Figura 75 mostra esta “limpeza”.

(a) (b)

Figura 75. “Limpeza” para a classificação.

Então, feita a “limpeza”, classifica-se cada conjunto vascular segmentado das oito

amostras em estudo.

3.3 Resultados e Discussões

Da Figura 76 à Figura 79, são mostrados os resultados da classificação das oito

amostras de bambu.

105
3 mm 3 mm

Classe (%) Classe (%)

Camada DB B SW O SO Camada DB B SW O SO
1 0 0 0 100 0 1 0 0 0 100 0
2 0 0 0 100 0 2 0 0 0 100 0
3 0 0 0 100 0 3 0 9 9 82 0
4 0 6 19 63 13 4 0 0 25 63 13
5 0 0 0 0 100 5 0 0 0 14 86
6 0 0 0 0 100 6 0 0 0 0 100

Figura 76. Classificação das amostras de bambu da espécie Áurea.

106
3 mm 3 mm

Classe (%) Classe (%)

Camada DB B SW O SO Camada DB B SW O SO
1 50 25 0 25 0 1 0 50 25 25 0
2 0 67 33 0 0 2 57 29 0 0 14
3 67 11 0 0 22 3 56 11 22 0 11
4 67 33 0 0 0 4 63 13 13 0 13
5 47 47 7 0 0 5 45 36 0 0 18
6 27 60 13 0 0 6 38 50 13 0 0

Figura 77. Classificação das amostras de bambu da espécie Gigante.

107
3 mm 3 mm

Classe (%) Classe (%)

Camada DB B SW O SO Camada DB B SW O SO
1 0 0 0 100 0 1 0 0 0 100 0
2 0 0 0 100 0 2 0 7 0 93 0
3 0 0 8 92 0 3 0 0 0 100 0
4 0 0 37 53 11 4 0 0 36 36 29
5 0 0 0 0 100 5 0 0 6 0 94
6 0 0 0 0 100 6 0 0 0 0 100

Figura 78. Classificação das amostras de bambu da espécie Matake.

108
3 mm 3 mm

Classe (%) Classe (%)

Camada DB B SW O SO Camada DB B SW O SO
1 0 20 0 80 0 1 0 0 0 100 0
2 0 5 0 95 0 2 0 0 0 100 0
3 0 0 0 100 0 3 0 5 0 89 5
4 0 4 0 83 13 4 0 0 19 56 25
5 0 0 0 6 94 5 0 0 0 0 100
6 0 0 0 0 100 6 0 0 0 0 100

Figura 79. Classificação das amostras de bambu da espécie Moso

A princípio, poder-se-ia pensar que as imagens de referência do conjunto de

treinamento representam uma limitação ao processo, pois são imagens sintéticas com

poucos elementos. No entanto, devido à alta especificidade do atributo utilizado, a auto-

validação do classificador forneceu taxas de acerto iguais a 100% para todas as classes e os

resultados obtidos, na classificação das amostras, foram satisfatórios .

A classificação dos conjuntos vasculares é consistente com uma análise visual e as

amostras de uma mesma espécie apresentam grande semelhança nas classes dos conjuntos

vasculares predominantes em cada camada do colmo. Contudo, houve algumas

109
discordâncias, principalmente nas amostras da espécie Gigante, o que é provavelmente

devido à pequena quantidade de conjuntos vasculares. Assim, a classificação de bambus

desta espécie e de outras, que contenham poucos conjuntos vasculares por camada,

demanda mais campos por seção reta do colmo, de modo a melhorar a estatística envolvida.

Tudo isso indica a possibilidade do desenvolvimento de um método de

classificação automática de bambus. Todavia, certamente seria necessária a utilização de

mais atributos e consequentemente de um conjunto de treinamento com mais elementos, de

preferência formado a partir de imagens de amostras reais.

110
4 Classificação Automática de Grafita em Ferros
Fundidos

4.1 Introdução

O ferro fundido pode ser definido como uma liga Fe-C com teor de carbono

aproximadamente acima de 2%, resultando geralmente em carbono livre na forma de

partículas de grafita (Chiaverini, 1988). É, portanto, em geral, um material composto por

partículas de grafita dispersas numa matriz metálica.

O ferro fundido apresenta partículas de grafita de diferentes formas, que

influenciam diretamente suas propriedades mecânicas (Colpaert, 1969). A tenacidade à

fratura e a ductilidade dependem fortemente da forma das partículas de grafita. Partículas

com formas nodulares melhoram estas propriedades, enquanto que partículas mais

alongadas ou com contornos irregulares as diminuem, por terem pontos de concentração de

tensão (Van Vlack, 1970). Assim, o ferro fundido é classificado segundo as formas de suas

partículas de grafita.

A norma ISO-945 apresenta seis classes para caracterizar as diferentes formas de

partículas de grafita. A Figura 80 mostra as seis imagens de referência que representam

estas classes.

111
Classe I – Lamelar Classe II – Crab ou Spiky Classe III – Vermicular

Classe IV – Nodular irregular Classe V – Nodular incerta Classe VI – Nodular regular

Figura 80. Imagens de referência das seis classes de partículas de grafita (ISO-945).

A classe I é chamada lamelar, pois as partículas de grafita por ela representadas

apresentam-se sob a forma de lamelas. Na verdade, esta forma lamelar só aparece na

observação de seções planas, pois as lamelas são interligadas, formando colônias que só

podem ser percebidas em 3 dimensões. As partículas de grafita da classe I são

características do ferro fundido cinzento, assim denominado, devido à coloração escura que

apresenta quando seccionado.

As classes IV, V e VI são chamadas, respectivamente, nodular irregular, nodular

incerta e nodular regular ou esferoidal e são as classes de partículas de grafita

correspondentes ao ferro fundido maleável (IV e V) e ao ferro fundido nodular (V e VI). De

fato, o ferro fundido nodular é geralmente caracterizado pela presença de pelo menos 80%

de partículas de grafita das classes V e VI, aliada à ausência de partículas das classes I e II

112
(Fargues & Stucky, 1994). Devido à sua alta ductilidade, dada pelas partículas de grafita de

forma nodular, o ferro fundido nodular também é chamado ferro fundido dúctil.

A classe III é chamada vermicular pois suas partículas de grafita têm aparência

similar a vermes. A classe III é característica do ferro fundido vermicular, que é assim

denominado, quando apresenta pelo menos 80% de partículas desta classe, acompanhadas

de partículas das classes V e VI (Carmo & Costa, 1996). A classe III representa partículas

de grafita que têm uma forma intermediária entre as classes I (lamelar) e VI (nodular

regular) e que também podem formar colônias como as formadas por partículas da classe I.

Do mesmo modo, o ferro fundido vermicular é um intermediário entre o ferro fundido

cinzento e o nodular, apresentando propriedades térmicas similares as do cinzento e

propriedades mecânicas mais próximas as do nodular (Carmo & Costa, 1996).

A classe II, denominada crab ou spiky por causa de sua forma com ramificações

salientes semelhantes a pernas de caranguejo, representa uma forma de partículas de grafita

que não corresponde a nenhum tipo específico de ferro fundido. As partículas de grafita

desta classe aparecem devido à degeneração de partículas da classe VI (nodular regular) na

produção de ferros fundidos nodulares quando há certos elementos nocivos ou elementos

nodulizantes em excesso (Hecht, 1995). Partículas de grafita desta classe também ocorrem

em ferros fundidos cinzentos hipereutéticos rapidamente resfriados (Hecht, 1995).

Tradicionalmente, a classificação do ferro fundido é feita de forma visual, através

da comparação de amostras observadas ao microscópio óptico com as imagens de

referência da norma ISO-945 mostradas na Figura 80. Entretanto, a inspeção visual é um

procedimento subjetivo e lento, não sendo apropriado para o uso em grande escala na

indústria.

Este trabalho propõe um método automático, baseado em PADI, para classificar

partículas de grafita, em ferros fundidos, de acordo com a norma ISO-945. Trata-se de uma

113
rotina de classificação supervisionada onde as imagens de referência da norma ISO-945 são

usadas como conjunto de treinamento e o espaço de características é formado por um

conjunto de atributos (parâmetros descritores de forma e medidas de tamanho).

4.2 Métodos Experimentais

O classificador foi treinado e testado com diversos conjuntos de atributos, então,

determinado o melhor conjunto, o classificador foi empregado para classificar amostras de

ferro fundido. A Figura 81 mostra o fluxograma desta rotina, destacando por cores as

etapas do treinamento (verde), validação (cor-de-rosa) e classificação (azul).


Amostras de ferro fundido

Aquisição

Imagens da ISO-945 Imagens das amostras

Atributos Extração de atributos Pré-processamento

Treinamento Segmentação

Taxas de acerto Pós-processamento

Validação Extração de atributos

Classificação

% de cada classe

Figura 81. Fluxograma da rotina de classificação de ferro fundido.

4.2.1 Treinamento e Validação

Foram utilizados 14 atributos, sendo 3 medidas de tamanho e 11 parâmetros

descritores de forma (9 fatores adimensionais de forma, 1 medida de contorno e o ângulo

interno médio), conforme listado a seguir:

114
1. A: área;

2. Cx: caixa (produto do feret máximo com o feret ortogonal ao máximo);

3. PA: produto de aspectos (produto do feret máximo com o feret mínimo);

4. FFC: fator de forma circular;

5. FFCc: circularidade;

6. FFCm: fator de forma circular modificado;

7. FFCg: fator de forma circular proposto em (Grum & Šturm, 1995);

8. RA: razão de aspectos;

9. RAm: razão de aspectos modificada;

10. FR: fator de ramificação;

11. Conv: convexidade;

12. Sol: solidez;

13. MCg: medida de contorno proposta em (Gomes & Paciornik, 2001);

14. AIM: ângulo interno médio, calculado como descrito a seguir.

Pensando-se cada partícula de grafita como um polígono, o atributo AIM é uma

aproximação grosseira, rapidamente calculada, de seu ângulo interno médio. A partir de

uma imagem binária, seja do conjunto de treinamento, seja de uma amostra de ferro

fundido, obtém-se o AIM através de um rápido processamento. Pinta-se as partículas na

imagem binária (Figura 82-a) com um tom de cinza k2 (Figura 82-b), então aplica-se, na

imagem obtida, um filtro passa-baixa média com kernel de tamanho k x k (Figura 82-c). Aí,

a partir da imagem binária, gera-se uma imagem das bordas das partículas e aplica-se esta,

como uma máscara, à imagem gerada pelo filtro média. A imagem resultante (Figura 82-d)

destas poucas operações é uma imagem das bordas das partículas, onde cada pixel tem um

tom de cinza grosseiramente proporcional ao ângulo do polígono partícula naquele ponto.

115
Então, basta medir o tom de cinza médio dos objetos nesta imagem para se ter o AIM. Neste

trabalho, arbitrariamente, utilizou-se k = 11.

(a) (b) (c)

(d) (e)

Figura 82. Ângulo interno médio: (a) imagem binária; (b) imagem pintada com um tom de
cinza k2; (c) imagem borrada pelo filtro passa-baixa média com kernel de tamanho k x k;
(d) imagem final resultante (com look-up table); e (e) look-up table.

Estes 14 atributos foram combinados de todas as maneiras possíveis, resultando

em 16383 diferentes conjuntos de atributos. Para cada conjunto, extraiu-se os atributos das

imagens de referência da ISO-945 (conjunto de treinamento) e procedeu-se à auto-

validação. Assim, todos os conjuntos foram testados num processo de busca exaustiva do

conjunto ótimo.

Contudo, a auto-validação fornece apenas uma estimativa da qualidade do sistema.

Assim, testou-se também sua capacidade de generalização e sua estabilidade a variações de

resolução.

116
A capacidade de generalização do sistema foi testada fazendo-se uma verdadeira

validação. Dividiu-se o conjunto de treinamento em dois, metade das partículas de cada

classe nas imagens de referência formou um novo conjunto de treinamento e a outra metade

um conjunto de validação. No entanto, devido ao pequeno número de partículas por classe

e à grande variabilidade de forma dentro de cada classe, a escolha das metades influencia

muito no resultado da validação.

Assim, fez-se a seleção de metade das partículas de cada classe de 6 maneiras

diferentes. Varrendo-se as imagens, da esquerda para a direita, de cima para baixo,

selecionou-se as partículas ímpares, pares, duas sim/duas não, duas não/duas sim, a metade

de cima e a metade de baixo. Obtendo-se, assim, para cada imagem de referência, 6

diferentes metades e suas 6 metades complementares, de modo a formar 6 novos conjuntos

de treinamento e 6 conjuntos de validação. Então, procedeu-se à validação, com cada um

destes 6 pares de conjuntos “metades” e considerou-se, como resultado da validação como

um todo, a média das taxas obtidas com os 6 pares.

A influência da resolução foi avaliada a partir do treinamento e classificação com

alguns conjuntos de atributos selecionados nas etapas de auto-validação e validação.

Através de operações de reamostragem sobre as imagens de referência do conjunto de

treinamento, gerou-se oito conjuntos das imagens de referência, com resoluções diferentes,

abaixo e acima da resolução das imagens inicialmente utilizadas (512x512 pixels). Assim,

treinou-se o sistema com o conjunto de treinamento original e classificou-se cada uma

destas novas imagens, obtendo-se um gráfico da taxa de acerto global conseguida, por cada

conjunto de atributo pré-selecionado, em função da resolução das imagens classificadas.

4.2.2 Classificação

Foram escolhidas três amostras características de ferros fundidos dos tipos

cinzento, maleável e nodular. As amostras foram preparadas (polidas e não atacadas) e

117
observadas no microscópio óptico (100x de magnificação), como no método tradicional, de

acordo com as recomendações da norma ISO-945. Observou-se 10 campos de cada

amostra, capturando-se suas imagens através de uma câmera de vídeo ligada a uma placa

digitalizadora de vídeo (frame grabber) em um computador PC. As 30 imagens digitais

obtidas, 10 de cada amostra, foram então processadas e analisadas no software KS400 (Carl

Zeiss Vision, 1998).

O processamento e análise das imagens digitais das amostras seguiu a seqüência

padrão de PADI:

• correção de iluminação irregular (pré-processamento);

• segmentação automática de Otsu a fim de distingüir as partículas de grafita da

matriz;

• eliminação de partículas muito pequenas e de partículas que tocam as bordas

da imagem (pós-processamento);

• extração dos atributos do conjunto selecionado; e

• classificação.

4.3 Resultados e Discussões

No que concerne ao processamento e análise de imagem, o método aqui

desenvolvido para classificar ferro fundido é bem simples. O treinamento resume-se à etapa

de extração dos atributos e à do treinamento em si e a classificação segue a risca a

seqüência padrão de PADI, utilizando-se principalmente de operações simples e

corriqueiras.

O fato das amostras de ferro fundido não serem atacadas propicia uma boa

distinção entre as partículas de grafita (preto) e a matriz (cinza claro), facilitando a

118
segmentação por limiarização, de modo que uma rápida segmentação automática de Otsu é

suficiente.

Após a segmentação, são aplicadas duas operações corriqueiras de pós-

processamento, scrapping para eliminar partículas muito pequenas e border object killing

para eliminar partículas que tocam as bordas da imagem. As partículas muito pequenas são

eliminadas por serem provavelmente artefatos oriundos da preparação das amostras. Já as

partículas que tocam as bordas da imagem precisam ser eliminadas devido à

impossibilidade da correta caracterização de sua forma e tamanho.

A escolha do conjunto de atributos, que designa o espaço de características, é de

fato a principal questão. O conjunto de atributos precisa ser robusto para agrupar a grande

variabilidade de formas apresentada em cada classe e sensível bastante para distingüir estas

classes no espaço de características.

Além de parâmetros descritores de forma, o conjunto de atributos precisa conter

pelo menos uma medida de tamanho, a fim de que, em pelo menos uma dimensão do

espaço de características, haja discriminação por tamanho, compensando a alta correlação

tamanho-forma e o efeito da “pixelização”.

Tamanho e forma são propriedades muito correlatadas. A seguir mostra-se um

exemplo disto. Observando-se a imagem de referência da classe I (Figura 83), pode-se

notar que todas as partículas têm “largura” (width) semelhante, mas o “comprimento”, que

neste caso pode ser grosseiramente estimado como a metade do perímetro, varia bastante.

Deste modo, verificam-se valores bem distintos para alguns parâmetros de forma.

119
Figura 83. Grande correlação tamanho-forma.

O outro fator que corrobora a necessidade de pelo menos uma medida de tamanho

no conjunto de atributos é o efeito de degradação na forma das partículas causado pela

digitalização ou “pixelização” das imagens. Quanto maior é a resolução da imagem de um

objeto, mais fiel à realidade é sua forma, de modo que a degradação é inversamente

proporcional ao tamanho. Ou seja, esta é uma questão de amostragem, quanto mais pixels

são utilizados para representar o objeto, melhor é sua representação.

Assim, dentre os 14 atributos testados, 3 são medidas de tamanho (A, Cx e PA). Os

11 demais, como mostrado anteriormente na seção 3.2.1 (“Treinamento e Validação”), são

parâmetros descritores de forma.

Devido ao pequeno número de atributos testatos (14) e de suas conseqüentes

combinações (16383), utilizou-se a busca exaustiva. O número de combinações não é

exatamente pequeno, entretanto, devido ao tempo necessário, para o treinamento e auto-

validação com cada conjunto de atributos, ser menor do que 1 s (em um Pentium III 500

MHz), todas as possibilidades podem ser testadas em pouco mais de 4 horas de

processamento.

A Tabela 4 apresenta um resumo dos resultados da busca exaustiva na auto-

validação.

A linha “Máx. sem” mostra a taxa de acerto global máxima de auto-validação

obtida com conjuntos de atributos que não contenham os atributos de cada coluna. Esta taxa

120
diz qual o máximo desempenho conseguido sem a adição de determinado atributo no

conjunto, constituindo-se portanto numa medida da qualidade do atributo.

As linhas “Méd. sem” e “Méd. com” trazem as taxas de acerto globais médias

obtidas sem e com a presença dos atributos nos conjuntos. A linha “Dif. Méd.” mostra a

diferença entre as taxas médias “com” e “sem”. Esta diferença dá uma idéia do ganho do

sistema com a adição do atributo.

As linhas “Máx. com” e “Mín. com” apresentam as taxas de acerto globais

máxima e mínima obtidas com a presença dos atributos nos conjuntos. E a linha “Só”

mostra a taxa de acerto global obtida por cada atributo individualmente.

Ainda sobre a Tabela 4, a coluna “Tam.” é útil para se observar a influência da

presença ou não de medidas de tamanho. Referindo-se a esta coluna, “sem” significa sem

nenhuma medida de tamanho, “com” significa com pelo menos uma e “só” representa as

três medidas de tamanho (A, Cx e PA) juntas.

Tabela 4. Taxas de acerto globais de auto-validação

1 2 3 4 5 6 7 8 9 10 11 12 13 14

Atributo A Cx PA Tam.* FFC FFCc FFCm FFCg RA RAm FR Conv Sol MCg AIM
Máx. sem 97,65 98,82 98,82 97,65 99,41 99,41 98,82 98,82 99,41 98,82 98,82 97,65 98,82 99,41 96,47
Méd. sem 90,93 91,80 91,77 90,40 91,40 91,57 91,45 91,83 91,71 91,30 91,84 91,26 91,73 91,40 89,61

Méd. com 92,94 92,07 92,10 92,16 92,48 92,30 92,43 92,05 92,16 92,57 92,03 92,61 92,14 92,47 94,26
Dif. Méd. 2,02 0,27 0,33 1,75 1,08 0,72 0,98 0,22 0,45 1,28 0,19 1,35 0,41 1,06 4,65
Máx. com 99,41 99,41 99,41 99,41 98,82 98,82 99,41 99,41 98,82 99,41 99,41 99,41 99,41 98,82 99,41

Mín. com 34,71 29,41 29,41 29,41 50,00 70,59 62,94 70,00 62,35 71,76 39,41 36,47 54,71 67,65 52,35
Só 34,71 36,47 37,06 52,35 51,18 70,59 62,94 70,00 62,35 71,76 39,41 36,47 54,71 71,18 52,35
*Tam.: medidas de tamanho (“sem” é sem nenhuma, “com” significa com pelo menos uma e “só” representa as 3 juntas.

Observando-se as colunas “A” e “Tam.”, pode-se notar a importância da presença

de medidas de tamanho no conjunto de atributos. Sem pelo menos uma medida de tamanho,

no caso a área (A), a taxa de acerto global da auto-validação não vai além de 97,65%. Além

disso, a área (A) apresenta uma diferença entre as taxas médias (2,02%) bem superior à dos

outros parâmetros, que giram em torno de 1%, à exceção do AIM (4,65%).

121
De fato, o ângulo interno médio (AIM) é o atributo decisivo. Ele apresenta o maior

valor para a diferença entre as médias (4,65%) e sem ele a taxa de acerto global da auto-

validação não passa de 96,47%. Sua contribuição ao conjunto de atributos fica ainda mais

evidente quando observados os gráficos (Figura 84 e Figura 85) extraídos da Tabela 4.

5,00
Diferença entre as taxas médias (%)

AIM
4,00
com e sem o atributo

3,00

2,00 A

RAm Conv
1,00 FFC FFCm MCg
RA
Cx PA FFCc FFCg Sol
FR
0,00
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14

Atributo

Figura 84. Diferença entre taxas de acerto globais médias (%) com e sem o atributo.

100,00
Taxa de acerto global máxima sem o

FFC FFCc RA MCg


99,00
FR Sol
Cx PA FFCm FFCg RAm
atributo (%)

98,00
A Conv

97,00

AIM
96,00

95,00
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14

Atributo

Figura 85. Taxa de acerto global máxima sem o atributo.

Feita a auto-validação, partiu-se, então, para a validação com os conjuntos

“metades” e, em seguida, para o teste de influência da resolução. Deste modo, a partir deste

ponto, retirou-se o atributo MCg da análise, pois, devido a limitações do ambiente de

122
programação do KS400 (Carl Zeiss Vision, 1998), o cálculo deste atributo é lento e torna-

se impossível com o aumento da resolução.

Assim, pegou-se todos os conjuntos de atributos, excluídos os com MCg, que

atingiram uma taxa de acerto global na auto-validação maior do que 97%, e procedeu-se à

validação. Destes conjuntos (490), separou-se os 10 que obtiveram as maiores taxas de

acerto global na validação (Tabela 5). Nota-se, observando esta tabela, que as taxas de

acerto são menores do que aquelas obtidas na auto-validação. Contudo, isto já era esperado,

pois a redução do número de partículas no conjunto de treinamento piora a representação

das classes.

Tabela 5. Validação
Conjunto de atributos Auto-validação (%) Validação (%)
A, FFCm, RA, Conv, RAm, AIM 97,06 92,16
A, FFCm, RA, Conv, AIM 98,24 91,94
A, FFCm, Conv, Sol, AIM 97,06 90,55
A, FFC, FFCm, RA, Conv, RAm, AIM 97,65 90,33
A, FFC, FFCm, Conv, FR, RAm, AIM 98,24 90,33
A, PA, FFCm, RA, Conv, RAm, AIM 97,06 89,98
A, FFCm, FFCg, Conv, FR, RAm, AIM 98,24 89,96
A, FFCm, FFCg, RA, Conv, AIM 98,24 89,94
A, FFC, FFCc, RA, Conv, RAm, AIM 97,65 89,93
A, FFCg,Conv, Sol, RAm, AIM 98,24 89,80

Então, utilizando-se o conjunto de treinamento original, testou-se a estabilidade do

sistema a variações de resolução com estes 10 conjuntos de atributos. Os resultados (Figura

86) mostram que, com todos estes 10 conjuntos, a resolução exerce forte influência, sendo

o comportamento apresentado muito similar. As curvas dos 10 conjuntos são praticamente

coincidentes e são paralelas à curva do atributo AIM sozinho. Assim, apesar do atributo

AIM ser o mais contributivo para a qualidade do sistema, verifica-se que ele é muito

123
dependente da resolução, e, deste modo, acaba por “contaminar” o conjunto de atributos,

tornando o sistema muito instável (Figura 86).

100,00

90,00

80,00

A, FFCm, RA, Conv, RAm, AIM


70,00
Taxa de acerto global (%)

A, FFCm, RA, Conv, AIM


A, FFCm, Conv, Sol, AIM
60,00
A, FFC, FFCm, RA, Conv, RAm, AIM
A, FFC, FFCm, Conv, FR, RAm, AIM
50,00 A, PA, FFCm, RA, Conv, RAm, AIM
A, FFCm, FFCg, Conv, FR, RAm, AIM

40,00 A, FFCm, FFCg, RA, Conv, AIM


A, FFC, FFCc, RA, Conv, RAm, AIM
A, FFCg,Conv, Sol, RAm, AIM
30,00
AIM

20,00

10,00

0,00
128 171 256 341 512 768 1024 1536 2048

Diâmetro do campo (pixels)

Figura 86. Influência da resolução com conjuntos de atributos com AIM.

Fazendo-se o mesmo teste de influência da resolução com os 10 melhores

conjuntos de atributos que não contém o AIM (Figura 87), nota-se que realmente é o AIM

que introduz esta instabilidade.

124
100,00

90,00

80,00

70,00
A,Cx, PA, FFCc, Conv, Sol, FR, RAm
Taxa de acerto global (%)

A, Cx, FFC, FFCc, RA, RAm


60,00 A, PA, FFC, FFCc, RA, RAm
A, Cx, FFCc, FFCm, RA, RAm
50,00 A, PA, FFCc, FFCm, RA, RAm
A, FFC, FFCm, Conv, RAm
A, Cx, FFC, FFCc, RA, Conv, RAm
40,00
A, PA, FFC, FFCc, RA, Conv, RAm
A, PA, FFCc, RA, Conv, Sol, RAm
30,00

20,00

10,00

0,00
128 171 256 341 512 768 1024 1536 2048

Diâmetro do campo (pixels)

Figura 87. Influência da resolução com conjuntos de atributos sem AIM.

Assim, abriu-se mão dos conjuntos de atributos contendo AIM. Então, escolheu-se,

dentre estes 10 conjuntos sem o AIM, o conjunto {A, PA, FFC, FFCc, RA, RAm}, que

apresentou uma estabilidade um pouco maior a variações de resolução e a segunda maior

taxa global na auto-validação (94,7%). A Tabela 6 e sua representação pictórica (Figura 88)

mostram estas taxas.

Tabela 6. Taxas de acerto do conjunto de atributos escolhido na auto-validação.

Classe Taxas de acerto (%)


I 100,0
II 88,89
III 91,07
IV 95,83
V 94,74
VI 100,0
Global 94,71

125
Classe I – Lamelar Classe II – Crab ou Spiky Classe III – Vermicular

Classe IV – Nodular irregular Classe V – Nodular incerta Classe VI – Nodular regular

Figura 88. Representação pictórica das taxas de acerto.

Em todos os testes feitos até aqui e nas classificações subseqüentes é utilizado o

classificador de Bayes, pois fez-se a busca exaustiva da auto-validação duas vezes, com

Bayes e com Distância Euclidiana, e Bayes apresentou melhores taxas de acerto (Tabela 7).

Tabela 7. Influência do classificador


Taxas de acerto (%) Bayes D. E.
Mínima 29,41 27,06
Média 91,40 89,12
Máxima 99,41 98,24

Escolhidos o conjunto de atributos {A, PA, FFC, FFCc, RA, RAm} e o

classificador (Bayes), classificou-se as três amostras de ferros fundidos. A Figura 89

apresenta, para cada amostra, a imagem de parte de um campo obtido no microscópio

óptico, uma imagem com as partículas pintadas segundo a classificação e uma tabela com

os resultados totais da classificação da amostra.

126
Amostra 1 - Cinzento Amostra 2 - Maleável Amostra 3 - Nodular

30 µm 30 µm 30 µm

Classe # % Classe # % Classe # %


I 584 42,94 I 0 0,00 I 0 0,00
II 180 13,24 II 24 1,43 II 6 0,22
III 463 34,04 III 163 9,72 III 85 3,14
IV 30 2,21 IV 264 15,74 IV 47 1,74
V 95 6,99 V 959 57,19 V 789 29,18
VI 8 0,59 VI 267 15,92 VI 1777 65,72
Total 1360 100,00 Total 1677 100,00 Total 2704 100,00

Figura 89. Classificação das três amostras de ferro fundido.

Os resultados obtidos são consistentes com uma análise visual. A amostra 1, um

ferro fundido cinzento, teve como classe predominante, a classe I, 42,94% das partículas de

grafita foram assim classificadas. A amostra 2, um ferro fundido maleável, apresentou mais

de 70% de partículas como classes IV e V, com predominância evidente da classe V

(57,19%). A amostra 3, um ferro fundido nodular, teve quase 95% das partículas

classificadas como classe V e VI.

A princípio, poder-se-ia pensar que as imagens de referência da norma ISO 945,

representassem uma grave limitação ao processo por serem imagens sintéticas e possuírem

um número relativamente pequeno de partículas de grafita. Entretanto, elas apresentam

grande variabilidade de formas dentro de uma mesma classe, representando bem cada

127
classe. Deste modo, as imagens de referência utilizadas constituem um bom conjunto de

treinamento e o limitador do processo é realmente a questão da influência da resolução.

Os conjuntos de atributos contendo AIM exibem um resultado muito superior na

auto-validação. Assim, para o futuro, pensa-se estudar mais profundamente o atributo AIM,

modificando-o, no intuito de reduzir sua dependência da resolução.

Uma outra idéia para trabalhos futuros é a constituição de um conjunto de

treinamento a partir de imagens de ferros fundidos cuidadosamente preparados.

128
5 Análise nano-estrutural de um compósito resina-
grafite

5.1 Introdução

O conceito de material compósito é geralmente utilizado em aplicações estruturais.

A mistura íntima de duas ou mais fases com diferentes propriedades mecânicas dá origem a

um material cuja performance é melhorada de 10 a 100 vezes. Contudo, existem casos em

que a variação nas propriedades é bem maior, pois algumas propriedades físicas, como a

condutividade elétrica, podem variar em muitas ordens de grandeza.

O material compósito aqui estudado, uma resina polimérica com nano-partículas

de grafite dispersas, apresenta esta grande variação nas suas propriedades dielétricas. A

resina tem uma alta resistividade elétrica e o grafite é condutor. Assim, a mistura dos dois,

em proporções adequadas, gera um material cujas propriedades dielétricas são precisamente

especificadas, podendo variar em muitas ordens de grandeza. Em concentrações que

permitem às nano-partículas de grafite atingirem o limiar de percolação para a condução,

este material absorve ondas eletromagnéticas na faixa de freqüências do Gigahertz. Sendo,

portanto, de grande interesse em aplicações civis (telefonia celular) e militares (proteção

anti-radar).

Geralmente, um material compósito formado por dois componentes pode ser

modelado como uma mistura binária dos componentes puros. Entretanto, as propriedades

dielétricas do material aqui estudado diferem tremendamente do modelado como uma

combinação de resina pura e grafite puro. De modo que, provavelmente, durante a

produção do compósito, ocorra alguma mudança na estrutura ou propriedades dos

componentes ou, ainda, haja o surgimento de algum fenômeno interfacial.

129
O material compósito em questão é obtido através da dispersão, com um

propelente, de nano-partículas de grafite (20 a 40 nm) na resina líquida. As nano-partículas

de grafite têm a tendência de se aglomerar em clusters de 160 nm com uma grande força de

coesão. Assim, no momento da dispersão, o propelente é injetado de modo a desenvolver

forças de cisalhamento intensas o bastante para suplantar a força de coesão entre as nano-

partículas, de modo a separá-las.

As nano-partículas de grafite consistem em esferas com estrutura semelhante a

uma cebola, onde as camadas são formadas pelo empilhamento de planos (~100) de átomos

de carbono com distância inter-planar de 0,37 nm. Contudo, a união destes planos é

mantida somente por forças de Wander Waals, não sendo, portanto, muito forte. Assim, há

a possibilidade de que as forças de cisalhamento, introduzidas para suplantar a força de

coesão entre as nano-partículas de grafite, sejam grandes o suficiente para arrancar planos

da estrutura da “cebola”. Deste modo, as nano-partículas ficariam menores e alguns planos

de carbono seriam dissolvidos na matriz de resina. O que certamente afetaria bastante as

propriedades elétricas do material, como por exemplo a condutividade elétrica, que seria

bem aumentada.

Talvez esta seja a explicação para as diferenças encontradas entre as propriedades

dielétricas do material e do modelo binário. Assim, neste trabalho, propõe-se uma

metodologia de análise quantitativa nano-estrutural, baseada em PADI, para testar esta

hipótese.

A observação do material em escala nanométrica não fornece distinção clara entre

as fases, pois a freqüência espacial dos planos de carbono é escondida pela matriz

polimérica não-cristalina. Assim, técnicas clássicas utilizadas na análise de imagens de

microscopia de alta resolução, como a filtragem no espaço de Fourier, não podem ser

130
empregadas. Do mesmo modo, por não haver definição clara de tons de cinza ou contornos

discriminando as duas fases, sua segmentação também não é possível.

Todavia, a presença de porções de planos de carbono na matriz reduziria

localmente o contraste nas imagens, pois os tons de cinza devem variar menos nos planos.

Da mesma forma, tal presença propiciaria algum ordenamento local, proporcionando uma

maior uniformidade nas imagens e reduzindo sua “entropia de configuração”. Assim, a

metodologia aqui proposta utiliza a análise de textura através dos chamados parâmetros de

Haralick, que são atributos sensíveis a estas características.

A compreensão do significado físico de alguns parâmetros de Haralick não é

simples. Além disto, alguns deles são correlatados, de modo que seu uso simultâneo não

contribui para a discriminação. Assim, foram considerados três parâmetros (uniformidade,

contraste e entropia), que são aparentemente descorrelatados e cujo significado físico indica

que podem contribuir para a discriminação entre resina pura e compósito.

5.2 Métodos Experimentais

O material estudado foi o compósito resina-grafite anteriormente descrito, com

2,64% em peso de grafite. Ele foi observado em um MET no modo de alta resolução

(HRTEM), com contraste de fase. As imagens foram capturadas em filme fotográfico e

digitalizadas em um scanner de tambor de alta resolução, a 2000 dpi, obtendo-se imagens

de 2048x2048 pixels com uma resolução final de 0,03 nm/pixel. Assim, foram geradas

imagens de resina pura (Figura 90-a), imagens de compósito em regiões sem nano-

partículas de grafite (Figura 90-b) e imagens de compósito onde aparecem nano-partículas

grafite (Figura 90-c). Toda esta etapa de aquisição das imagens foi realizada no Centre de

Matériaux Pierre Marie Fourt da Ecole Nationale Supérieure des Mines de Paris, pela

equipe do Dr. Alain Thorel, com quem este trabalho foi feito em colaboração.

131
(a) (b)

10 nm 10 nm

10 nm

(c)

Figura 90. Imagens de HRTEM de: (a) resina pura; (b) compósito em região sem nano-
partículas de grafite; e (c) compósito onde aparecem nano-partículas de grafite.

As imagens digitais obtidas foram então processadas e analisadas com o software

KS400 (Carl Zeiss Vision, 1998). A rotina de processamento e análise das imagens é

simples, porém peculiar. Não há etapa de segmentação e as medidas são feitas sobre

objetos arbitrários desenhados, no caso, quadrados de igual tamanho.

A fim de eliminar o efeito de possíveis variações na “iluminação” do microscópio

e no processamento dos filmes fotográficos, as imagens originais são pré-processadas para

132
igualar seu brilho. A partir daí, constróem-se duas imagens binárias, complementares entre

si, de mesmas dimensões das imagens do material, formadas por mosaicos de quadrados de

igual tamanho (Figura 91). Tais imagens são aplicadas, como máscaras, às imagens

resultantes do pré-processamento (Figura 92).

Figura 91. Imagens dos mosaicos.

Figura 92. Aplicação das imagens dos mosaicos sobre uma imagem do compósito.

Utilizando-se conectividade em cruz (conectividade-4), os quadrados dos

mosaicos são tidos como objetos independentes. Então, mede-se, em cada quadrado, os três

parâmetros de Haralick considerados (uniformidade, contraste e entropia). Na verdade, para

que se tornem atributos independentes de rotação, são medidas as médias de cada

parâmetro em quatro direções (0°, 45°, 90° e 135°). Em todas as análises, os parâmetros de

Haralick foram calculados a partir da matriz de co-ocorrência com a distância entre pixels

de 1, utilizando-se a quantização de 16 tons.

Foi avaliada a influência do tamanho dos quadrados no extração dos parâmetros de

Haralick. Para isto, foram separadas as 9 imagens de resina pura e 9 imagens de compósito

133
em regiões sem nano-partículas de grafite. Variou-se o tamanho dos quadrados, em

potências de 2, de 4x4 a 2048x2048 pixels, e mediu-se os três parâmetros considerados.

Então, determinado o tamanho ideal de quadrado, foram analisadas 9 imagens de

resina pura e, esperando uma maior variação de propriedades, 44 imagens de compósito em

regiões sem nano-partículas de grafite.

5.3 Resultados e Discussões

A influência do tamanho dos quadrados na extração dos parâmetros de Haralick

pode ser claramente vista na Figura 93. Tanto para a resina pura como para o compósito, o

comportamento foi muito similar. Com o aumento do tamanho dos quadrados, a

uniformidade diminui e a entropia aumenta, enquanto o contraste não é afetado. Os valores

assintóticos para ambos, uniformidade e entropia, são atingidos entre 64x64 e 128x128

pixels.

8 8

7 Contraste x4 7
Valor do parâmetro

Valor do parâmetro

6 6 Contraste x4
Entropia
5 5
Entropia
4 4

3 3
Uniformidade x 40
2 Uniformidade x 40 2

1 1

0 0
4 16 64 256 1024 4 16 64 256 1024
Tamanho do quadrado (pixels) Tamanho do quadrado (pixels)

(a) (b)

Figura 93. Influência do tamanho dos quadrados nos parâmetros de Haralick


(Uniformidade, Contraste e Entropia) para resina pura (a) e compósito (b).

Assim, nas demais análises, foi utilizado um tamanho de quadrado de 100x100

pixels. Este tamanho está na região assintótica dos gráficos e fornece um total de 400

134
(20x20) quadrados por imagem, permitindo a exclusão de alguns pixels nas bordas das

imagens, eliminando possíveis defeitos.

Os parâmetros utilizados para caracterizar a textura (uniformidade, contraste e

entropia) mostraram proporcionar uma boa discriminação entre resina pura e compósito. A

Figura 94 mostra os histogramas destes três parâmetros obtidos a partir das 9 imagens de

resina pura e das 44 imagens de compósito em regiões sem nano-partículas de grafite.

(a) (b)

60% 16%
Resina pura Resina pura
14%
50% Compósito Compósito
12%
População (%)

População (%)
40%
10%
30% 8%

6%
20%
4%
10%
2%

0% 0%
0,00 0,04 0,08 0,12 0,16 0,20 0,0 0,4 0,8 1,2 1,6 2,0 2,4

Uniformidade Contraste

30%
Resina pura
25% Compósito
População (%)

20%

15%

10%

5%

0%
2,8 3,8 4,8 5,8

Entropia

(c)

Figura 94. Histogramas da uniformidade (a), contraste (b) e entropia (c) para resina pura e
compósito entre nano-partículas de grafite (quadrados de 100x100 pixels).

Os histogramas mostram claramente as diferenças, a nível nano-estrutural, entre a

resina pura e compósito. Em uma rápida observação dos histogramas de uniformidade e

135
entropia, nota-se que a resina pura apresenta histogramas mais estreitos, denotando portanto

uma menor variação em suas propriedades.

Parte da população do compósito tem maior uniformidade do que a resina pura

(picos a 0,09 e 0,15). Por outro lado, parte da população apresenta valores de uniformidade

muito similares aos da resina pura (pico a 0,04). Isto pode indicar a separação entre regiões

com e sem carbono no compósito.

O histograma do contraste mostra grandes variações para ambos, resina pura e

compósito. Todavia, o compósito apresenta maior população com valores menores. Como

mencionado anteriormente, isto pode ser explicado pela presença de pequenas camadas de

carbono, que criariam regiões com tons de cinza aproximadamente constantes. A Figura 95

mostra algumas destas regiões.

Figura 95. Pequenas regiões organizadas na matriz, provavelmente carbono.

A entropia é claramente mais baixa no compósito, de modo que o material vem a

ser mais organizado, com a presença de pequenas camadas de carbono. Contudo, há um

pico de entropia em 5, aproximadamente coincidente com o pico da resina pura. Isto é

consistente com a análise do histograma da uniformidade, que também sugere a separação

entre regiões com e sem carbono no compósito.

Assim, tudo leva a crer que o processo de fabricação do compósito realmente está

erodindo as nano-partículas de grafite, gerando uma significativa quantidade de carbono

136
dispersa na matriz de resina. Análises preliminares de EELS são consistentes com esta

análise nano-estrutural por textura e confirmam a presença de carbono na matriz de resina.

137
6 Conclusões
A grosso modo, pode-se dizer que os três casos aqui estudados consistem na

caracterização de um material compósito, a partir da análise quantitativa de sua fase

secundária. Contudo, do ponto de vista da contribuição trazida pelo Processamento e

Análise Digital de Imagens (PADI), os três casos diferem bastante.

O primeiro e o segundo casos, bambu e ferro fundido, consistem basicamente em

ensinar a máquina a reproduzir uma tarefa que é, mesmo com limitações, facilmente

realizada por um ser humano treinado. Já, no terceiro caso, o compósito resina-grafite, a

idéia é usar a máquina para ver algo quase impossível para nós. Assim, nos dois primeiros,

busca-se eficiência, enquanto que, no terceiro, a procura é por eficácia.

Diferem também do ponto de vista do problema de PADI envolvido. O primeiro

caso traz à tona a questão do reconhecimento de objetos em uma imagem, de como separá-

los uns dos outros e do resto da imagem, reconhecendo-os como entidades individuais. O

segundo caso revela o problema da representação de objetos, de como simplificar objetos,

ao ponto que a máquina possa, não só reconhecê-los, mas diferenciá-los e identificá-los. O

terceiro caso engloba, de uma maneira peculiar, ambas as questões. Trata-se de reconhecer

a presença de objetos na imagem, sem contudo reconhecê-los individualmente ou

identificá-los. Assim, a presença ou não é usada para diferenciar e identificar imagens.

Diferem ainda, na escala de tamanho da análise do material, de modo que cada

caso envolveu uma diferente técnica de formação e aquisição de imagens.

Por fim, diferem do ponto de vista das técnicas de PADI empregadas. Ao longo

destes três casos, varreu-se todo capítulo de revisão, utilizando-se quase a totalidade das

técnicas ali descritas.

Por tudo isso, juntos, estes três casos oferecem um panorama abrangente de PADI,

assim como de sua aplicação na caracterização de materiais.

138
Referências Bibliográficas
Carl Zeiss Vision KS400. 1998.

Carl Zeiss www.zeiss.com. 2001.

CARMO, D. J. & COSTA, E. Verificação de parâmetros que determinam as propriedades

dos ferro fundido vermicular. CETEF/SENAI, 1996.

CHIAVERINI, V. Aços e Ferros Fundidos. Associação Brasileira de Metalurgia e

Materiais, 6a ed., 1988.

COLPAERT, H. Metalografia dos produtos siderúrgicos comuns. Ed. Edgard Blucher,

1969.

DANIELSSON, P. E. Euclidean Distance Mapping. Computer Graphics and Image

Processing, v. 14, p. 227-248, 1980.

FARGUES, J. & STUCKY, M. Caractérisation de la forme du graphite à l'aide d'un

analyseur d'images. La Revue de Métallurgie-CIT/Science et Génie des Matériaux,

p. 267-275, 1994.

FRIEL, J. J. Measurements. In: ASM. Practical Guide to Image Analysis. ASM

International, p. 101-128, 2000.

GOMES, O. F. M. & ALMEIDA, C. E. B. Automação de Análise de Mutagênese em

Tradescantia. Proceedings of V Regional Congress on Radiation Protection and

Safety,2001.

GOMES, O. F. M. & PACIORNIK, S. Automatic Classification of Graphite in Cast Iron.

Materials Research, submitted for publication, 2001.

GONZALEZ, R. C. & WOODS, R. E. Digital Image Processing. Addison-Wesley, 1992.

GRUM, J. & ŠTURM, R. Computer Supported Recognition of Graphite Particle Forms in

Cast Iron. Acta Stereol, v. 14, n. 1, p. 91-96, 1995.

139
HARALICK, R. M., SHANMUGAM, K. & DINSTEIN, I. Textural Features for Image

Classification. IEEE Transactions on Systems, Man, and Cybernetics, v. SMC-3,

n. 6, p. 610-621, 1973.

HECHT, M. Fonderie-fondeur d'aujourd'hui, n. 147, 1995.

KUDO, M. & SKLANSKY, J. Comparison of algorithms that select features for pattern

classifiers. Pattern Recognition, v. 33, p. 25-41, 2000.

LIESE, W. Anatomy and Properties of Bamboo. Recent Research of Bamboos, p. 196-208,

1987.

LIVENS, S. How to measure the shape of silver halide microcrystals? Proceedings of

Annual Meeting of the Belgian Society for Microscopy,1997.

OTSU, N. A Threshold Selection Method from Gray-Level Histograms. IEEE Transactions

on Systems, Man, and Cybernetics, v. SMC-9, n.. 1, p. 62-66, 1979.

PACIORNIK, S. Introdução ao Processamento Digital de Imagens. (www.dcmm.puc-

rio.br/cursos/ipdi/), 2001.

RAO, A. N. Anatomical Studies on Certain Bamboos Growing in Singapore. Recent

Research of Bamboos, p. 209-226, 1987.

RAUDYS, S. J. & JAIN A. K. Small Sample Size Effects in Statistical Pattern Recognition:

Recommendations for Practitioners. IEEE Transactions on Pattern Analysis and

Machine Intelligence, v. 13, n. 3, p. 252-264, 1991.

RUSS, J. C. & RUSS, J. C. Uses of the Euclidean Distance Map for the Measurement of

Features in Images. Journal of Computer-Assisted Microscopy, v. 1, n. 4, p. 343-

375, 1989.

RUSS, J. C. Computer Assisted Microscopy. North Carolina State University, 1988.

RUSS, J. C. The Image Processing Handbook. 2nd. ed. CRC Press, 1995.

140
SHEHATA, M. T. Characterization of Particle Dispersion. In: ASM. Practical Guide to

Image Analysis. ASM International, p. 129-144, 2000.

TAIHUI, W. & WENWEI, C. A Study on the Anatomy of the Vascular Bundles of

Bamboos from China. Recent Research of Bamboos, p. 230-243, 1987.

VAN VLACK, L. H. Princípios de ciência dos materiais. Ed. Edgard Blucher, 1970.

WEEKS, Jr. A. R. Fundamentals of Electronic Image Processing. SPIE / IEEE, 1996.

141

Вам также может понравиться