Post on 31-Aug-2020
MINISTÉRIO DA DEFESA
EXÉRCITO BRASILEIRO
SECRETARIA DE CIÊNCIA E TECNOLOGIA
INSTITUTO MILITAR DE ENGENHARIA
(Real Academia de Artilharia, Fortificação e Desenho, 1792)
- DEPARTAMENTO DE ENGENHARIA CARTOGRÁFICA -
PROJETO DE FIM DE CURSO
ESTUDO DAS POTENCIALIDADES CARTOGRÁFICAS DAS IMAGENS CCD
DO SATÉLITE CBERS
1° TEN GIOVANA MIRA DE ESPINDOLA
RIO DE JANEIRO
2002
II
INSTITUTO MILITAR DE ENGENHARIA
TEN GIOVANA MIRA DE ESPINDOLA
ESTUDO DAS POTENCIALIDADES CARTOGRÁFICAS DAS IMAGENS CCD
DO SATÉLITE CBERS
Projeto de Fim de Curso apresentado ao Curso de Graduação em Engenharia Cartográfica do Instituto Militar de Engenharia, como requisito parcial para a obtenção do grau de engenheiro em Engenharia Cartográfica. Orientadores: Prof. Oscar Ricardo Vergara – D. E. Maj Clóvis Gaboardi – M. C.
Rio de Janeiro 2002
III
INSTITUTO MILITAR DE ENGENHARIA
TEN GIOVANA MIRA DE ESPINDOLA
ESTUDO DAS POTENCIALIDADES CARTOGRÁFICAS DAS IMAGENS CCD
DO SATÉLITE CBERS
Projeto de Fim de Curso apresentado ao Curso de Graduação em Engenharia Cartográfica do Instituto Militar de Engenharia, como requisito parcial para a obtenção do grau de engenheiro em Engenharia Cartográfica.
Orientadores: Prof. Oscar Ricardo Vergara – D.E. Maj Clóvis Gaboardi – M.C.
Aprovado em 28 de Outubro de 2002 pela seguinte Banca Examinadora:
Oscar Ricardo Vergara – D. E. do IME – Presidente
Luís Antônio de Andrade – Cel QEM R/1 – M. C. do IME
Clóvis Gaboardi – Maj QEM – M. C. do IME
Rio de Janeiro 2002
IV
Para Dilza, minha querida mãe e amiga, que
me ensinou a lutar e sempre seguir em
frente; para Ricardo, meu companheiro, que
soube sempre me dar apoio nos momentos
de fraqueza.
V
AGRADECIMENTOS
Agradeço a todos os professores do Departamento de Engenharia Cartográfica do Instituto Militar de Engenharia, pelo carinho e dedicação com que buscam transmitir os conhecimentos necessários à formação de seus alunos. Agradeço em especial aos meus orientadores, pela dedicação e entusiasmo empregados no desenvolvimento deste projeto.
Ao Instituto Nacional de Pesquisas Espaciais, na pessoa do Sr. Paulo Roberto Martini, por fornecer a imagem CCD do CBERS.
Ao Instituto Pereira Passos pela cessão sem custo, da base cartográfica digital do Município do Rio de Janeiro – RJ, na escala 1:2.000.
VI
SUMÁRIO
LISTA DE ILUSTRAÇÕES IX
LISTA DE TABELAS XI
LISTA DE ABREVIATURAS E SÍMBOLOS XII
LISTA DE SIGLAS XIII
RESUMO XIV
ABSTRACT XV
1. INTRODUÇÃO 01
1.1 Enquadramento do Projeto 01
1.1.1 Imageador de Largo Campo de Visada (WFI - Wide Field Imager) 03
1.1.2 Câmera CCD de Alta Resolução (CCD - High Resolution CCD
Camera) 03
1.1.3 Câmera de Varredura no Vnfravermelho (IR-MSS - Infrared
Multispectral Scanner) 04
1.1.4 Linha de Pesquisa 04
1.2 Objetivos 05
1.3 Área de Interesse 06
1.4 Outras Considerações 06
1.5 Cronograma 07
2. FUNDAMENTAÇÃO TEÓRICA 08
2.1 Conceitos Básicos de Sensoriamento Remoto 08
2.1.1 O Espectro Eletromagnético 08
2.1.2 Influência Atmosférica 09
2.1.3 Características Espectrais de Alvos 09
2.1.3.1 Refletividade da Vegetação 10
2.1.3.2 Refletividade dos Solos 10
2.1.3.3 Refletividade da Água 11
2.1.3.4 Refletividade das Áreas Urbanas 11
2.2 Processamento Digital de Imagens 11
2.2.1 Pré-Processamento Digital de Imagens 12
VII
2.2.1.1 Georreferenciamento de Imagens Digitais 12
2.2.1.2 Eliminação de Ruído 16
2.2.1.2.1 Filtragem 16
2.2.2 Extração de Feições 17
2.2.2.1 Operações Aritméticas 17
2.2.2.1.1 Razão de Bandas Simples 18
2.2.2.1.2 NDVI – Normalised Difference Vegetation Index 18
2.2.2.2 Classificação Digital de Imagens 19
2.2.2.2.1 Fatiamento de Densidades 20
2.2.2.2.2 Classificação Supervisionada 20
2.2.2.3 Distância de Jeffries-Matusita 22
2.2.2.4 Pós-Classificação Digital de Imagens 22
2.2.2.4.1 Matriz de Confusão ou de Erros 23
2.2.2.4.2 Coeficiente Kappa 24
3. METODOLOGIA 25
3.1 Materiais Empregados 25
3.1.1 Imagens 25
3.1.2 Softwares 25
3.1.3 Hardware 26
3.1.4 Outros Materiais 26
3.2 Georreferenciamento da Imagem 26
3.2.1 Utilizando o ENVI 3.4 26
3.2.2 Utilizando o SPRING 3.6 32
3.3 Processamento Digital das Imagens 40
3.3.1 Eliminação de Ruídos 40
3.3.1.1 Filtros de Convolução 41
3.3.1.2 Filtros Morfológicos 46
3.3.1.3 Filtros de Textura 46
3.3.1.4 Filtros Adaptativos 52
3.4 Extração de Feições 58
3.4.1 Extração de Corpos D’Água 58
3.4.2 Realce da Vegetação 60
VIII
3.5 Classificação Digital das Imagens 64
4. RESULTADOS PARCIAIS 68
4.1 Georreferenciamento da Imagem 68
4.1.1 Georreferenciamento – ENVI 3.4 68
4.1.2 Georreferenciamento – SPRING 3.6 69
4.2 Eliminação de Ruído 70
4.3 Extração de Feições 70
4.3.1 Classificação Digital das Imagens 70
5. CONCLUSÕES 73
6. REFERÊNCIAS BIBLIOGRÁFICAS 74
7. SUGESTÕES PARA TRABALHOS FUTUROS 75
8. ANEXOS 76
IX
LISTA DE ILUSTRAÇÕES
FIG 1.1 Satélite CBERS 02
FIG 1.2 Corte da imagem do sensor CCD 05
FIG 3.1 Janela Available Bands List 27
FIG 3.2 Janela Register 28
FIG 3.3 Janela Image to Map Registration 29
FIG 3.4 Janela Ground Control Points Selection 30
FIG 3.5 Janela Ground Control Points Selection 31
FIG 3.6 Janela Registratrion Parameters 32
FIG 3.7 Janela do IMPIMA 33
FIG 3.8 Janela criar Banco de Dados 34
FIG 3.9 Janela criar Projeto 34
FIG 3.10 Janela do Painel de Controle 35
FIG 3.11 Janela Seleção de Imagens 36
FIG 3.12 Janela Registro de Imagem 37
FIG 3.13 Janela Importar Arquivos Grib 39
FIG 3.14 Janela Lista de Categorias 39
FIG 3.15 Janela Modelo de Dados 40
FIG 3.16 ENVI 3.4 – Filtros de Convolução 41
FIG 3.17 Janela Convolution Input File 42
FIG 3.18 Janela Convolution Parameters 42
FIG 3.19 Filtro Passa Baixas: comparação entre a imagem original
(esquerda) e a imagem filtrada (direita)
43
FIG 3.20 Filtro Passa Baixas: comparação entre a imagem original
(esquerda) e a imagem filtrada (direita)
44
FIG 3.21 Janela Convolution Input File 45
FIG 3.22 Janela Convolution Parameters 45
FIG 3.23 Filtro da Mediana: comparação entre a imagem original
(esquerda) e a imagem filtrada (direita)
46
FIG 3.24 ENVI 3.4 – Filtros de Textura 47
FIG 3.25 Janela Texture Input File 48
FIG 3.26 Janela Occurrence Texture Parameters 48
X
FIG 3.27 Filtro Occurrence Measures: comparação entre a imagem
original (esquerda) e a imagem filtrada (direita)
49
FIG 3.28 Janela Texture Input File 50
FIG 3.29 Janela Co-occurrence Texture Parameters 51
FIG 3.30 Filtro Co-occurrence Measures: comparação entre a
imagem original (esquerda) e a imagem filtrada (direita)
51
FIG 3.31 Filtro Co-occurrence Measures: comparação entre a
imagem original (esquerda) e a imagem filtrada (direita)
52
FIG 3.32 ENVI 3.4 – Filtros Adaptativos 53
FIG 3.33 Janela Lee Filter Input File 54
FIG 3.34 Janela Lee Filter Parameters 54
FIG 3.35 Filtro Lee: comparação entre a imagem original
(esquerda) e a imagem filtrada (direita)
55
FIG 3.36 Janela Localized Sigma Filter Input File 56
FIG 3.37 Janela Localized Sigma Filter Parameters 56
FIG 3.38 Filtro Local Sigma: comparação entre a imagem original
(esquerda) e a imagem filtrada (direita)
57
FIG 3.39 Filtro Local Sigma: comparação entre a imagem original
(esquerda) e a imagem filtrada (direita)
57
FIG 3.40 Janela #1 Density Slice 58
FIG 3.41 Janela #2 – Fatiamento da Imagem 59
FIG 3.42 Janela Raster To Vector Parameters 60
FIG 3.43 Janela NDVI Calculation Input File 61
FIG 3.44 Janela NDVI Calculation Parameters 62
FIG 3.45 Janela Band Ratio Entry 63
FIG 3.46 Janela Band Ratio Parameters 63
FIG 3.47 Janela Region of Interest Controls 65
FIG 3.48 Janela Maximum Likelihood Parameters 66
FIG 3.49 Janela Math Classe Parameters 67
FIG 4.1 Distância JM 71
XI
LISTA DE TABELAS
TAB 1.1 Características do Satélite CBERS 02
TAB 1.2 Características do Sensor CCD 04
TAB 1.3 Cronograma 07
TAB 2.1 Comparação entre os Algoritmos 15
TAB 2.2 Matriz de Confusão 23
TAB 2.3 Desempenho da Classificação 24
TAB 4.1 Análise do Georreferenciamento – ENVI 3.4 68
TAB 4.2 Análise do Georreferenciamento (PC) – SPRING 3.6 69
TAB 4.3 Análise do Georreferenciamento (PT) – SPRING 3.6 69
TAB 4.4 Valores de Kappa 72
XII
LISTA DE ABREVIATURAS E SÍMBOLOS
ABREVIATURAS
pixel Picture Element
PC Pontos de Pontrole
PT Pontos de Teste
NDVI Normalised Difference Vegetation Index
XIII
LISTA DE SIGLAS
CBERS China-Brazil Earth Resources Satellite
INPE Instituto Nacional de Pesquisas Espaciais
IPP Instituto Pereira Passos
XIV
RESUMO
O emprego de imagens de sensores remotos na cartografia é uma
realidade cada vez mais aceita e difundida na comunidade visto que a gama de
sensores torna-se cada vez maior. Para o correto emprego de imagens de
satélite na atualização de cartas topográficas é necessário que se realize um
pré-processamento da imagem que engloba as fases de georreferenciamento
e, se necessário, eliminação de ruídos, prévia à extração de informação
temática.
A imagem a ser estudada corresponde a um corte realizado em uma
imagem proveniente do sensor CCD do satélite CBERS. A imagem possui
quatro bandas espectrais, sendo azul, verde, vermelho e infravermelho
próximo, com resolução espacial de 20m. A imagem foi cedida pelo INPE e é
datada de 26 de Junho de 2001. O corte abrange a área desde a Barra da
Tijuca até a Vila Militar no Rio de Janeiro – RJ.
Após a fase de pré-processamento, são empregadas diversas técnicas
de processamento digital de imagens para o estudo da viabilidade de extração
de feições temáticas da imagem.
XV
ABSTRACT
The use of remote sensing images in cartography is a more and more
acceped and diffused reality in the community, seen that the range of sensors
becomes wider every day. For the correct using of satellite images in the
updating of topographical maps, its necessary to pre-process those images, in
order to georreferentiate them and, if necessary, eliminate noise, before the
extraction of thematical information from the images.
The image to be studied corresponds to a cut carried out in an image
originated from the CCD sensor of the CBERS satellite. The image has four
spectral bands, blue, green, red and near infrared, with 20m spatial resolution.
The image was given by INPE and is dated from June 26, 2001. The cut
includes the area since "Barra da Tijuca" up to "Vila Militar" in the city of Rio de
Janeiro – RJ.
After the pre-processing stage, several digital image processing
techniques will be employed in order to evaluate feasability in the extraction of
thematical features from the image.
1
1. INTRODUÇÃO
1.1 Enquadramento do Projeto
Os recursos naturais e o meio ambiente estão em mudanças contínuas em
resposta à evolução natural e às atividades humanas. Para compreender o
complexo inter-relacionamento dos fenômenos que causam estas mudanças é
necessário fazer observações com uma grande gama de escalas temporais e
espaciais. A observação da Terra por meio de satélites é uma maneira efetiva e
econômica de coletar os dados necessários para monitorar e modelar estes
fenômenos, especialmente em países de grande extensão territorial. Os
satélites empregados para estes propósitos são complexos, dispendiosos e de
alto conteúdo tecnológico.
Em julho de 1988, os governos do Brasil e da República Popular da China
assinaram um acordo para iniciar um projeto de desenvolvimento de dois
satélites de sensoriamento remoto. O Programa CBERS - China-Brazil Earth
Resources Satellite agrega a capacidade técnica e os recursos financeiros dos
dois países para estabelecer um sistema completo de sensoriamento remoto
competitivo e compatível com as necessidades internacionais atuais. Em 14 de
outubro de 1999 ocorreu o lançamento do primeiro Satélite CBERS, utilizando-
se o foguete Chinês Longa Marcha 4B. Tendo cumprido todas as etapas
previstas em órbita, a partir da abertura dos painéis solares e tendo passado
pelas fases de ajuste de órbita e testes dos subsistemas, e realizado os testes
e calibração de suas três câmaras - CCD, IRMSS e WFI, o satélite foi
considerado apto para operação normal.
O satélite CBERS, (figura 1.1), é composto de dois módulos. O módulo
carga útil, (tabela 1.1), acomoda os sistemas ópticos (CCD - High Resolution
CCD Cameras, IRMSS - Infra-Red Multispectral Scanner e WFI - Wide Field
Imager) e os eletrônicos usados para observação da Terra e Coleta de Dados.
O módulo serviço contém os equipamentos que asseguram o suprimento de
energia, os controles, as telecomunicações e demais funções necessárias à
operação do satélite.
2
Características Massa total 1450 kg Potência gerada 1100 W Baterias 2 x 30 Ah NiCd Dimensões do corpo (1,8 x 2,0 x 2,2) m Dimensões do painel 6,3 x 2,6 m Altura da órbita hélio-síncrona 778 km Propulsão a hidrazina 16 x 1 N; 2 x 20 N Estabilização 3 eixos Supervisão de bordo Distribuída Comunicação de Serviço UHF e banda S Tempo de vida (confiabilidade de 0,6) 2 anos
TAB 1.1 – Características do Satélite CBERS
FIG 1.1 – Satélite CBERS
A órbita do CBERS é heliossíncrona a uma altitude de 778 km,
perfazendo cerca de 14 revoluções por dia. Nesta órbita, o satélite cruza o
equador sempre na mesma hora local, 10:30 da manhã, permitindo assim que
se tenha sempre a mesma condição de iluminação solar para a comparação de
imagens tomadas em dias diferentes. O satélite demora 26 dias para retornar
ao mesmo ponto de cobertura da Terra. Este é o tempo necessário para se ter
imagens de todo o globo terrestre com suas câmaras CCD e IRMSS que
possuem campos de visada de 113 Km a 120 Km, respectivamente. Já com a
câmara WFI, que consegue imagear uma faixa de 890 km de largura, o tempo
3
necessário para uma cobertura global é de 5 dias. Em visada lateral, pode-se
obter imagens da mesma área do terreno a cada 3 dias.
O satélite CBERS é equipado com câmaras para observações ópticas
de todo o globo terrestre, além de um sistema de coleta de dados ambientais.
São sistemas de sensores que combinam características especiais para
resolver a grande variedade de escalas temporais e espaciais.
1.1.1 Imageador de Largo Campo de Visada (WFI - Wide Field Imager)
O WFI imageia uma faixa de 890 km de largura, fornecendo uma
imagem com resolução espacial de 260 m. Em cerca de 5 dias obtém-se uma
cobertura completa do globo em duas bandas espectrais centradas em:
0,66µm (vermelho) e 0,83µm (infravermelho próximo)
1.1.2 Câmara CCD de Alta Resolução (CCD - High Resolution CCD
Camera)
A câmara CCD (tabela 1.2) fornece imagens de uma faixa de 113 km de
largura, com uma resolução de 20 m. Esta câmara tem capacidade de orientar
seu campo de visada dentro de ± 32 graus, possibilitando a obtenção de
imagens estereoscópicas. Além disso, qualquer fenômeno detectado pelo WFI
pode ser focalizado pela Câmara CCD através do apontamento apropriado de
seu campo de visada, no máximo a cada 3 dias. A Câmara CCD opera em 5
faixas espectrais, sendo uma faixa pancromática, uma faixa no azul, uma no
verde, uma no vermelho e uma faixa no infravermelho próximo. As duas faixas
espectrais do WFI são também empregadas na câmara CCD para permitir
a combinação dos dados obtidos pelas duas câmaras. São necessários 26
dias para uma cobertura completa da Terra com a câmara CCD. Cabe
ressaltar que as imagens pancromáticas, bem como as imagens
estereoscópicas ainda não estão disponíveis devido a problemas presentes no
sensor.
4
Características do Sensor CCD
Bandas espectrais
0,51 - 0,73 µm (pan) 0,45 - 0,52 µm (azul) 0,52 - 0,59 µm (verde) 0,63 - 0,69 µm (vermelho) 0,77 - 0,89 µm (infravermelho próximo)
Campo de Visada 8,3º Resolução espacial 20 x 20 m Largura da faixa imageada 113 km Capacidade de apontamento do espelho
±32º
Resolução temporal 26 dias com visada vertical (3 dias com visada lateral)
Portadora de Rádio Freqüência 8103 a 8321 MHz Taxa de dados da imagem 2 x 53 Mbits/s
TAB 1.2 – Características do Sensor CCD / INPE (2002)
1.1.3 Câmera de Varredura no Infravermelho (IR-MSS - Infrared
Multispectral Scanner)
A câmera de varredura IR-MSS tem 4 faixas espectrais e estende o
espectro de observação do CBERS até o infravermelho termal. O IR-MSS
produz imagens de uma faixa de 120 km de largura com uma resolução de 80
m (160 m na banda termal). Em 26 dias obtém-se uma cobertura completa da
Terra que pode ser correlacionada com aquela obtida através da câmera CCD.
1.1.4 Linha de Pesquisa
Na cartografia, dentro de certos limites de escala, tem-se a possibilidade
de realizar atualizações de cartas topográficas com a utilização de imagens de
satélites sem recorrer ao uso do vôo aerofotogramétrico. Dentro deste
contexto, pode-se inserir esse trabalho na área de Sensoriamento Remoto,
visto que será estudado um produto oriundo de um sensor capaz de obter
informações do terreno sem necessidade de contato com o mesmo. No
Departamento de Engenharia Cartográfica do Instituto Militar de Engenharia,
este trabalho está inserido no grupo de pesquisa de Imageamento do Terreno.
5
1.2 Objetivos
O objeto deste estudo é uma imagem do sensor CCD do CBERS
com quatro bandas espectrais - azul, verde, vermelho e infravermelho próximo
com resolução espacial de 20m. A imagem foi cedida pelo INPE e é datada de
26 de junho de 2001.
FIG 1.2 – Corte da imagem do sensor CCD
O objetivo do trabalho consiste em avaliar as potencialidades
cartográficas de imagens CBERS através do estudo de extração de feições
para a atualização de cartas topográficas, mediante a avaliação da sua
qualidade geométrica. Levando em conta as características da imagem a ser
utilizada (falta de um georreferenciamento com precisão compatível com
aplicações cartográficas e presença de ruído), faz-se necessário um pré-
6
processamento da imagem que engloba as fases de georreferenciamento e
eliminação de ruído.
O georreferenciamento da imagem será feito utilizando-se pontos de
controle e pontos de teste obtidos na base cartográfica da região, na escala
1:2.000. Já a correção radiométrica será feita através da utilização de técnicas
de processamento digital de imagens, comparando-se os resultados obtidos
através de aplicação de diversos procedimentos de filtragem.
Após a fase de pré-processamento serão empregadas técnicas de
processamento digital de imagens para a extração da informação temática
atualizada. Pode-se citar como técnicas empregadas na extração de
informação temática as ferramentas de fatiamento de densidades, razão de
bandas (simples e NDVI) e classificação supervisionada da imagem.
1.3 Área de Interesse
A imagem utilizada no presente trabalho abrange um setor da área
urbana do Rio de Janeiro. Nela estão presentes vários elementos, como
vegetação, mar, lagoas, além de uma área densamente urbanizada, o que
possibilita um estudo abrangente sobre as possibilidades de se extrair das
imagens do sensor CCD, as informações temáticas que poderão ser utilizadas
para a atualização de cartas topográficas. A imagem caracteriza-se ainda pela
presença de áreas planas e áreas montanhosas. A área correspondente é
coberta pela carta topográfica Vila Militar na escala 1:50000.
1.4 Outras Considerações
O interesse de se desenvolver uma pesquisa tendo como tema uma
imagem CBERS decorre da possibilidade de se valorizar um produto oriundo
de tecnologia brasileira, viabilizando a utilização deste tipo de imagem na área
de cartografia.
7
A escassez de publicações sobre este tema é outro fator relevante a ser
considerado, visto que o próprio INPE manifesta interesse em que se
desenvolvam pesquisas sobre as imagens do CBERS.
O trabalho está dividido em uma introdução, seguida da fundamentação
teórica e da metodologia empregada, para seqüencialmente serem
apresentados os resultados obtidos e sua discussão e uma conclusão.
1.5 Cronograma
Para a realização do presente projeto de pesquisa será seguido o
seguinte cronograma:
FASES DO PROJETO
M
A
R
A
B
R
M
A
I
J
U
N
J
U
L
A
G
O
S
E
T
O
U
T
Pesquisa Bibliográfica
Escolha da Imagem
Corte da Imagem
Georreferenciamento da Imagem
Eliminação de Ruído
Extração de Feições da Imagem
Estudo das Potencialidades Cartográficas
TAB 1.3 – Cronograma
8
2. FUNDAMENTAÇÃO TEÓRICA
2.1 Conceitos Básicos de Sensoriamento Remoto
Segundo Novo (1988), Sensoriamento Remoto é toda a tecnologia que
possibilita a aquisição de informações sobre objetos sem contato físico com os
mesmos. Neste sentido, os sensores são equipamentos capazes de coletar
energia proveniente de objetos, convertê-la em sinal passível de ser registrado
e apresentá-lo em forma adequada à extração de dados. As mais diversas
informações obtidas dos produtos de sensoriamento remoto são resultado da
interação entre a radiação eletromagnética e as substâncias que compõem os
objetos presentes na superfície da Terra.
Os sistemas sensores podem ser classificados, quanto a fonte de
energia, em sensores passivos e sensores ativos. Os sensores passivos
detectam a radiação solar refletida ou a radiação emitida pelos objetos da
superfície. Os sensores ativos são aqueles que produzem sua própria radiação.
2.1.1 O Espectro Eletromagnético
A radiação eletromagnética propaga-se no vácuo a uma velocidade de
300000 m/s. A intensidade da radiação varia de acordo com uma função
senoidal e está correlacionada diretamente com o comprimento de onda e a
freqüência. O comprimento de onda λ é definido pela distância média entre
dois pontos semelhantes consecutivos da onda, como, por exemplo, dois
mínimos ou dois máximos. A freqüência f é o intervalo de tempo entre dois
pontos consecutivos de mesma intensidade. A fonte principal de radiação
natural é o Sol, que emite, a uma temperatura de cerca de 6000 K, grandes
quantidades de energia em um espectro contínuo.
No que se refere às técnicas de sensoriamento remoto por sistemas
passivos, a faixa do espectro mais utilizada estende-se do ultravioleta até o
infravermelho. A radiação natural forma um espectro contínuo, que contém
comprimentos de ondas de milésimos de nanômetros até dezenas de
9
quilômetros. As técnicas de sensoriamento remoto por sistemas passivos,
contudo, utilizam somente o intervalo de 0,4 até 2,5 µm, dividido em bandas
espectrais. A banda espectral do visível representa um pequeno intervalo entre
0,38 µm e 0,72 µm, seguida pelo infravermelho, que chega até 3,0 µm. O
infravermelho pode ser dividido em infravermelho próximo ou reflexivo, de 0,72
µm a 1,3 µm e o infravermelho afastado ou emissivo, de 1,3 µm a 3,0 µm.
2.1.2 Influência Atmosférica
Durante o seu caminho através da atmosfera, a radiação solar é
atenuada pelos gases e aerossóis que a compõem. Alguns gases (oxigênio,
ozônio, vapor d’água, gás carbônico) absorvem a energia eletromagnética em
determinadas bandas do espectro de maneira que a atmosfera é
intransmissível à radiação nestas bandas. O grau de transmissão, ou
transmissividade representa a capacidade das ondas eletromagnéticas em
penetrarem a atmosfera. As faixas de comprimento de onda para as quais a
atmosfera parece transmissível são definidas como janelas atmosféricas. Elas
têm grande importância porque possibilitam a reflexão da radiação pela Terra e
podem ser aproveitadas pelos sistemas sensores passivos.
2.1.3 Características Espectrais de Alvos
Segundo Novo (1988), para que se possa extrair informações a partir de
dados de sensoriamento remoto, é fundamental o conhecimento do
comportamento espectral dos objetos da superfície terrestre e dos fatores que
interferem neste comportamento. A determinação da natureza dos alvos pelos
métodos de sensoriamento remoto é baseada no fato de que diferentes
materiais são caracterizados por reflectâncias próprias em cada banda do
espectro.
A reflectância ou fator de reflexão é proporcional à razão da radiação
refletida pela radiação incidente. Quando as respostas espectrais de vários
10
materiais são conhecidas, as propriedades de alvos desconhecidos podem ser
determinadas pela comparação das respostas espectrais desses alvos com os
dados de referência.
2.1.3.1 Refletividade da Vegetação
A determinação e a diferenciação da vegetação pelos métodos de
sensoriamento remoto é possível no intervalo de comprimento de onda de 0,4
até 2,5 µm, pois neste intervalo as folhas são caracterizadas por
comportamentos específicos de reflexão, absorção e transmissão. Nas bandas
do visível o comportamento da reflexão é determinado pela clorofila, cuja
absorção encontra-se no intervalo do azul e do vermelho, enquanto reflete no
intervalo do verde.
A clorofila regula o comportamento espectral da vegetação e o faz de
maneira mais significativa em comparação com outros pigmentos. A clorofila
absorve a faixa espectral do verde só em pequena quantidade, por isso a
reflectância é maior neste intervalo , o que é responsável pela cor verde das
folhas para a visão humana. Na banda do infravermelho, dependendo do tipo
de planta, a radiação é refletida em uma proporção de 30 a 70% dos raios
incidentes, ainda que as superfícies das folhas e os pigmentos sejam
transparentes para esses comprimentos de onda.
2.1.3.2 Refletividade dos Solos
As curvas espectrais dos solos sem vegetação apresentam, no intervalo
espectral correspondente ao azul, valores de reflexão baixos, os quais
aumentam continuamente em direção à banda do vermelho e do infravermelho.
Os parâmetros constantes, como tipo de mineral, granulação e conteúdo de
material orgânico, assim como os parâmetros variáveis, como umidade do solo
e rugosidade de superfície, influenciam a resposta espectral. Deve-se ressaltar
a existência de elevada correlação entre os parâmetros constantes e os
variáveis.
11
Uma alta umidade do solo é caracterizada, em todos os comprimentos
de onda, por valores baixos de reflexão.
2.1.3.3 Refletividade da Água
Segundo Novo (1988), os diferentes estados físicos da água influenciam
seu comportamento espectral. A água em estado líquido apresenta baixa
reflectância entre 0,38 e 0,70 µm, absorvendo toda a radiação acima de 0,7
µm.
2.1.3.4 Refletividade das Áreas Urbanas
As áreas urbanas são caracterizadas por uma aparência heterogênea,
causada pelo fato da variação interna dessas áreas ser muito grande, devido à
sua própria natureza. As áreas residenciais, por exemplo , são formadas por
materiais variados, tais como concreto, asfalto, vidro, ferro e vegetação. Há que
se considerar ainda, a influência das sombras causadas por edificações altas.
Por isso, a refletividade de cidades só pode ser descrita de uma forma
generalizada.
A detecção de áreas urbanizadas representa um fator limitante para
aplicação de classificações automáticas, pois a informação espectral pode ser
parecida com a de solos puros ou de áreas agrícolas.
2.2 Processamento Digital de Imagens
A análise digital de dados, mais especificamente, a análise de imagens
digitais de sensoriamento remoto orbital, possibilitou, nos últimos anos, um
grande desenvolvimento das técnicas voltadas para a análise de dados
multidimensionais, adquiridos por diversos tipos de sensores.
Por processamento digital de imagens entende-se a manipulação de
uma imagem por computador. O objetivo de se usar processamento digital de
12
imagens é melhorar o aspecto visual de certas feições estruturais para o
analista humano e fornecer outros subsídios para a sua interpretação, inclusive
gerando produtos que possam ser posteriormente submetidos a outros
processamentos.
A área de processamento digital de imagens tem atraído grande
interesse nas últimas duas décadas. A evolução da tecnologia de computação
digital, bem como o desenvolvimento de novos algoritmos para lidar com sinais
bidimensionais está permitindo uma gama de aplicações cada vez maior.
O processamento digital de imagens pode ser dividido em três etapas
independentes: pré-processamento, realce e classificação. O pré-
processamento refere-se ao processamento inicial de dados brutos para
calibração radiométrica da imagem, correção de distorções geométricas e
remoção de ruído. As técnicas de realce mais comuns em processamento
digital de imagens são: realce de contraste, filtragem, operações aritméticas e
componentes principais. Já as técnicas de classificação podem ser divididas
quanto à forma de treinamento (supervisionada e não-supervisionada) ou
quanto ao processo de classificação (por região e por pixel).
2.2.1 Pré-Processamento Digital de Imagens
2.2.1.1 Georreferenciamento de Imagens Digitais
Segundo Crósta (1993), imagens geradas por sensores remotos são
sujeitas a uma série de distorções espaciais, não possuindo portanto precisão
cartográfica quanto ao posicionamento dos objetos, superfícies ou fenômenos
nelas representados. Os tipos de distorções mais comuns são causadas pela
velocidade de rotação da Terra, instabilidade da plataforma e curvatura da
Terra.
Para que a precisão cartográfica seja introduzida em imagens de
sensoriamento remoto, faz-se necessário que essas imagens digitais sejam
corrigidas segundo algum sistema de coordenadas. A transformação de uma
imagem de modo que ela assuma as propriedades de escala e de projeção de
13
um mapa é chamada de correção geométrica. Chama-se georreferenciamento
a técnica empregada para se obter o ajuste do sistema de coordenadas de
uma imagem ao sistema equivalente de uma outra base cartográfica, que pode
ser uma carta ou uma outra imagem.
Segundo Richards (1986) existem duas técnicas para corrigir os vários
tipos de distorção geométrica em uma imagem digital: a primeira consiste em
uma transformação baseada no modelo de geometria orbital e o segundo
consiste na transformação baseada em pontos de controle (PC) do terreno. Na
prática, essas duas formas de correção devem ser aplicadas de forma
complementar, sendo a primeira aplicada para suavizar as distorções e a
segunda para refinar e ainda referenciar a imagem a algum sistema de
coordenadas de terreno.
A técnica baseada em pontos de controle consiste em se estabelecer
relações matemáticas entre as posições dos pixels numa imagem e suas
coordenadas correspondentes no terreno, de acordo com um sistema de
coordenadas. Segundo Mather (1999) a correção de imagens utilizando pontos
de controle implica no uso de polinômios de mapeamento; assim, são definidos
dois sistemas de coordenadas cartesianas;
(x,y) → pontos no terreno
(u,v) → pontos na imagem
e um par de funções que relacionem esses dois sistemas;
u = f(x,y)
v = g(x,y)
As funções f e g são polinômios de 1o grau (eq. 2.1) 2o grau (eq. 2.2) ou
3o grau (eq. 2.3).
++=
++=
ybxbbv
yaxaau
210
210 eq. 2.1
+++++=
+++++=2
52
43210
25
243210
ybxbxybybxbbv
yaxaxyayaxaau eq. 2.2
+++++++++=
+++++++++=3
93
82
72
62
52
43210
39
38
27
26
25
243210
ybxbxybyxbybxbxybybxbbv
yaxaxyayxayaxaxyayaxaau eq. 2.3
14
Polinômios de grau maior que três não costumam ser usados pois um
aumento no grau do polinômio implica numa melhora da acurácia apenas na
vizinhança dos PC, degradando a exatidão posicional do resto da imagem.
Segundo Crósta (1993) os PC devem ser feições bem definidas,
geralmente com grande contraste espectral em relação aos arredores da
imagem e facilmente reconhecíveis. Os pontos de controle utilizados no
presente trabalho foram retirados da base cartográfica do Rio de Janeiro na
escala 1:2000 fornecida pelo Instituto Pereira Passos – IPP/Rio de Janeiro-RJ.
A solução das equações descritas acima é realizada através do
ajustamento das observações pelo Método dos Mínimos Quadrados. Segundo
Gemael (1994) é necessária uma superabundância de observações para se
realizar o ajustamento. Assim, sendo n o número de observações e u o número
de parâmetros, é necessário que se tenha n> u.
O software que irá realizar os cálculos dos parâmetros da transformação
deve fornecer os resíduos para cada PC, de forma que o usuário possa avaliar
os erros decorrentes da transformação.
Segundo Crósta (1993), o processo de correção das distorções de uma
imagem através de PC resulta na produção de uma nova imagem. Os pixels
dessa nova imagem, por força do processo de correção, não correspondem
espacialmente aos pixels da imagem original, desta forma é necessário que se
determine o novo valor do nível de cinza (NC) de cada pixel na imagem
reamostrada.
Os novos valores de NC são determinados por métodos de interpolação,
sendo que os métodos mais comuns são: Vizinho mais Próximo, Interpolação
Bilinear e Convolução Cúbica. A escolha de qual dos métodos deve ser usado
depende basicamente de dois fatores: qual será o uso dado à imagem e quais
os recursos computacionais disponíveis, visto que o custo computacional de
processamento de algumas técnicas é elevado.
Segundo Brito (2002), tabela 2.1, a comparação entre os algoritmos de
interpolação apresenta vantagens e desvantagens que devem ser analisadas
no momento da escolha do método.
Após os cálculos dos coeficientes dos polinômios de mapeamento e da
reamostragem, a imagem, agora georreferenciada, está pronta para ser usada.
Todavia, é interessante que antes disso, seja feita uma análise da qualidade do
15
georreferenciamento utilizando pontos de teste (PT). Com os polinômios de
mapeamento, obtêm-se as coordenadas dos PT medidos na imagem para
compará-los com o seu valor real no terreno. A análise dos resíduos dos PT
dará uma idéia não tendenciosa da precisão do georreferenciamento e,
conseqüentemente, dos limites de escalas para a utilização da imagem em
projetos de Engenharia Cartográfica. Cabe ressaltar que alguns tipos de
programas computacionais não separam os pontos usados para o
georreferenciamento e só fo rnecem um grupo de pontos. O sistema SPRING
cria automaticamente dois grupos: o de PC e o de PT, cabendo ao usuário
decidir quais pontos pertencerão a cada um dos grupos.
Processo Vantagens Desvantagens
Vizinho mais
Próximo
- preserva os níveis de cinza
originais;
- adequado para manipulação
numérica;
- fácil implementação;
- processamento rápido.
- ocorrência de
descontinuidades
geométricas;
- imagem reamostrada
apresenta pouca estética.
Interpolação
Bilinear
- maior precisão geométrica;
- não se formam
descontinuidades.
- imagem suavizada;
- grande volume de cálculos;
- altera o valor dos níveis de
cinza da imagem original;
Convolução
Cúbica
- não se formam
descontinuidades;
- produz imagens com
aparência mais natural.
- degradação da qualidade
radiométrica da imagem;
- grande volume de cálculos.
TAB 2.1 – Comparação entre os Algoritmos / Brito (2002)
16
2.2.1.2 Eliminação de Ruído
As imagens digitais geradas por sensores remotos possuem
freqüentemente imperfeições que são inerentes ao processo de imageamento
e transmissão dos dados. Os ruídos presentes nas imagens não representam
apenas um fator visualmente desagradável, mas também podem afetar
algumas técnicas de processamento digital de imagens. As técnicas
empregadas para a remoção de ruído são variadas e dependem da origem do
mesmo. A técnica mais utilizada consiste na aplicação de filtros de convolução.
2.2.1.2.1 Filtragem
Segundo Crósta (1993), a enorme mistura de freqüências em uma
imagem dificulta a interpretação de feições com freqüências específicas. Para
contornar esse problema e melhorar a aparência da distribuição espacial das
informações, são usadas técnicas de filtragem. No contexto deste projeto, são
analisados os filtros de convolução, os filtros de textura e os filtros adaptativos.
A) Filtros de Convolução: são analisados dois tipos básicos de filtros de
convolução, filtro passa baixas e filtro da mediana.
- Filtro Passa Baixas: a maior utilização do filtro passa baixas é a remoção de
ruídos, comuns em imagens de satélite. O filtro passa-baixas preserva as
baixas freqüências na imagem, provocando um efeito de suavização
(smoothing). Outra característica desse filtro é que o efeito de suavização
aumenta proporcionalmente à dimensão da máscara usada. Apresenta como
principal desvantagem, perda de informação.
- Filtro da Mediana: neste tipo de filtro o pixel central da máscara é substituído
pelo valor mediano dos seus vizinhos. Apresenta como principal vantagem a
homogeneização da imagem.
B) Filtros de Textura: várias imagens contêm regiões que são caracterizadas
por variações de luminosidade. O filtro de textura interpreta as variações
espaciais de tons da imagens como uma função de escala. Ao contrário das
características espectrais que descrevem as variações de tonalidade de um
17
objeto, a textura contém informações sobre a distribuição espacial dessas
variações de tonalidade. São analisados dois tipos básicos de filtros de textura,
filtro Occurrence Measures e filtro Co- Occurrence Measures.
- Filtro Occurrence Measures: os filtros de ocorrência usam o número de
ocorrências de cada nível de cinza dentro da janela de processamento para o
cálculo da textura.
- Filtro Co-Occurrence Measures: o filtro Co-Occurrence é usado para aplicar
automaticamente diferentes tipos de filtros de textura baseado na matriz de co-
ocorrência. O filtro de co-ocorrência usa os tons de cinza em função da matriz
de cálculo dos valores de textura. Esta matriz é a matriz das freqüências
relativa dos valores dos pixels que ocorrem nas vizinhanças da janela de
processamento.
C) Filtros Adaptativos: são analisados dois tipos básicos de filtros de
convolução, filtro Lee e filtro Sigma Local, ambos recomendados para a
eliminação de ruído em imagens de radar. Porém, considerou-se de interesse
testar seu desempenho ao ser aplicado na imagem CCD/CBERS.
2.2.2 Extração de Feições
2.2.2.1 Operações Aritméticas
Operações aritméticas são operações pixel a pixel entre imagens de
bandas diferentes, através de uma regra matemática definida, tendo como
resultado uma banda representante da combinação das bandas originais. As
operações mais comuns são a soma, subtração, divisão (ou razão entre
bandas) e a multiplicação de uma banda por uma constante (realce linear).
Estas operações podem requerer um fator de ganho (multiplicativo) ou
off-set (aditivo), para melhorar a qualidade de contraste da imagem. Os fatores
devem ser definidos considerando a faixa de valores de entrada e a operação a
executar. Em geral, as operações de adição e multiplicação são utilizadas para
18
realçar similaridade entre bandas ou diferentes imagens e a subtração e a
divisão, para realçar as diferenças espectrais.
2.2.2.1.1 Razão de Bandas Simples
A razão de bandas simples é utilizada para realçar as diferenças
espectrais de um par de bandas, caracterizando determinadas feições da curva
de assinatura espectral de alguns alvos.
Pode apresentar resultados incorretos devido a:
- Bandas que apresentam ruídos, pois estes serão realçados.
- Presença do espalhamento atmosférico seletivo em relação às bandas
espectrais, gerando valores de nível de cinza que não representam a diferença
de reflectância entre os alvos.
- Presença de objetos distintos nas bandas originais com características
espectrais semelhantes, porém de diferentes intensidades. Na imagem
resultante, estes objetos não serão distintos.
A seguir, alguns exemplos de aplicação:
- Remover efeitos de ganho provenientes de variações espaciais ou temporais,
quando ocorrem em bandas de uma mesma imagem;
- Diminuir variações de radiância da imagem, provenientes de efeito de
topografia, declividade e aspecto;
- Aumentar diferenças de radiância entre solo e vegetação.
- Para aumentar o contraste entre solo e vegetação, utilizando a razão entre as
bandas referentes ao vermelho e infravermelho próximo. Esta operação
obedece a equação: RB = B4/B3, onde B3 é a banda do vermelho e B4 é a
banda do infravermelho nas imagens CCD do CBERS.
2.2.2.1.2 NDVI - Normalised Difference Vegetation Index
O índice de vegetação de diferença normalizada (NDVI) possui a
característica de aumentar o contraste espectral entre a vegetação e o solo,
tendo os efeitos de iluminação e declividade da superfície compensados pelo
19
índice. Esta operação obedece a equação: NDVI = (B3-B4)/(B3+B4), onde B3 é
a banda do vermelho e B4 é a banda do infravermelho.
2.2.2.2 Classificação Digital de Imagens
Define-se classificação de imagens como sendo o processo de extração
de informação em imagens para reconhecer padrões e objetos homogêneos.
Desse modo, a classificação pode ser considerada como uma função que
associa a cada pixel da imagem uma determinada classe temática.
Os classificadores, por sua vez, são algoritmos que têm por objetivo a
implementação de uma determinada função de classificação, associando a
cada pixel da imagem uma classe de uma cena.
Os classificadores podem ser divididos da seguinte forma:
a) quanto à forma de treinamento: classificadores supervisionados e não-
supervisionados;
b) quanto ao processo de classificação: classificadores por região e
classificadores pixel a pixel.
Na classificação supervisionada existem regiões da imagem em que o
usuário dispõe de informações que permitem a identificação de uma classe de
interesse. Para um treinamento supervisionado o usuário deve identificar na
imagem uma área representativa de cada classe. É importante que a área de
treinamento seja uma amostra homogênea da classe respectiva, mas ao
mesmo tempo deve-se incluir toda a variabilidade dos níveis de cinza do tema
em questão.
Quando o usuário utiliza algoritmos para reconhecer as classes
presentes na imagem, o treinamento é dito não-supervisionado. Ao definir
áreas para o treinamento não-supervisionado, o usuário não deve se preocupar
com a homogeneidade das classes. As áreas escolhidas devem ser
heterogêneas para assegurar que todas as possíveis classes e suas
variabilidades sejam incluídas.
Os classificadores por região utilizam, além de informação espectral de
cada pixel, a informação espacial que envolve a relação entre os pixel e seus
vizinhos. Estes classificadores procuram simular o comportamento de um foto-
20
intérprete, ao reconhecer áreas homogêneas de imagens, baseados nas
propriedades espectrais e espaciais de imagens. A informação de borda pode
ser utilizada inicialmente para separar as regiões e as propriedades espaciais e
espectrais que irão unir áreas com mesma textura.
Os classificadores pixel a pixel utilizam apenas a informação espectral,
isoladamente, de cada pixel para achar regiões homogêneas. Estes
classificadores podem ser ainda separados em métodos estatísticos (que
utilizam regras da teoria de probabilidade) e determinísticos (que não o fazem).
Existe ainda um tipo mais simples de classificação, conhecido por
fatiamento de densidades, que não se encaixa em nenhuma categoria de
classificação mencionada acima.
2.2.2.2.1 Fatiamento de Densidades
Segundo Crósta (1993), o fatiamento de densidades (fatiamento de
níveis de intensidade) representa a forma mais simples de classificação e é
aplicado a uma única banda espectral de cada vez. Este método corresponde
na verdade a uma forma de aumento de contraste, uma vez que realça os
pixels cujas intensidades se situem dentro de um intervalo especificado (fatia)
de níveis de cinza. O fatiamento é geralmente feito de forma interativa, na qual
o usuário pode definir a largura da fatia para que as feições de interesse sejam
realçadas.
2.2.2.2.2 Classificação Supervisionada
Segundo Richards (1986), o princípio de classificação supervisionada é
baseado no uso de algoritmos para se determinar os pixels que representam
valores de reflexão característicos para uma determinada classe. O método
supervisionado se inicia a partir de um certo conhecimento da área de estudo,
adquirido por experiências anteriores ou por trabalhos de campo. Este método
envolve três passos básicos;
21
a) Treinamento: onde são identificadas as áreas de treinamento e onde há
uma descrição dos atributos espectrais de cada tipo de cobertura de
interesse na cena.
b) Classificação: o pixel é classificado em função de suas características,
se assemelhando ou não a alguma classe, caso contrario, ele é dito
desconhecido.
c) Resultado: podem ser analisados de diferentes maneiras. São formas
típicas de produtos: os mapas temáticos, as tabelas com dados
estatísticos para varias classes de cobertura de solo e os dados para
posterior utilização em geoprocessamento.
Segundo Crósta (1993), a área da imagem na qual o usuário identifica
como representante de uma classe é chamada área de treinamento. Uma área
de treinamento é definida traçando-se seus limites diretamente sobre a
imagem. Várias áreas de treinamento podem ser definidas para cada classe,
para assegurar que os pixels a ela pertencentes são realmente representativos
desta classe. Define-se conjunto de treinamento todos os pixels dentro de uma
área de treinamento para cada uma das classes.
Existem alguns métodos estatísticos usados para classificação dos
pixels da imagem, sendo eles: Método do Paralelepípedo, Método da Mínima
Distância e método da Máxima Verossimilhança.
A) Método da Máxima Verossimilhança: a classificação Maxver é a
classificação supervisionada mais aplicada no tratamento de dados de
satélites. O método é baseado no princípio de que a classificação errada de um
pixel particular não tem mais significado do que a classificação errada de
qualquer outro pixel na imagem. O usuário determina a significância nos erros
de atributos especificados para uma classe em comparação a outras. Por
exemplo, tendo-se duas subclasses da classe trigo, seria mais aceitável
classificar um pixel particular na subclasse milho para a subclasse cevada do
que para a classe água.
O método estatístico da máxima verossimilhança é o mais popular
devido principalmente a sua performance, sendo, por esta razão, que muitas
das novas técnicas de classificação são comparadas com este método. O
resultado do Maxver é melhor quanto maior o número de pixels numa amostra
22
de treinamento para implementá-los na matriz de covariância. Se o tamanho
das amostras de treinamento para as classes é limitado, recomenda-se um
método de classificação mais simples e rápido, que não use uma matriz de
covariância. Para que a classificação por máxima verossimilhança seja precisa
o suficiente, é necessário um número razoavelmente elevado de pixels para
cada conjunto de treinamento. Isto resultará em uma precisão razoável da
estimativa do vetor médio e da matriz de covariância de todas as classes
espectrais.
Os conjuntos de treinamento definem o diagrama de dispersão das
classes e suas distribuições de probabilidade, considerando a distribuição de
probabilidade normal para cada classe do treinamento. Crósta (1993) considera
que o método Maxver deve ser aplicado quando o analista conhece bem a
imagem a ser classificada, para que possa definir classes que sejam
representativas.
2.2.2.3 Distância de Jeffries-Matusita (JM distance)
A distância de Jeffries-Matusita é um método muito usado em
sensoriamento remoto para a obtenção da separabilidade dos pares de classes
usadas na classificação supervisionada. Os valores de JM podem variar de
zero a dois, sendo que zero representa pares de classes com grande
correlação e dois representa pares de classes não correlacionadas. No
contexto deste trabalho, define-se como critério aceitável para a utilização das
classes na classificação supervisionada, valores de JM acima de 1,5.
2.2.2.4 Pós-Classificação Digital de Imagens
O controle dos resultados de classificação é um dos passos mais
importantes para se chegar a um resultado bem homogêneo, mas também,
para controlar a qualidade das diferentes classificações aplicadas. Um dos
métodos mais usados na avaliação da classificação é através da análise da
Matriz de Confusão ou de Erros e do Coeficiente Kappa.
23
2.2.2.4.1 Matriz de Confusão ou de Erros
A Matriz de Confusão ou de Erros é usada para avaliar o resultado de
uma classificação, para isso, ela compara os dados da verdade de campo com
os da classificação, agrupando-os como mostrado na tabela 2.2.
Matriz de Confusão
Classes A B C
A 35 2 2
B 10 37 3
C 5 1 41
Total 50 40 46
Omissão (%) 30,0 7,5 10,9 Tabela 2.2 – Matriz de Confusão
Os componentes da diagonal principal da matriz de confusão fornecem o
número de pixels corretamente classificados para cada classe correspondente.
Por exemplo, para a classe B, foram corretamente classificados 37 pixels, no
entanto, constatou-se que nessa mesma classe, foram classificados 10 pixels
como pertencentes a classe A, bem como outros 3 pixels que na realidade são
da classe C. Portanto, para os 50 pixels da classe B, 37 (74,0%) foram bem
classificados, enquanto o restante foram mal classificados. Este erro de
classificação é denominado erro de inclusão, pois se está incluindo pixels em
uma classe quando na verdade eles pertencem a outra(s). Analisando agora do
ponto de vista da verdade de campo, a classe C, por exemplo, tem 41 pixels
bem classificados. Porém há 2 pixels seus que são classificados como A e
outros 3 que são classificados como sendo da classe B. Este erro é o erro de
omissão, pois nos dois casos está-se a omitir pixels da classe correta
atribuindo-os a outra(s) classe(s).
Um subproduto da matriz de confusão, que auxilia na avaliação do
classificador é o coeficiente kappa(k). Uma das vantagens assumidas para o
uso do kappa é de que ele incorpora a informação dos pixels mal classificados,
e não apenas dos bem classificados.
24
2.2.2.4.2 Coeficiente Kappa
O coeficiente kappa ou coeficiente de concordância é obtido através da
seguinte expressão:
K = N Σ xii - Σ xi+ x+1 / N2 - Σ xi+ x+i (eq. 2.4)
Onde:
N - é o número total de amostras (ou observações);
xi+ - é a soma dos valores da linha i;
x+i - é a soma dos valores da coluna i;
xii - é o número de observações dos elementos da diagonal da matriz.
O coeficiente kappa mostra o desempenho da classificação, conforme a
tabela 2.3 .
KAPPA Desempenho da Classificação
< 0 Péssimo
0 < k < 0,2 Mau
0,2 < k < 0,4 Razoável
0,4 < k < 0,6 Bom
0,6 < k < 0,8 Muito Bom
0,8 < k < 1,0 Excelente Tabela 2.3 – Desempenho da Classificação / Landis (1977)
25
3. METODOLOGIA
3.1 Materiais Empregados
3.1.1 Imagens
A imagem utilizada nesse trabalho é um produto do sensor CCD do
satélite CBERS datada de 26 de junho de 2001. O módulo selecionado para o
estudo cobre a região da Barra da Tijuca até a Vila Militar no Rio de Janeiro –
RJ.
Características:
Nome: corte_CBERS151.tif
Tamanho em pixels: 1400x1300
Tamanho em MegaBytes: 5,23 MB
Bandas: B1 = azul B2 = verde
B3 = vermelho B4 = infravermelho próximo
3.1.2 Softwares
Foram utilizados os seguintes aplicativos:
- SPRING 3.6, o produto Spring é constituído de três módulos, sendo eles: o
Impima, o Spring e o Scarta. O módulo IMPIMA é utilizado para se obter uma
imagem no formato GRIB através da conversão das imagens para serem
utilizadas no Spring. O módulo SPRING é utilizado para o processamento
digital de imagens e geoprocessamento. O módulo SCARTA é utilizado para a
edição dos produtos cartográficos.
- ENVI 3.4, software importado, possui diversas aplicações em processamento
de imagens.
26
3.1.3 Hardware
Para a realização deste trabalho foi utilizado o computador do
Laboratório de Fotogrametria e Processamento Digital de Imagens do
Departamento de Engenharia Cartográfica do Instituto Militar de Engenharia,
que possui a seguinte configuração:
- Processador Intel Pentium III 1 GHz;
- 512 MB de memória RAM;
- disco rígido com capacidade para 40 GB;
- Monitor de 17’’.
3.1.4 Outros Materiais
Foram utilizados também os seguintes materiais:
- Carta topográfica da região – Vila Militar – na escala 1:50000.
- Fotos aéreas coloridas da região da Barra da Tijuca e Vila Militar – na escala
1:30000, de um levantamento de Julho de 1999.
3.2 Georreferenciamento da Imagem
3.2.1 Utilizando o ENVI 3.4
Para a execução do georreferenciamento da imagem através dos PC foi
utilizado o software ENVI (The Environment for Vizualizing Images) versão 3.4.
Segue-se, a baixo, uma seqüência de procedimentos a serem seguidos para o
georreferenciamento da imagem.
- abre-se o programa ENVI;
- na barra de ferramentas, seleciona-se File e Open Image File para que a
imagem seja aberta;
- Na janela Available Bands List (figura 3.1) são selecionadas as bandas
que irão compor o RGB – red, green e blue;
27
- Executar o comando Load RGB para que a imagem seja aberta em três
janelas distintas: RGB, Scroll e Zoom;
- Na barra de ferramentas, selecionar Register/ Select Ground Control
Points/ Image to Map (figura 3.2);
FIG 3.1 – Janela Available Bands List
28
FIG 3.2 – Janela Register
- A janela Image to Map Registration (figura 3.3) será aberta e nela serão
configurados os parâmetros do georreferenciamento da imagem:
o Sistema de projeção: UTM
o Datum: SAD/69 – Brazil
o Zona do fuso: 23
o Hemisfério: Sul
o Tamanho do pixel: 20m
29
FIG 3.3 – Janela Image to Map Registration
- Com a janela Ground Control Points Selection (figura 3.4) o aplicativo
está pronto para iniciar o georreferenciamento da imagem;
30
FIG 3.4 – Janela Ground Control Points Selection
- Para o georreferenciamento da imagem, deve-se marcar o ponto a ser
associado, indicando a feição de interesse. Insere-se a respectiva
coordenada geográfica do mesmo. Cabe lembrar que a lista com as
coordenadas geográficas de todos os pontos utilizados no
georreferenciamento foi obtida da base cartográfica do Rio de Janeiro,
na escala 1:2000.
- O programa vai inserir a marcação do referido ponto na imagem e uma
numeração referente a ordem de inserção;
- Procede-se a inserção de todos os pontos de controle;
- Procede-se a análise dos resíduos de cada ponto e do conjunto;
- Caso o resultado não seja bom, deve-se executar o refinamento na
posição dos pontos através dos comandos: Edit points (figura 3.5);
- Quando o valor do erro médio quadrático do georreferenciamento estiver
satisfatório, o arquivo com as coordenadas dos pontos deve ser salvo no
formato ASCII.
31
FIG 3.5 – Janela Ground Control Points Selection com o valor do erro médio quadrático de
0,2289
- Através dos comandos Options/ Warp File, é possível se escolher o tipo
de transformação e o grau do polinômio que fará o ajuste da imagem,
bem como o interpolador para a reamostragem (figura 3.6). Para este
caso:
Transformação = Polinomial
Grau do polinômio = 1
Reamostragem = Vizinho mais Próximo
- A transformação será salva no diretório escolhido pelo usuário.
32
FIG 3.6 – Janela Registratrion Parameters
3.2.2 Utilizando o SPRING 3.6
Para a execução do georreferenciamento da imagem através dos PC e
dos PT foi utilizado o software SPRING versão 3.6. Segue-se, a baixo, uma
seqüência de procedimentos a serem seguidos para o georreferenciamento da
imagem:
- Abre-se o aplicativo IMPIMA 3.6;
- Deve-se selecionar uma das bandas na imagem de entrada e da
imagem de saída. Através dos comandos: Arquivos/Salvar como, salvar
cada uma das bandas no formato GRIB. Proceder desta forma com
todas as bandas (figura 3.7).
33
FIG 3.7 – Janela do IMPIMA
- Abre-se o aplicativo Spring 3.6.
- Através dos comandos: Arquivos/Banco de Dados (figura 3.8), cria-se
um banco de dados que será usado para o armazenamento dos dados.
Deve-se escolher o nome do Banco de Dados e em qual diretório ele
será armazenado. Deve-se ativar o banco de dados criado.
- Através dos comandos: Arquivos/ Projeto (figura 3.9), cria-se um projeto
que será definido pelo limite geográfico da área de estudo e pela
projeção cartográfica. Para cada sistema de projeção há diferentes
modelos da Terra e parâmetros como hemisfério, latitude e longitude de
origem. Deve-se escolher o nome do projeto e em qual diretório ele será
armazenado. Deve-se ativar o projeto criado.
o Projeção : SAD/69
o Hemisfério : Sul
o Retângulo Envolvente: coordenadas planas
§ (653000.000, 7445000.000), extremidade superior
esquerda;
§ (682000.000, 7473000.000), extremidade inferior direita.
35
- Através dos comandos: Exibir/Painel de Controle (figura 3.10), ativar a
Tela 5, que servirá para a visualização da imagem.
FIG 3.10 – Janela do Painel de Controle
- Executar os comandos: Arquivo/ Registro para a realização do
georreferenciamento da imagem;
- Na janela Seleção de Imagem (figura 3.11) deve-se selecionar a imagem
que será georreferenciada, selecionando as bandas para a visualização
da imagem. Na tela 5 deve-se executar os comandos: Executar/
Desenhar para que a imagem apareça na tela 5.
36
FIG 3.11 – Janela Seleção de Imagem
- Na janela Registro de Imagem (figura 3.12) deve-se ajustar os
parâmetros para o georreferenciamento da imagem.
- A aquisição dos pontos de controle pode ser feita de três modos: usando
um mapa na mesa digitalizadora (modo mesa), através de qualquer
plano de informação já georreferenciado (modo tela), ou informando as
coordenadas diretamente via teclado (modo teclado). Para o caso deste
projeto, usou-se o modo teclado.
- Para adquirir os pontos via teclado, deve-se seguir os seguintes
comandos: Teclado, nas opções Aquisição, Criar nas opções
Operações, na caixa de texto deve-se fornecer o nome do ponto que irá
ser adquirido. Na área Coordenadas de Referência deve-se digitar as
coordenadas planas nas caixas de texto.
- Um ponto representado por uma cruz verde aparece sobre a imagem, o
mesmo deve ser arrastado até a feição geográfica associada a ele.
Esses passos devem ser repetidos até que todos os pontos sejam
adquiridos.
37
FIG 3.12 – Janela Registro de Imagem
A seguir, outras operações de manipulação dos pontos de controle sobre a
imagem:
- Para se suprimir um ponto de controle, deve-se seguir os seguintes
comandos: Suprimir nas opções Operações, deve-se indicar o ponto que
se deseja eliminar da lista de Pontos de Controle para que o mesmo
seja suprimido.
- Para se mover um ponto de controle, deve-se seguir os seguintes
comandos: Mover nas opções Operações, indicar o ponto que se deseja
mover na lista de Pontos de Controle, posicionar o cursor sobre o ponto
selecionado e arrastá-lo.
- Após se inserir todos os pontos de controle, deve-se selecionar quais
deles serão usados para definir a equação de mapeamento. A janela
38
Registro de Imagem pode ser usada para definir os melhores pontos,
que são aqueles onde os erros são menores considerando-se a escolha
do grau do polinômio que será usado para registrar a imagem.
- Para selecionar os pontos do georreferenciamento deve-se seguir os
seguintes comandos: Selecionar nas opções Operações, indicar o ponto
escolhido na caixa de listagem dos Pontos de Controle.
- Deve-se ainda, indicar o grau do polinômio que será usado, para o caso
deste projeto – Polinômio de 1o Grau.
- Foram inseridos um total de 15 pontos de controle e dentre eles foram
escolhidos 8 pontos de controle (PC) do georreferenciamento, restando
7 pontos de teste (PT), obtendo-se os seguintes erros:
o Erro dos Pontos de Teste: 0,675 pixels
o Erro dos Pontos de Controle: 0,453 pixels
- Após a escolha dos pontos de controle e da análise dos erros dos
pontos de teste e de controle, deve-se importar a imagem
georreferenciada no formato GRIB para o projeto definido anteriormente.
Para essa etapa deve-se seguir os seguintes passos: Arquivo/ Importar
Arquivos GRIB (figura 3.13) e a janela Importar Imagens será
apresentada.
- Selecionar o diretório que contém as imagens que serão importadas e
indicar o arquivo GRIB na lista Arquivos, que a lista Imagens é
atualizada a cada arquivo selecionado.
- Indica-se uma imagem na caixa de listagem Imagens. Na opção
Categoria, será aberta a janela Lista de Categorias (figura 3.14) onde
será ajustada a categoria a qual pertencerá a imagem a ser importada.
- Cada banda importada definirá um plano de informação que será criado
no momento da importação das mesmas, através dos comandos: Editar/
Plano de Informação.
- As categorias que serão apresentadas na janela Lista de Categorias
deverão ser definidas previamente através dos comandos: Arquivos/
Modelos de Dados (figura 3.15).
- Desta forma, a imagem georreferenciada está contida dentro do projeto
definido para este fim.
40
FIG 3.15 – Janela Modelo de Dados
3.3 Processamento Digital das Imagens
3.3.1 Eliminação de Ruídos
No processo de geração e transmissão dos dados, alguns ruídos são
inseridos nas imagens. Geralmente, os pixels com ruído aparecem com níveis
de cinza bem diferentes da sua vizinhança, estes pontos com ruídos podem
aparecer distribuídos aleatoriamente ou de forma sistemática. As causas
podem ser falhas nos detetores ou limitações do sistema e letrônico.
Para a eliminação do ruído presente na imagem foram aplicadas várias
técnicas de processamento digital de imagens disponíveis no software ENVI
41
3.4. Neste software estão disponíveis algoritmos dos seguintes tipos de filtros:
filtros de convolução, filtros morfológicos, filtros de textura e filtros adaptativos.
3.3.1.1 Filtros de Convolução
Os filtros de convolução estão divididos em: passa altas, passa baixas,
laplaciano, direcional, gaussiano, mediano, de Sobel, de Roberts e filtros
definidos pelo usuário (figura 3.16). Destes filtros, foram testados os filtros
passa baixas e da mediana, sendo que ambos apresentaram alguma melhora
na eliminação do ruído.
FIG 3.16 – ENVI 3.4 – Filtros de Convolução
a) Filtro Passa Baixas
- A primeira fase da transformação corresponde à escolha da imagem
que será usada, a escolha foi feita através dos comandos: File/ Open
Image File.
- Para a aplicação do algoritmo do filtro passa baixas seguiu-se os
seguintes comandos: Filters/ Convolutions/ Low Pass.
42
- Na janela Convolution Input File (figura 3.17) deve-se selecionar o
arquivo que será transformado, bem como suas bandas.
FIG 3.17 – Janela Convolution Input File
FIG 3.18 – Janela Convolution Parameters
- Na janela Convolution Parameters (figura 3.18) são ajustados os
parâmetros da transformação que será realizada.
- Size = 3x3
43
- Image Add Back Value = 0,0
- A imagem transformada apresenta as feições suavizadas, os pixels
ruidosos apresentam-se menos intensificados e a apresentação da
imagem melhora como um todo (figura 3.19).
FIG 3.19 – Filtro Passa Baixas: comparação entre a imagem original (esquerda) e a imagem
filtrada (direita)
- Mudando-se os parâmetros da janela Convolution Parameters (figura
3.18), obteve-se uma imagem com características distintas da imagem
anterior (figura 3.19).
- Size = 3x3
- Image Add Back Value = 0,50
- A imagem transformada apresenta as feições ainda mais suavizadas,
os pixels ruidosos quase não aparecem, todavia, a imagem perde a
definição das feições (figura 3.20)
44
FIG 3.20 – Filtro Passa Baixas: comparação entre a imagem original (esquerda) e a imagem
filtrada (direita)
b) Filtro da Mediana
- Para a aplicação do algoritmo do filtro da mediana foram seguidos os
seguintes comandos: Filters/ Convolutions/ Median.
- Na janela Convolution Input File (figura 3.21) deve-se selecionar o
arquivo que será transformado, bem como suas bandas.
- Na janela Convolution Parameters (figura 3.22) são ajustados os
parâmetros da transformação que será realizada.
- Size = 5x5
- Image Add Back Value = 0,0
- A imagem transformada apresenta as feições bem suavizadas,
existindo uma perda de informações nas feições. Os pixels ruidosos
tornam-se praticamente inexistentes (figura 3.23).
46
FIG 3.23 – Filtro da Mediana: comparação entre a imagem original (esquerda) e a imagem
filtrada (direita)
3.3.1.2 Filtros Morfológicos
Os filtros morfológicos estão divididos em: de dilatação, de erosão, de
abertura e de fechamento. Destes, foram aplicados os de dilatação e de erosão
que não apresentaram bons resultados.
3.3.1.3 Filtros de Textura
Os filtros de textura estão divididos em: Occurrence Measures e Co-
Occurrence Measures. Esses dois tipos de filtros foram testados e
apresentaram bons resultados na eliminação do ruído da imagem (figura 3.24).
47
FIG 3.24 – ENVI 3.4 – Filtros de Textura
a) Occurrence Measures
- A primeira fase da transformação corresponde a escolha da imagem
que será usada, a escolha será feita através dos comandos: File/ Open
Image File.
- Para a aplicação do algoritmo do filtro Occurrence Measures foram
seguidos os seguintes comandos: Filters/ Texture/ Occurrence
Measures.
- Na janela Texture Input File (figura 3. 25) deve-se selecionar o arquivo
que será transformado, bem como suas bandas.
- Na janela Occurrence Texture Parameters (figura 3. 26) são ajustados
os parâmetros da transformação que será realizada.
- Textures to Compute = Mean
- Processing Window = 3x3
- A transformação apresentou bons resultados. Com uma melhora
significativa da imagem como um todo (figura 3. 27).
49
FIG 3.27 – Filtro Occurrence Measures : comparação entre a imagem original (esquerda) e a
imagem filtrada (direita)
b) Co-occurrence Measures
- Para a aplicação do algoritmo do filtro Co-occurrence Measures foram
seguidos os seguintes comandos: Filters/ Texture/ Co-occurrence
Measures.
- Na janela Texture Input File (figura 3.28) deve-se selecionar o arquivo
que será transformado, bem como suas bandas.
50
FIG 3.28– Janela Texture Input File
- Na janela Co-occurrence Texture Parameters (figura 3.29) são
ajustados os parâmetros da transformação que será realizada.
- Textures to Compute = Mean
- Processing Window = 3x3
- Co-occurrence Shift = 1x1
- A transformação apresentou bons resultados, com uma melhora no
contraste das feições (figura 3.30).
51
FIG 3.29– Janela Co-occurrence Texture Parameters
FIG 3.30 – Filtro Co-occurrence Measures : comparação entre a imagem original (esquerda) e a
imagem filtrada (direita)
- Mudando-se os parâmetros da janela Co-occurrence Texture
Parameters (figura 3.29), obteve-se uma segunda imagem (figura 3.31)
com características diferentes da imagem anterior (figura 3.30).
52
- Textures to Compute = Mean
- Processing Window = 3x3
- Co-occurrence Shift = 2x2
- A transformação apresentou resultado bem satisfatório, eliminando
grande parte do ruído existente na imagem.
FIG 3.31 – Filtro Co-occurrence Measures : comparação entre a imagem original (esquerda) e a
imagem filtrada (direita)
3.3.1.4 Filtros Adaptativos
Os filtros adaptativos estão divididos em: Lee, Frost, Gamma, Kuan e
Local Sigma. Destes, foram testados o Lee, Frost, Gamma, e Local Sigma,
sendo que apenas o Lee e o Local Sigma apresentaram bons resultados (figura
3.32).
53
FIG 3.32 – ENVI 3.4 – Filtros Adaptativos
a) Lee
- Para a aplicação do algoritmo do filtro Lee foram seguidos os seguintes
comandos: Filters/ Adaptive/ Lee;
- Na janela Lee Filter Input File (figura 3.33) deve-se selecionar o arquivo
que será transformado, bem como suas bandas.
- Na janela Lee Filter Parameters (figura 3.34) são ajustados os
parâmetros da transformação que será realizada.
- Filter Size: 3x3
- Noise Model = Multiplicate
- Additive Noise Mean = 0
- Multiplicate Noise Mean = 1
- Noise Variance = 0,25
- A transformação apresentou poucas melhoras significativas quanto à
diminuição do ruído (figura 3.35).
55
FIG 3.35 – Filtro Lee: comparação entre a imagem original (esquerda) e a imagem filtrada
(direita)
b) Local Sigma
- Para a aplicação do algoritmo do filtro Local Sigma foram seguidos os
seguintes comandos: Filters/ Adaptive/ Local Sigma;
- Na janela Localized Sigma Filter Input File (figura 3.36) deve-se
selecionar o arquivo que será transfo rmado, bem como suas bandas.
- Na janela Localized Sigma Filter Parameters (figura 3.37) são
ajustados os parâmetros da transformação que será realizada.
- Filter Size: 3x3
- Sigma Factor = 1
- A transformação não apresentou melhoras muito significativas (figura
3.38).
56
FIG 3.36– Janela Localized Sigma Filter Input File
FIG 3.37– Janela Localized Sigma Filter Parameters
57
FIG 3.38 – Filtro Local Sigma: comparação entre a imagem original (esquerda) e a imagem
filtrada (direita)
- Mudando-se os parâmetros da janela Localized Sigma Filter
Parameters (figura 3.37) uma nova imagem é gerada.
- Filter Size: 3x3
- Sigma Factor = 2
- A transformação apresenta apenas algumas poucas melhoras (figura
3.39).
FIG 3.39 – Filtro Local Sigma: comparação entre a imagem original (esquerda) e a imagem
filtrada (direita)
58
3.4 Extração de Feições
A seguir serão apresentados os procedimentos para a extração digital de
feições (corpos d’água e vegetação) com as ferramentas existentes no ENVI
3.4.
3.4.1 Extração de Corpos D’Água
Para a extração digital dos corpos d’água existentes na imagem através
da aplicação da operação de fatiamento de densidades, deve-se seguir os
seguintes procedimentos:
- Abre-se a banda do infravermelho (B4) da imagem proveniente da
transformação de Co-occurrence Texture através dos comandos: File/
Open Image File.
- Em seguida, na janela #1, seguir os comandos: Functions/ Color
Mapping/ Density Slice;
FIG 3.40– Janela #1 Density Slice
59
- Na janela #1 Density Slice (figura 3.40), ajusta-se os parâmetros para o
fatiamento da imagem. Através da opção Edit Range deve-se definir os
intervalos de fatiamento (figura 3.41), para unificar classes até ficarem
apenas duas: água e não água.
- Yellow = [1,51]
- Magenta = [52,103]
FIG 3.41– Janela #2 – Fatiamento da Imagem
- Os Ranges devem ser salvos através dos comandos: File/ Save
Ranges;
- A imagem fatiada deve ser salva através dos comandos: #1 Functions/
Out Put Display/ Image File;
- A imagem salva na etapa acima deve ser aberta no ENVI 3.4;
- Através dos comandos: Utilities/ Vector Utilities/ Raster to Vector
Conversion, faz-se a conversão da imagem para um arquivo vetorial;
- Na janela Raster To Vector Parameters (figura 3.42) deve-se ajustar os
parâmetros da conversão;
- Contour Value = 255
- O produto obtido é um arquivo vetorial com os limites dos lagos
extraídos da imagem.
60
FIG 3.42– Janela Raster To Vector Parameters
3.4.2 Realce da Vegetação
Para o realce digital da vegetação através da ferramenta NDVI, deve-se
seguir os seguintes comandos:
- Abre-se a imagem proveniente da transformação de Co-occurrence
Texture através dos comandos: File/ Open Image File;
- Em seguida, deve-se seguir os comandos: Transforms/ NDVI
(Vegetation Index);
- Na janela NDVI Calculation Input File (figura 3.43), seleciona-se a
imagem que foi utilizada.
61
FIG 3.43– Janela NDVI Calculation Input File
- Na janela NDVI Calculation Parameters (figura 3.44), ajusta-se os
parâmetros utilizados.
- Input File Type = Landsat TM
- NDVI Bands: Red= 3
Near IR = 4
62
FIG 3.44– Janela NDVI Calculation Parameters
Para a extração digital da vegetação através da razão de bandas
simples, deve-se seguir os seguintes comandos:
- Abre-se a imagem proveniente da transformação de Co-occurrence
Texture através dos comandos: File/ Open Image File;
- Executar os comandos: Transforms/ Band Ratio;
- Na janela Band Ratio Entry (figura 3.45) devem ser selecionados o
numerador (banda 4) e o denominador (banda 3) da razão de bandas.
- Na janela Band Ratio Parameters (figura 3.46), deve-se ajustar os
parâmetros da transformação da razão de bandas.
64
3.5 Classificação Digital das Imagens
A ferramenta usada para a classificação da imagem foi a
classificação supervisionada com o método da máxima verossimilhança. Para
esta etapa do trabalho, foram seguidos os seguintes passos:
- Abre-se a imagem proveniente da transformação de Co-occurrence
Texture através dos comandos: File/ Open Image File;
- Em seguida, deve-se seguir os comandos: Basic Tools/ Region of
Interest/ Define Region of Interest.
- Na janela Region of Interest Controls (figura 3.47) deve-se, através da
opção Edit selecionar e nomear uma classe.
- Deve-se selecionar várias amostras na imagem para cada uma das
cinco classes definidas:
- Vegetação;
- Área Urbana;
- Oceano;
- Lagoas;
- Campos.
- As amostras representativas de cada uma das classes são
selecionadas com base na pesquisa feita nas fotografias aéreas da
região, na escala 1:30000.
- O arquivo com as amostras das classes deve ser salvo no formato .roi,
através dos comandos: File/ Save ROIs.
65
FIG 3.47– Janela Region of Interest Controls
- Através dos comandos: Basic Tools/ ROI Separability deve-se calcular
a distancia JM para as classes definidas acima.
- Executar os comandos: Classification/ Supervised/ Maximum
Likelihood.
- Na janela Maximum Likelihood Parameters, deve-se selecionar as
cinco classes e escolher um nome para o arquivo que será gerado
(figura 3.48).
66
FIG 3.48– Janela Maximum Likelihood Parameters
- Em seguida, deve-se seguir os comandos: Basic Tools/ Region of
Interest/ Define Region of Interest para que sejam definidas amostras de
testes das cinco classes definidas anteriormente.
- Deve-se selecionar várias amostras na imagem para cada uma das
cinco classes definidas como classes de teste
- Vegetação*;
- Área Urbana*;
- Oceano*;
- Lagoas*;
- Campos*.
- O arquivo com as amostras de teste das classes deve ser salvo no
formato .roi, através dos comandos: File/ Save ROIs.
- Deve-se abrir o arquivo .roi com as amostras de teste.
- Executar os comandos: Classification/ Post Classification/ Confusion
Matrix/ Using Ground Truth ROIs.
- Na janela Math Classes Parameters (figura 3.49), deve-se selecionar
os pares de classes que serão comparados.
67
FIG 3.49– Janela Math Classe Parameters
- Com os resultados obtidos na matriz de confusão, deve-se gerar uma
planilha no Excel/ Microsoft, para o calculo do coeficiente kappa.
68
4. RESULTADOS PARCIAIS
4.1 Georreferenciamento da Imagem
Os resultados relativos a esta etapa do trabalho são referentes à análise
do georreferenciamento da imagem através do estudo dos resíduos dos pontos
de controle e dos pontos de teste.
4.1.1 Georreferenciamento – ENVI 3.4
A correção geométrica realizada no software ENVI 3.4 através dos PC
foi realizada com êxito, uma vez que os erro médio quadrático está dentro do
limite aceitável pela bibliografia. O erro médio quadrático desta etapa foi de
0.2289 pixels com a utilização de 15 pontos de controle.
Mapa Imagem Erro Pts
X(m) Y(m) X(col) Y(lin) X(pixel) Y(pixel)
EMQ
(pixel)
1 673283.20 7454081.06 5408.75 4551.00 0.01 0.25 0.25
2 658141.41 7452946.18 4653.50 4570.25 0.08 -0.16 0.18
3 667570.05 7458796.94 5127.75 4299.75 0.21 -0.29 0.36
4 662146.89 7457011.39 4856.50 4376.00 0.00 -0.34 0.34
5 654364.87 7453045.63 4465.50 4555.25 0.03 0.29 0.29
6 674348.16 7467077.16 5471.75 3899.75 -0.12 -0.12 0.17
7 678022.34 7464049.98 5652.00 4061.25 0.12 -0.01 0.12
8 665365.55 7468749.29 5026.25 3793.00 0.05 0.04 0.07
9 661619.30 7468949.23 4840.25 3773.75 -0.03 -0.11 0.11
10 655369.87 7467907.93 4528.50 3810.50 0.11 -0.06 0.12
11 665860.82 7455525.14 5040.50 4460.00 -0.28 -0.18 0.33
12 669745.63 7461808.00 5238.50 4153.25 0.12 0.12 0.17
13 659307.61 7460592.29 4718.25 4188.25 -0.07 0.09 0.12
14 663157.86 7464884.86 4913.50 3981.75 -0.15 0.25 0.30
15 667657.91 7462988.39 5135.75 4088.50 -0.08 0.22 0.23
TAB 4.1 – Análise do Georreferenciament o – ENVI 3.4
69
4.1.2 Georreferenciamento – SPRING 3.6
A correção geométrica realizada no software SPRING 3.6 através dos
PC e dos PT foi realizada com os mesmos pontos utilizados no ENVI 3.4.
Foram utilizados sete pontos como pontos de teste e oito pontos como pontos
de controle. O erro dos pontos de controle foi de 0,453 pixels enquanto que o
erro dos pontos de teste foi de 0,675 pixels, sendo este último o indicador do
erro do georreferenciamento.
Erro Pts
X(pixel) Y(pixel) EMQ (pixel)
2 0,570 -0,038 0,571
5 -0.906 0,033 0,907
6 0,000 0,062 0,062
7 -0,465 0,008 0,465
10 0,029 0,018 0,034
11 0,433 0,059 0,437
14 0,156 0,021 0,157
15 0,184 -0,237 0,300
TAB 4.2– Análise do Georreferenciamento (PC) – SPRING 3.6
Erro Pts
X(pixel) Y(pixel) EMQ (pixel)
1 0,581 -0,236 0,627
3 0,046 -0,043 0,063
4 -0,350 -0,665 0,751
8 0,555 0,782 0,959
9 0,878 0,298 0,927
12 0,140 -0,414 0,437
13 -0,448 -0,237 0,506
TAB 4.3– Análise do Georreferenciamento (PT) – SPRING 3.6
70
4.2 Eliminação de Ruídos
Através da avaliação visual, considerou-se que o algoritmo que
apresentou o melhor resultado foi o do filtro Co-Occurrence Measures. Após a
transformação, a imagem apresentou-se com um aspecto geral muito
melhorado, com o efeito de ruído muito diminuído, sem perda de informação
espectral.
4.3 Extração de Feições
Com a aplicação da ferramenta de fatiamento de densidades conseguiu-
se delimitar os corpos d’água de diferentes tamanhos presentes na imagem.
Algumas outras pequenas feições extraídas juntamente com os corpos d’ água
são resultado da presença na imagem de alvos com resposta espectral
semelhante às massas d’água.
Através da inspeção visual, julgaram-se bons os resultados obtidos no
realce das áreas com vegetação.
4.3.1 Classificação Digital das Imagens
O cálculo da distância JM para as cinco classes usadas na classificação
supervisionada permitiu a avaliação da separabilidade das mesmas, estando
estas dentro dos limites aceitos por Richards (1986) (figura 4.1).
71
FIG 4.1– Distância JM
Com os resultados obtidos na pós-classificação foi possível avaliar a
qualidade da classificação supervisionada pelo método da máxima
verossimilhança. O valor de kappa (k= 0,979742) permite afirmar que a
classificação com as cinco classes propostas foi realizada com sucesso.
Para uma prévia avaliação da escolha do melhor filtro aplicado na
imagem, realizou-se a classificação supervisionada pelo método da máxima
verossimilhança usando-se as mesmas amostras de treinamento e de teste em
todas as imagens filtradas obtidas neste trabalho. Realizou-se o mesmo teste
com a imagem bruta , sem nenhum tipo de filtragem (apenas georreferenciada),
tabela 4.4 .
Os resultados obtidos permitem afirmar que a escolha do filtro de Co-
Occurrence foi acertada, uma vez que este apresenta valor de kappa
satisfatório. Com os resultados obtidos, pode-se afirmar ainda, que os métodos
empregados na eliminação do ruído foram satisfatórios, uma vez que, o valor
de kappa da imagem bruta foi o menor de todos.
72
TAB 4.4– Valores de Kappa
Como produto final da classificação, obteve-se a imagem com o realce
de cada uma das classes. A imagem realçada da classe lagoas foi vetorizada.
A comparação entre a extração das lagoas através do fatiamento de
densidades e a extração através da classificação supervisionada permite
constatar que os melhores resultados foram obtidos através da aplicação deste
último método.
FILTROS KAPPA VAR
Co-occurrence 0,979742 1,388x10-06
Gama 0,979375 1,414 x10-06
Lee 0,977272 1,555x10-06
Low pass 0,978496 1,473x10-06
Mediana 0,980152 1,361x10-06
Occurrence 0,979742 1,388x10-06
Sigma 0,976433 1,611x10-06
Imagem Bruta 0,966830 2,242x10-06
73
5. CONCLUSÕES
Os resultados obtidos ao final deste projeto permitem delinear uma
análise, dos pontos de vista geométrico e temático, das possibilidades de
utilizar as imagens CCD-CBERS com fins de cartografia topográfica.
ASPECTO GEOMÉTRICO
A precisão conseguida na etapa de georreferenciamento das imagens,
equivalente a 4,60 m, pode ser considerada como satisfatória do ponto de vista
cartográfico. Entretanto, para determinar os limites de escalas em que é
possível utilizar esses dados, é necessário considerar que nas diferentes
etapas de um procedimento de geração ou atualização de cartas com imagens
orbitais, são realizadas operações que geralmente acrescentam os valores de
erros geométricos dos dados cartográficos criados a partir das imagens. De tal
forma, não é possível, apenas com esse resultado, afirmar qual a escala que
será compatível com a atualização da informação temática presente nas
imagens CCD do satélite CBERS.
ASPECTO TEMÁTICO
Ao estudar as possibilidades de utilizar produtos orbitais na área da
cartografia é necessário considerar também o volume e a qualidade de
conteúdo informativo que tais dados fornecem. Nesse sentido, a extração e
realce de feições permitem concluir que as imagens CCD-CBERS permitem
mapear, sem maiores problemas, alguns elementos da hidrografia (corpos
d´água) e elementos da vegetação (áreas com mata, campo), bem como,
campos e delimitação da área urbana.
74
6. REFERÊNCIAS BIBLIOGRÁFICAS
Publicações
[1] BRITO, J. N. S., Modelagem Digital do Terreno, Rio de Janeiro, IME,
2002, Notas de Aula.
[2] CRÓSTA, Álvaro P., Processamento Digital de Imagens de
Sensoriamento Remoto, Campinas, IG/Unicamp, 1993.
[3] GEMAEL, C., Introdução ao Ajustamento de Observações, Aplicações
Geodésicas, Curitiba, UFPR, 1994.
[4] LANDIS, J. R., KOCH, C. H., The Measurement of Observer Agreement
for Categorical Data, Vol 33, no 3, Biometrics, 1977.
[5] MATHER, P. M., Computer Processing of Remotely Sensed Images: an
Introduction, 2. ed, New York, John Wiley & Sons, 1999.
[6] NOVO, E. M. L. de Moraes, Sensoriamento Remoto – Princípios e
Aplicações, 2. ed, São José dos Campos, Edgard Blucher, 1988.
[7] RIC HARDS, J. A., Remote Sensing Digital Image Analysis: an
Introduction, 2. ed, Berlin, Springer-Verlag, 1986.
[8] SPRING; Help; versão 3.6 – INPE, São José dos Campos – SP, 2001.
Sites
[1] Instituto Nacional de Pesquisas Espaciais – INPE, disponível em:
www.inpe.org.br; visitado em 10 de abril de 2002.
[2] Portal ENVI, disponível em: www.envi.com.br; visitado em 15 de setembro
de 2002.
75
7. SUGESTÕES PARA TRABALHOS FUTUROS
Tendo em vista o possível desenvolvimento de trabalhos futuros, sugere-
se que em uma etapa seguinte sejam extraídas as classes realçadas através
da aplicação das ferramentas de razão de bandas e classificação
supervisionada. Esta etapa poderá ser feita através da vetorização das classes
já existentes, bem como, através da vetorização de novas classes (ou
subclasses) criadas. A criação de novas classes é recomendada uma vez que
os valores de kappa foram satisfatórios para as cinco classes definidas. Outra
aplicação seria o estudo da extração de feições lineares, como por exemplo, a
extração de vias e ferrovias.
A análise qualitativa do georreferenciamento, através do estudo dos
possíveis erros embutidos no documento de saída, no formato digital (bases
cartográficas digitais) ou no analógico (folhas impressas) seria uma outra
possível análise que poderia ser feita a partir dos resultados obtidos neste
trabalho.
77
2. Módulo da imagem com a representação da distribuição dos pontos de controle - sensor CCD do CBERS (colxlin=1400x1300).