MÉTODO IHS PARA FUSÃO DE IMAGEM TM COM …... II Simpósio Brasileiro de Geomática Presidente...

6
II Simpósio Brasileiro de Geomática Presidente Prudente - SP, 24-27 de julho de 2007 V Colóquio Brasileiro de Ciências Geodésicas ISSN 1981-6251, p. 477-482 R. B. Nascimento; A. C. S. Correia; A. L. B. Candeias. MÉTODO IHS PARA FUSÃO DE IMAGEM TM COM FOTOGRAFIA AÉREA ROSEMARY BATISTA DO NASCIMENTO 1 ANA CAROLINA SCHULER CORREIA 2 PROFª. DRA. ANA LÚCIA BEZERRA CANDEIAS 3 Universidade Federal de Pernambuco – UFPE 1,2,3 Departamento de Engenharia Cartográfica, Recife - PE [email protected] 1 [email protected] 2 [email protected] 3 RESUMO – A fusão de imagens busca gerar um produto sintético reunindo características espectrais e espaciais das imagens originais que o geraram. A qualidade da fusão de imagens é influenciada por diversos fatores, entre eles, a data da aquisição das imagens, pois variações nas condições meteorológicas e de iluminação podem facilitar, restringir ou dificultar o processamento. Neste trabalho foram utilizadas as bandas 5 (red), 4 (green) e 3 (blue) do Landsat 5 TM cuja resolução espacial é de 30 metros e uma fotografia aérea com resolução espacial de 5 metros, ambas da cidade de Brasília – DF. Todas as etapas foram realizadas no software SPRING 4.3. Observa-se que o produto final não corresponde às cores da imagem multiespectral inicial. ABSTRACT - The fusing of images searches to generate a synthetic product congregating spectral and space characteristics of the original images that had generated it. The quality of the fusing of images is influenced by diverse factors, between them, the date of the acquisition of the images, therefore variations in the meteorological conditions and of illumination can facilitate, restrict or make it difficult the processing. In this work had been used bands 5 (red), 4 (green) and 3 (blue) of the Landsat 5 TM whose space resolution is of 30 meters and an air photograph with space resolution of 5 meters, both of the city of Brasilia - DF. All the stages had been carried through in software SPRING 4.3. It is observed that the end item does not correspond to the colors of the initial multispectral image. 1 INTRODUÇÃO Os novos sensores em plataformas orbitais ou a bordo de aeronaves possibilitam a captação de dados que geram informações com diversas resoluções: espacial, espectral, temporal e radiométrica. Com o intuito de obter um melhor aproveitamento das informações produzidas por esses sensores, são geralmente utilizados métodos conhecidos como fusão de imagens que combinam imagens de diferentes características espectrais e espaciais para sintetizar uma nova imagem com melhor resolução espacial do que a imagem multiespectral original (Leonardi et al, 2005). A fusão de imagens com diferentes resoluções busca a melhoria da resolução espacial e a manutenção da qualidade espectral. Daí que imagens pancromáticas de alta resolução podem ser combinadas com imagens multiespectrais de melhor resolução espacial mediante o uso de técnicas apropriadas. Dessa forma, a resolução espacial mais alta é incorporada de maneira a representar o conteúdo de informação das imagens com muito mais detalhes, enquanto a resolução espectral é preservada (Schneider et al, 2003). No entanto, para que a fusão de imagens seja realizada, as imagens devem estar no mesmo sistema de coordenadas, ou devem ter sido pré-processadas de maneira a representar a mesma região espacial. Tal procedimento é chamado de alinhamento ou georreferenciamento e permite que as imagens possam ser superpostas e operações matemáticas possam ser realizadas em cada pixel. Este alinhamento ou georreferenciamento pode ser obtido através do registro das imagens que serão objetos da fusão. O registro é um processo de sobreposição de duas ou mais imagens de uma mesma cena, em que se deve ter o cuidado de apresentar um erro menor que um pixel, de forma que as coordenadas de um ponto em cada uma das imagens correspondam à mesma região física. A imagem registrada é chamada de imagem de referência, e a outra é chamada de imagem de ajuste (Telles Júnior e Santa Rosa, 2005). A qualidade da fusão de imagens, entretanto, é influenciada por diversos fatores, entre eles, a data de

Transcript of MÉTODO IHS PARA FUSÃO DE IMAGEM TM COM …... II Simpósio Brasileiro de Geomática Presidente...

II Simpósio Brasileiro de Geomática Presidente Prudente - SP, 24-27 de julho de 2007 V Colóquio Brasileiro de Ciências Geodésicas ISSN 1981-6251, p. 477-482

R. B. Nascimento; A. C. S. Correia; A. L. B. Candeias.

MÉTODO IHS PARA FUSÃO DE IMAGEM TM COM FOTOGRAFIA AÉREA

ROSEMARY BATISTA DO NASCIMENTO1

ANA CAROLINA SCHULER CORREIA2 PROFª. DRA. ANA LÚCIA BEZERRA CANDEIAS3

Universidade Federal de Pernambuco – UFPE1,2,3

Departamento de Engenharia Cartográfica, Recife - PE [email protected] [email protected]

[email protected]

RESUMO – A fusão de imagens busca gerar um produto sintético reunindo características espectrais e espaciais das imagens originais que o geraram. A qualidade da fusão de imagens é influenciada por diversos fatores, entre eles, a data da aquisição das imagens, pois variações nas condições meteorológicas e de iluminação podem facilitar, restringir ou dificultar o processamento. Neste trabalho foram utilizadas as bandas 5 (red), 4 (green) e 3 (blue) do Landsat 5 TM cuja resolução espacial é de 30 metros e uma fotografia aérea com resolução espacial de 5 metros, ambas da cidade de Brasília – DF. Todas as etapas foram realizadas no software SPRING 4.3. Observa-se que o produto final não corresponde às cores da imagem multiespectral inicial. ABSTRACT - The fusing of images searches to generate a synthetic product congregating spectral and space characteristics of the original images that had generated it. The quality of the fusing of images is influenced by diverse factors, between them, the date of the acquisition of the images, therefore variations in the meteorological conditions and of illumination can facilitate, restrict or make it difficult the processing. In this work had been used bands 5 (red), 4 (green) and 3 (blue) of the Landsat 5 TM whose space resolution is of 30 meters and an air photograph with space resolution of 5 meters, both of the city of Brasilia - DF. All the stages had been carried through in software SPRING 4.3. It is observed that the end item does not correspond to the colors of the initial multispectral image.

1 INTRODUÇÃO

Os novos sensores em plataformas orbitais ou a bordo de aeronaves possibilitam a captação de dados que geram informações com diversas resoluções: espacial, espectral, temporal e radiométrica. Com o intuito de obter um melhor aproveitamento das informações produzidas por esses sensores, são geralmente utilizados métodos conhecidos como fusão de imagens que combinam imagens de diferentes características espectrais e espaciais para sintetizar uma nova imagem com melhor resolução espacial do que a imagem multiespectral original (Leonardi et al, 2005).

A fusão de imagens com diferentes resoluções busca a melhoria da resolução espacial e a manutenção da qualidade espectral. Daí que imagens pancromáticas de alta resolução podem ser combinadas com imagens multiespectrais de melhor resolução espacial mediante o uso de técnicas apropriadas. Dessa forma, a resolução espacial mais alta é incorporada de maneira a representar o conteúdo de informação das imagens com muito mais

detalhes, enquanto a resolução espectral é preservada (Schneider et al, 2003).

No entanto, para que a fusão de imagens seja realizada, as imagens devem estar no mesmo sistema de coordenadas, ou devem ter sido pré-processadas de maneira a representar a mesma região espacial. Tal procedimento é chamado de alinhamento ou georreferenciamento e permite que as imagens possam ser superpostas e operações matemáticas possam ser realizadas em cada pixel. Este alinhamento ou georreferenciamento pode ser obtido através do registro das imagens que serão objetos da fusão. O registro é um processo de sobreposição de duas ou mais imagens de uma mesma cena, em que se deve ter o cuidado de apresentar um erro menor que um pixel, de forma que as coordenadas de um ponto em cada uma das imagens correspondam à mesma região física. A imagem registrada é chamada de imagem de referência, e a outra é chamada de imagem de ajuste (Telles Júnior e Santa Rosa, 2005).

A qualidade da fusão de imagens, entretanto, é influenciada por diversos fatores, entre eles, a data de

II Simpósio Brasileiro de Geomática Presidente Prudente - SP, 24-27 de julho de 2007 V Colóquio Brasileiro de Ciências Geodésicas

R. B. Nascimento; A. C. S. Correia; A. L. B. Candeias.

aquisição das imagens, pois variações nas condições meteorológicas e de iluminação podem facilitar, restringir ou dificultar o processamento (Telles Júnior e Santa Rosa, 2005).

O objetivo deste trabalho é gerar uma fusão de imagem com fotografia aérea pancromática com uma imagem do sensor TM – Landsat 5 e verificar o resultado espectral supondo bandas do TM543 e uma fotografia aérea e mostrar os problemas associados.

A fusão de imagens usando a técnica IHS tem sido estudada desde a década de 80 do século passado. Autores como Albertz et al. (1988), Chavez et al. (1991), Ehlers (1991), Candeias (1992), Shettigara (1992) e Zhang (1999) mostram sua aplicação.

Para um bom resultado da transformação IHS é necessário que a faixa espectral da banda pancromática e das bandas multiespectrais sejam compatíveis entre si, ou seja, haja uma grande interseção. No caso ideal, a faixa da banda pancromática é igual a soma das faixas das bandas multiespectrais.

E quando não é respeitada a regra acima mencionada, as cores associadas no produto final não são garantidas serem iguais ao produto colorido inicial com baixa resolução espacial.

Utilizou-se para a realização dos experimentos e avaliação da fusão de imagem, o software SPRING 4.3 (http://dpi.inpe.br/spring). 2 FUNDAMENTOS TEÓRICOS 2.1 Fusão de imagem

Ainda há bastante controvérsia quanto à utilização de um termo específico para designar fusão de imagens, embora seja um processamento muito difundido entre a comunidade de sensoriamento remoto. Na literatura inglesa, por exemplo, são encontrados três termos diferentes para designar o processo: merging, fusion e pan-sharpening. A falta de critério e preocupação conceitual com que os termos são utilizados é apontada em Wald (1999). Este expõe ainda a necessidade da elaboração de um conceito que explicite o processo e expõe a seguinte definição: “fusão de dados consiste em uma estrutura formal na qual são expressos conceitos e ferramentas para a junção de dados de diferentes origens com o objetivo de obter informações de maior qualidade” (Pinho et al, 2005).

Segundo Telles Júnior e Santa Rosa (2005), pode-se dividir a fusão de dados em três níveis: fusão em nível de pixel, em nível de feições (feature level) e nível de decisão (decision level).

A fusão de imagens em nível de pixel quer dizer: fundir no mais baixo nível de processamento e corresponde a fusão de parâmetros físicos da imagem. Em relação aos dados em formato raster, estes devem estar registrados. No entanto, deve-se observar os erros de registro, pois imagens com erros significativos pode levar a uma má interpretação, surgimento de falsas cores e

feições artificiais após a fusão. O registro inclui a reamostragem dos dados para um novo espaçamento entre os pixels e uma nova projeção (Telles Júnior e Santa Rosa, 2005).

Por outro lado, a correção geométrica tem por objetivo assegurar que as imagens a serem fundidas representem o mesmo espaço independente de terem sido adquiridas por diferentes sensores e possuírem diferentes resoluções espaciais (Telles Júnior e Santa Rosa, 2005).

A fusão de imagens pancromáticas, com maior resolução espacial, e imagens multiespectrais, com menor resolução espacial, tem como objetivo incrementar os detalhes da imagem e preservar a informação espectral, resultando em uma imagem sintética com resolução espacial da imagem pancromática e contendo informações espectrais (Telles Júnior e Santa Rosa, 2005). A Figura 1 mostra um esquema geral do processo de fusão.

A qualidade da fusão depende da correlação entre as imagens. Dessa forma, torna-se necessária a correção radiométrica, pois esta consiste no ajuste do brilho e do contraste da imagem pancromática, com o brilho e o contraste das bandas espectrais (Telles Júnior e Santa Rosa, 2005).

Figura 1 - Esquema geral do método de fusão.

Fonte: Zaniboni e Mascarenhas, 1998.

2.2 Técnicas de fusão

Pinho et al (2005) divide as técnicas de fusão em três grupos: as que utilizam um modelo de domínio espacial, as de domínio espectral e as que trabalham com operações algébricas.

No primeiro caso, modelos de domínio espacial, a informação espacial de alta freqüência proveniente da imagem de alta resolução é isolada e combinada com a imagem multiespectral. As fusões que utilizam este tipo de procedimento são: as transformadas Wavelets e a técnica HPF (High-Pass Filter) (Pinho et al, 2005).

No caso dos modelos de domínio espectral, a imagem multiespectral é transformada por processos que resultam num novo conjunto de bandas em que uma delas é correlacionada com a imagem pancromática. Modelos como Principais Componentes, IHS e Gram-Schmidt fazem parte deste grupo (Pinho et al, 2005).

Existem ainda os modelos que trabalham com operações algébricas, estes operam funções aritméticas pixel-a-pixel, como é o caso das técnicas Brovey e multiplicativa (Pinho et al, 2005).

Abaixo serão explanados aspectos de algumas técnicas citadas, com ênfase na técnica de IHS,

II Simpósio Brasileiro de Geomática Presidente Prudente - SP, 24-27 de julho de 2007 V Colóquio Brasileiro de Ciências Geodésicas

R. B. Nascimento; A. C. S. Correia; A. L. B. Candeias.

considerando-se ter sido esta a técnica selecionada para o desenvolvimento do experimento exposto neste trabalho.

2.2.1 HPF (High Pass Filter)

Segundo Schneider et al (2003), o objetivo da

fusão com filtro passa-alta é transferir o conteúdo de alta freqüência espacial da imagem de alta resolução espacial para a imagem de menor resolução espacial. A combinação desta imagem filtrada com as bandas da imagem multiespectral é feita adicionando os valores digitais pixel-a-pixel (Centeno, 2004). As feições da imagem de alta resolução se tornam mais nítidas através do realce das variações dos níveis de cinza, podendo-se utilizar um filtro passa-alta com máscara pequena (3x3) ou com dimensão correspondendo ao dobro da diferença de resolução espacial.

2.2.2 IHS

O olho humano avalia a intensidade (I), a cor ou matiz (H) e a saturação (S). Por serem independentes, esses parâmetros podem ser analisados e modificados separadamente, para um melhor ajuste das cores às características do sistema visual.

Segundo Centeno (2004), neste processo, a imagem composta por três bandas multiespectrais é transformada do espaço RGB ao sistema IHS. Neste último, as cores são representadas através de três componentes: intensidade (Intensity - I), matiz (Hue – H) e saturação (Saturation –S). A componente intensidade (I) é a medida do brilho de uma determinada cor, a matiz é o comprimento de onda dominante da cor observada e a saturação é o grau de pureza da cor (Mather, 1991 in Pinho et al, 2005). Após a conversão de sistemas, a imagem associada à intensidade é substituída pela imagem pancromática, em seguida é realizada a transformação IHS-RGB, retornando ao RGB com uma imagem multiespectral com melhor resolução espacial. Em Gonzalez e Woods (2000) tem-se esquematicamente a transformação de RGB para IHS e vice-versa (Figura 2).

Figura 2: Fusão pelo método de substituição com IHS. Fonte: Adaptada de Gonzalez e Woods, 2000.

Para que o processamento seja realizado adequadamente, as imagens devem ser registradas antes que se efetue a transformação. Além disso, deve-se ajustar o histograma da imagem pancromática de maneira que fique semelhante ao histograma da imagem intensidade. Assim, as características espectrais da imagem não são alteradas.

A imagem intensidade é muito similar a uma imagem pancromática da mesma área e, portanto, ela pode ser substituída por esta. Este princípio básico pode ser utilizado para combinar imagens de RADAR com dados de sensores multiespectrais, para imagens Ikonos, Quickbird e SPOT por apresentar bandas multiespectrais com resolução espacial inferior à banda pancromática.

O caso ideal de transformação IHS aplicada à fusão deve levar em consideração a faixa espectral da imagem pancromática e das imagens multiespectrais para que haja um resultado espectral adequado. No caso de não se ter tomado estes cuidados, o resultado espectral irá gerar um resultado diferente do esperado. Caso a análise não necessite de cores fiéis, é possível trabalhar com este tipo de produto. Do contrário, se a informação espectral for realmente importante, é necessário observar que a faixa das bandas multiespectrais originais correspondam a da faixa pancromática. Levando-se em consideração este cuidado, o produto fusionado gerará cores mais fiéis.

2.2.3 Componentes principais

Este processo é similar à transformação por IHS. A fusão por Componentes Principais inicia-se com a transformação das bandas multiespectrais (sem limitação do número de bandas) em um mesmo número de Componentes não correlacionadas. De forma parecida à IHS, o histograma da imagem pancromática passa por um processo de equalização de média e variância para que tenha aproximadamente a mesma média da primeira componente principal (CP1). Após a substituição, retorna-se ao sistema original, aplicando-se a transformação inversa. A primeira componente é substituída por ser a componente que armazena a informação comum a todas as bandas, sendo muito similar a uma imagem pancromática, enquanto as outras componentes representam a informação associada à cor (Centeno, 2004 e Pinho et al, 2005).

2.2.4 Brovey (Normalização de cores)

Esta fusão apresenta as mesmas limitações da IHS,

pois trabalha com o sistema de cores RGB. Nesta técnica, é realizada uma combinação aritmética entre uma imagem multiespectral de baixa resolução espacial representada no espaço RGB e uma imagem pancromática de alta resolução. Cada banda da imagem multiespectral é multiplicada pela razão da imagem pancromática dividida pela soma das bandas da imagem multiespectral (Pinho, et al, 2005).

Canal R

Transformação RGB - IHS

Transformação IHS – RGB

Canal G Canal B

Substituição da banda I pela banda de alta resolução espacial

I – H – S Pan - HS

II Simpósio Brasileiro de Geomática Presidente Prudente - SP, 24-27 de julho de 2007 V Colóquio Brasileiro de Ciências Geodésicas

R. B. Nascimento; A. C. S. Correia; A. L. B. Candeias.

2.3 Reamostragem Para substituir a banda I (n x m) pela banda pancromática (menor resolução espacial) é necessário que haja uma reamostragem anterior ao processo de transformação RGB para IHS, na imagem original. Com isto, garante-se que a banda I (n x m) seja do mesmo tamanho que a banda Pan (k x l).

Nesse trabalho, foi realizada a reamostragem por interpolação híbrida, onde a aplicação do interpolador de alocação de vizinho mais próximo e do interpolador bilinear dependem da característica local dos níveis de cinza na imagem (INPE, 2006).

O interpolador de alocação de vizinho mais próximo atribui ao valor de nível de cinza do "pixel" da imagem corrigida, o mesmo valor do nível de cinza do "pixel" que se encontra mais próximo da posição a ser ocupada. Não há alteração no valor de nível de cinza. Por sua característica, é aplicado nas regiões da imagem onde não há heterogeneidade nos valores de nível de cinza (INPE, 2006).

O interpolador bilinear faz com que o nível de cinza a ser atribuído ao "pixel" da imagem corrigida seja determinado a partir do valor dos 4 "pixels" vizinhos. Como resultado, há alteração do valor do nível de cinza, considerando a sua vizinhança. É aplicado nas regiões da imagem onde há heterogeneidade nos níveis de cinza dos "pixels" (INPE, 2006). 3 MATERIAIS E MÉTODOS 3.1 Materiais Para o processamento digital das imagens foram utilizadas as bandas 5 (red), 4 (green) e 3 (blue) do satélite Landsat 5 TM cuja resolução espacial é de 30 metros e uma fotografia aérea com resolução espacial de 5 metros, ambas da cidade de Brasília. Estas imagens estão presentes no banco de exemplos do SPRING.

Todas as etapas do trabalho foram realizadas no software SPRING 4.3. 3.2 Métodos

Para o desenvolvimento do trabalho, foram adquiridas uma fotografia aérea pancromática (Figura 3a) e três bandas de uma imagem de satélite multiespectral (Figura 3b), ambas em formato Geotiff, ou seja, georreferenciadas.

No fluxograma da Figura 4, apresenta-se, de maneira resumida, a seqüência de procedimentos adotados para geração da imagem híbrida.

(a) (b)

Figura 3 – Área estudada. (a) - Foto aérea pancromática. (b) - Imagem de satélite multiespectral, composição 543.

Imagem Híbrida

Reamostragem

Imagem Multiespectral Satélite Landsat TM7 - 543

(extensão Geotiff)

Transformação IHS

Análise dos Resultados

Substituição da banda I pela

fotografia

Fotografia Aérea

Transformação inversaIHS -- RGB

Entrada dos Dados

Saída dos Dados

Pro

cess

amen

to d

os D

ados

Figura 4 – Fluxograma da metodologia.

4 RESULTADOS 4.1 Análise das imagens

Inicialmente, foi inserida no software SPRING, a

foto aérea por representar apenas uma parte da cena da imagem orbital e melhor resolução espacial.

Posteriormente, inseriu-se a imagem de satélite que sofreu uma reamostragem automática pelo software (Figura 5 (a)), a fim de aumentar a sua resolução espacial através de interpolação. A imagem 5 (c) apresenta a mesma área com fotografia aérea.

II Simpósio Brasileiro de Geomática Presidente Prudente - SP, 24-27 de julho de 2007 V Colóquio Brasileiro de Ciências Geodésicas

R. B. Nascimento; A. C. S. Correia; A. L. B. Candeias.

(a) TM543 (b) Fotografia P&B

(c) Imagem fusionada IHS Figura 5 – Imagem de Brasília.

Para produzir composições coloridas, foram

associadas cada banda da imagem a um dos componentes RGB. Em seguida, executou-se a transformação IHS "pixel" a "pixel", onde a cada "pixel" na imagem de saída será associado um ponto correspondente no espaço IHS. O resultado é um conjunto de três novas imagens: uma de intensidade, uma de matiz e outra de saturação. Estas imagens devem ser realçadas, de modo a expandir o intervalo de intensidade e saturação através das técnicas convencionais de contraste, e novamente transformadas para o sistema RGB, permitindo assim melhor separação das feições que se deseja observar. Neste trabalho, considerou-se a substituição da componente I pela fotografia aérea. O resultado final desta transformação é apresentado na figura 5 (c).

4.2 Análise dos histogramas A seguir são apresentados os histogramas da Imagem Reamostrada (Figura 6), da Imagem Híbrida (Figura 7) e da Imagem Pancromática (Figura 8). O histograma fornece a impressão geral da imagem e sintetiza em um único gráfico toda a informação da imagem Devido ao fato da imagem pancromática ser representada na faixa do visível e a imagem TM ser obtida em uma única faixa do visível (as outras duas representam o infravermelho próximo e médio), os histogramas não se assemelham ao histograma da imagem reamostrada. Caso as imagens multiespectrais correspondessem à faixa espectral da imagem pancromática, os histogramas das Figuras (6) e (7) seriam mais parecidos.

(a) Canal R (b) Canal G (c) Canal B

Figura 6 – Histogramas da Imagem reamostrada.

(a) Canal R (b) Canal G (c) Canal B

Figura 7 – Histogramas da Imagem Híbrida (fusionada).

Figura 8 – Histograma da Imagem Pancromática (foto aérea). 5 CONCLUSÕES

Mesmo com a quantidade de sensores hoje disponíveis no Sensoriamento Remoto, trabalhar com fusão de imagens pode fornecer resultados sintéticos mais adequados às necessidades do usuário.

Os cuidados em se gerar este tipo de produto foi mencionado com relação ao método IHS. É importante lembrar que a faixa espectral das imagens originais pan e multiespectral precisam ser as mesmas para garantir um produto com cores correspondentes ao produto de mais baixa resolução. No nosso caso, isto não foi considerado levando a cores diferentes das imagens originais e comprovado pelo histograma.

Também foi visto que outros métodos para fusão de imagens são bastante conhecidos e cujos algoritmos já são amplamente desenvolvidos. É importante que se façam estudos comparativos para aplicação dos vários métodos existentes e escolha do melhor.

A técnica de fusão IHS mostrada no artigo melhorou a qualidade da imagem orbital, mostrando um bom resultado do ponto de vista geométrico. Além disso, permitiu uma melhora considerável de seis vezes em sua resolução espacial, ou seja, a mesma foi alterada de 30 para 5 metros, preservando a resolução espectral das três bandas TM.

II Simpósio Brasileiro de Geomática Presidente Prudente - SP, 24-27 de julho de 2007 V Colóquio Brasileiro de Ciências Geodésicas

R. B. Nascimento; A. C. S. Correia; A. L. B. Candeias.

Uma das grandes vantagens na utilização da transformação IHS é a possibilidade dos três atributos responsáveis pela representação de cores serem analisados e manipulados individualmente, ao contrário do sistema RGB onde eles são intrinsecamente interligados. REFERÊNCIAS ALBERTZ, J., LEHMANN, H., MEHLBREUER, A., SCHOLTEN, F., TAUCH, R., 1988. Herstellung hochauflösender Satelliten-Bildkarten durch Kombination Multisenoraler Datensätze. In: Internationales Jahrbuch für Kartographie, band 28, Ulm: Universitätsverlag, pp. 11-27. CANDEIAS, Ana Lucia Bezerra. Uso da teoria de estimação bayesiana na fusão de dados de satélites. Dissertação de Mestrado. INPE - Instituto Nacional de Pesquisas Espaciais. São José dos Campos, SP, 1992. CENTENO, J. A. S.. Sensoriamento Remoto e Processamento de Imagens Digitais. Ed. Curso de Pós-Graduação em Ciências Geodésicas. Curitiba, 2004. CHAVEZ, P. S., SIDES, S. C., ANDERSON, J. A., 1991. Comparison of Three Different Methods to Merge Multiresolution and Multispectral Data: Landsat TM and SPOT Panchromatic. Photogrammetric Engineering & Remote Sensing, Vol. 57, No. 3, pp. 295-303. SCHNEIDER, M. J., BELLON, O. R. P. & ARAKI, H. Experimentos em Fusão de Imagens de Alta Resolução. Boletim Ciências Geodésicas, sec. Artigos, Curitiba, v. 9, n° 1, p.75-88, 2003. Disponível em http://www.cienciasgeodesicas.ufpr.br/boletim/pdf/bcg9-1/8Art91_5.pdf. EHLERS, M., 1991, Multisensor image fusion techniques in remote sensing. ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 46, pp. 19-30. GONZALEZ, R. C.; WOODS, R. E. Processamento de Imagens Digitais. Editora Edgard Blucher Ltda, São Paulo, 2000. INPE – Instituto Nacional de Pesquisas Espaciais. Tutorial do Software Spring. Disponível em (http://www.dpi.inpe.br/spring/portugues/tutorial/registro_img.html). Acesso: 15 dezembro 2006. LEONARDI, S. S., ORTIZ, J. O. & FONSECA, L. M. G. Comparação de técnicas de fusão de imagens para diferentes sensores orbitais. XII Simpósio Brasileiro de Sensoriamento Remoto, Goiânia, Brasil, 16-21 abril 2005, INPE, p. 4111-4113.

PINHO, C. M. D. de, RENNÓ, C. D. & KUX, H. J. H. Avaliação de Técnicas de Fusão Aplicadas à Imagem Quickbird. XII Simpósio Brasileiro de Sensoriamento Remoto, Goiânia, Brasil, 2005, INPE, p. 4225-4232. SHETTIGARA, V. K., 1992. A Generalized Component Substitution Technique for Spatial Enhancement of Multispectral Images Using a Higher Resolution Data Set. Photogrammetric Engineering & Remote Sensing, Vol. 58, No. 5, pp. 561-567. TELLES JÚNIOR, M. A. B. G. & SANTA ROSA, A. N. de C. Fusão de imagens IRS-1C e Landsat 5 utilizando método aditivo de sub-bandas. XII Simpósio Brasileiro de Sensoriamento Remoto, Goiânia, Brasil, 16-21 abril 2005, INPE, p. 4327-4334. TELLES JÚNIOR, M. A. B. G. & SANTA ROSA, A. N. de C. Fusão de Imagens Multitemporais Spot-5 e Cbers-2 Utilizando Transformada Wavelet. XII Simpósio Brasileiro de Sensoriamento Remoto, Goiânia, Brasil, 16-21 abril 2005, INPE, p. 4335-4342. WALD L., Some terms of reference in data fusion. IEEE Transactions on Geosciences and Remote Sensing, 37, 3, 1190-1193, 1999. ZHANG, Y., 1999. A new merging method and its spectral and spatial effects. International Journal of Remote Sensing, vol. 20, pp. 2003-2014. Zhou