29.01.2015 Views

Thiago Broerman Cazes Interpretação Baseada ... - NIMA - PUC-Rio

Thiago Broerman Cazes Interpretação Baseada ... - NIMA - PUC-Rio

Thiago Broerman Cazes Interpretação Baseada ... - NIMA - PUC-Rio

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

A-PDF Merger DEMO : Purchase from www.A-PDF.com to remove the watermark<br />

<strong>Thiago</strong> <strong>Broerman</strong> <strong>Cazes</strong><br />

Interpretação <strong>Baseada</strong> em Conhecimento de<br />

Imagens de Sensores Remotos de Alta Resolução<br />

Dissertação de Mestrado<br />

Dissertação apresentada ao Programa de Pósgraduação<br />

em Engenharia Elétrica da <strong>PUC</strong>-<strong>Rio</strong><br />

como requisito parcial para a obtenção do título de<br />

Mestre em Ciências da Engenharia Elétrica<br />

Orientador: Raul Queiroz Feitosa<br />

Co-orientador: Luiz Felipe Guanaes Rego<br />

<strong>Rio</strong> de Janeiro, 09 de Setembro de 2005


<strong>Thiago</strong> <strong>Broerman</strong> <strong>Cazes</strong><br />

Interpretação <strong>Baseada</strong> em Conhecimento<br />

de Imagens de Sensores Remotos de<br />

Alta Resolução<br />

Dissertação apresentada como requisito parcial para<br />

obtenção do grau de Mestre pelo Programa de Pós-<br />

Graduação em Engenharia Elétrica do Departamento de<br />

Engenharia Elétrica do Centro Técnico Científico da <strong>PUC</strong>-<br />

<strong>Rio</strong>. Aprovada pela Comissão Examinadora abaixo<br />

assinada.<br />

Dr. Raul Queiroz Feitosa<br />

Orientador<br />

Departamento de Engenharia Elétrica - <strong>PUC</strong>-<strong>Rio</strong><br />

Dr. Luiz Felipe Guanaes Rego<br />

Co-Orientador<br />

Departamento de Geografia - <strong>PUC</strong>-<strong>Rio</strong><br />

Dra. Marley Maria Bernardes Rebuzzi Vellasco<br />

Departamento de Engenharia Elétrica - <strong>PUC</strong>-<strong>Rio</strong><br />

Dr. Herman Johann Heinrich Kux<br />

INPE<br />

Prof. José Eugenio Leal<br />

Coordenador Setorial do Centro<br />

Técnico Científico - <strong>PUC</strong>-<strong>Rio</strong><br />

<strong>Rio</strong> de Janeiro, 09 de setembro de 2005


Todos os direitos reservados. É proibida a reprodução total ou<br />

parcial do trabalho sem autorização da universidade, do autor e do<br />

orientador.<br />

<strong>Thiago</strong> <strong>Broerman</strong> <strong>Cazes</strong><br />

Graduação em Engenharia Elétrica com Ênfase em Sistemas e<br />

Computação na UERJ. Objetivando título de Mestre em Métodos<br />

de Apoio a Decisão no Departamento de Engenharia Elétrica da<br />

<strong>PUC</strong>-RJ atuando em pesquisa na área de métodos automáticos de<br />

interpretação em sensoriamento remoto. Toma parte do projeto<br />

ECOWATCH que envolve instituições brasileiras e alemãs e é<br />

gerido pelo programa PROBRAL.<br />

Ficha Catalográfica<br />

<strong>Cazes</strong>, <strong>Thiago</strong> <strong>Broerman</strong><br />

Interpretação baseada em conhecimento de<br />

imagens de sensores remotos de alta resolução<br />

/ <strong>Thiago</strong> <strong>Broerman</strong> <strong>Cazes</strong> ; orientador: Raul<br />

Queiroz Feitosa ; co-orientador: Luiz Felipe<br />

Guanaes Rego. – <strong>Rio</strong> de Janeiro : <strong>PUC</strong>,<br />

Departamento de Engenharia Elétrica, 2005.<br />

94 f. ; 30 cm<br />

Dissertação (mestrado) – Pontifícia<br />

Universidade Católica do <strong>Rio</strong> de Janeiro,<br />

Departamento de Engenharia Elétrica.<br />

Inclui referências bibliográficas.<br />

1. Engenharia elétrica – Teses. 2.<br />

Sensoriamento remoto. 3. Imagens de alta<br />

resolução. 4. Interpretação de imagens baseada<br />

em conhecimento. 5. Classificação de imagens.<br />

6. IKONOS. I. Feitosa, Raul Queiroz. II. Rego,<br />

Luiz Felipe Guanaes. III. Pontifícia Universidade<br />

Católica do <strong>Rio</strong> de Janeiro. Departamento de<br />

Engenharia Elétrica. VI. Título.<br />

CDD: 621.3


Agradecimentos<br />

Ao meu orientador Prof. Raul Queiroz Feitosa;<br />

Ao meu co-orientador Prof. Luiz Felipe Guanaes Rego;<br />

A toda a equipe do projeto ECOWATCH;<br />

Aos professores que participaram da Comissão examinadora;<br />

Aos meus amigos da <strong>PUC</strong>-RIO;<br />

A CAPES, ao DAAD e ao CNPQ pelo apoio financeiro;<br />

Aos alunos de graduação Marlene, Daniele e Ricardo em geografia pelo apoio no<br />

procedimento de interpretação visual e apoio nos procedimentos específicos de<br />

cartografia;<br />

Aos meus pais, familiares e amigos.


Resumo<br />

<strong>Cazes</strong>, <strong>Thiago</strong> <strong>Broerman</strong>; Feitosa, Raul Queiroz . Interpretação <strong>Baseada</strong> em<br />

Conhecimento de Imagens de Sensores Remotos de Alta Resolução <strong>Rio</strong> de<br />

Janeiro, 2005, 94 p. Dissertação de Mestrado – Departamento de Engenharia<br />

Elétrica, Pontifícia Universidade Católica do <strong>Rio</strong> de Janeiro.<br />

A cada dia mais e mais satélites de alta resolução têm se tornado disponíveis,<br />

criando grande demanda por novos métodos de interpretação baseados em<br />

conhecimento. Estes métodos emulam parcialmente o trabalho do especialista em<br />

análise visual de imagens. Nesse contexto, o presente trabalho apresenta um modelo de<br />

classificação baseado no conhecimento do especialista aplicado a imagens de alta<br />

resolução. O modelo de interpretação consiste de três fases. A primeira inclui o<br />

conhecimento espectral e a informação de textura. Na segunda fase dados de SIG<br />

(sistema de informação geográfico) são combinados com o resultado da análise<br />

espectral através de regras nebulosas. Na terceira e última fase é introduzido o<br />

conhecimento multitemporal através de uma estimativa das possibilidades de transição<br />

entre classes de uma mesma área em um dado intervalo de tempo. Para validação desse<br />

modelo experimentos foram realizados em imagens IKONOS e fotos aéreas de 1999,<br />

2001 e de 2002 da área do Parque Estadual da Pedra Branca, que é um importante<br />

fragmento da Floresta Atlântica situado no estado do <strong>Rio</strong> de Janeiro, Brasil.<br />

Palavras-Chaves<br />

Sensoriamento remoto; Imagens de alta resolução; Interpretação de imagens<br />

baseada em conhecimento; Classificação de imagens; IKONOS.


Abstract<br />

<strong>Cazes</strong>, <strong>Thiago</strong> <strong>Broerman</strong>; Feitosa, Raul Queiroz (Advisor). Knowledge-based<br />

Interpretation of High Resolution Remote Sensing Images <strong>Rio</strong> de Janeiro,<br />

2005, 94 p. MSc. Dissertation – Department of Electrical Engineering, Pontifical<br />

Catholic<br />

New high resolution satellites for commercial purposes became available in the<br />

few years. This increases the need of new automatic knowledge based image<br />

interpretation methods. Such methods partially emulate the reasoning of an image<br />

analyst during the visual image interpretation. The present work falls into this context<br />

and proposes an automatic classification model for high resolution remotely sensed<br />

images. The model consists of three stages. In the first stage only spectral and textural<br />

information are used for classification. In the second stage GIS (geographic information<br />

system) data are combined with the result of the spectral analysis by means of fuzzy<br />

rules. In the third stage the multitemporal knowledge is introduced by estimating class<br />

transition possibilities within a given time span. To validate the proposed model<br />

experiments were performed based on IKONOS images from 2001 and 2002 as well as<br />

aerial photos from 1999 of the Pedra Branca Park, which is an important Atlantic Forest<br />

fragment in the State <strong>Rio</strong> de Janeiro in Southeast Brazil.<br />

Keywords<br />

Remote sensing; High Resolution Images; Knowledge-based interpretation; Image<br />

Classification; IKONOS.


Sumário<br />

1 Introdução 13<br />

1.1 Objetivos 15<br />

1.1.1 Objetivo Geral 15<br />

1.1.2 Específico 16<br />

1.2 Organização 16<br />

2 Fundamentos Teóricos 17<br />

2.1 Sensoriamento remoto 17<br />

2.1.1 Sensoriamento remoto em imagens de alta resolução 19<br />

2.1.2 Pré-processamento 22<br />

2.2 Métodos computacionais 24<br />

2.2.1 Classificação de padrões 24<br />

2.3 Segmentação 33<br />

2.3.1 Histórico 33<br />

2.3.2 Segmentação baseada em crescimento de regiões 34<br />

2.3.3 Segmentação em múltiplas escalas 35<br />

2.4 Parâmetros de textura 36<br />

3 Estado da arte em classificação de imagens de alta resolução 37<br />

3.1 Métodos baseados em pixels 37<br />

3.2 Classificação baseada em objetos 40<br />

3.3 Classificação Multitemporal 42<br />

4 Modelo proposto 45<br />

4.1 Introdução 45<br />

4.2 Descrição geral do modelo 45<br />

4.2.1 Fase 1: Classificação automática supervisionada baseada em dados<br />

espectrais e textura 47<br />

4.2.2 Fase 2: Classificação baseada em regras do especialista 47<br />

4.2.3 Fase 3: Representação de conhecimento multitemporal 48<br />

5 Avaliação experimental 51<br />

5.1 Descrição da área de estudo e preparação dos dados 51<br />

5.1.1 Parque Estadual da Pedra Branca 52<br />

5.1.2 Imagens Utilizadas 56<br />

5.1.3 Preparação dos dados 58<br />

5.1.4 Segmentação 59<br />

5.1.5 Definição das classes 60<br />

5.1.6 Processo de classificação visual 64<br />

5.2 Fase 1 – Classificação Espectral e Textura 68<br />

5.2.1 Dados utilizados 68<br />

5.2.2 Resultados 69<br />

5.3 Fase 2 – Classificação estrutural baseada em regras 70


5.3.1 Atributos utilizados na classificação estrutural 71<br />

5.3.2 Regras 73<br />

5.3.3 Ajuste das funções de pertinência 74<br />

5.3.4 Resultados da classificação estrutural baseada em regras 75<br />

5.4 Fase 3 – Classificação multitemporal 77<br />

5.4.1 Resultados do classificador multitemporal 82<br />

5.5 Conclusões 86<br />

6 Comentários finais 87<br />

Referências 89


Lista de Figuras<br />

Figura 1 – Exemplo da influência da refletância e do comprimento de onda em<br />

diferentes tipos de cobertura de solo [] 18<br />

Figura 2 – resposta espectral relativa ao comprimento de onda na banda pancromática<br />

IKONOS [16] 21<br />

Figura 3 – resposta espectral relativa, conforme o comprimento de ondas para o sensor<br />

multiespectral IKONOS [16] 21<br />

Figura 4 – Representação do problema da topografia em captura de imagens de sensores<br />

remotos 23<br />

Figura 5 – Modelo de neurônio artificial não linear [22] 26<br />

Figura 6 – Funções de ativação: (a) tangente hiperbólica sigmóide (tansig) e (b)<br />

sigmóide logarítmica (logsig) a direita. 27<br />

Figura 7 – Arquitetura de uma rede neural do tipo MLP com uma camada oculta 27<br />

Figura 8 – Representação de um individuo e genes em algoritmos genéticos 31<br />

Figura 9 – demonstração do operador genético de crossover simples de um ponto. 32<br />

Figura 10 – Modelo de interpretação baseado em conhecimento para imagens de alta<br />

resolução. 46<br />

Figura 11 - diagrama detalhado do procedimento de interpretação na fase 2. 48<br />

Figura 12 – Exemplo de diagrama de transição de estados para 4 classes 49<br />

Figura 13 – Mapa representativo do Parque Estadual da Pedra Branca localizado no sul<br />

do Eestado do <strong>Rio</strong> de Janeiro. 52<br />

Figura 14 – Imagem IKONOS Multiespectral (4m de resolução) da área do Parque<br />

Estadual da Pedra Branca no ano de 2001. Em azul o recorte correspondente a<br />

Figura 15 e Figura 16 mostrado apenas para exemplificar a riqueza de informação<br />

contida em imagens de alta resolução. 53<br />

Figura 15 – Detalhe da área marcada em azul na Figura 14. Bandas visíveis (RGB).<br />

Observa-se a expansão urbana e as áreas de vegetação. 54<br />

Figura 16 – Detalhe da área marcada em azul na Figura 14. Destaque na banda<br />

infravermelha. Composição (NRG) realçando a vegetação. 54<br />

Figura 17 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a área da<br />

represa facilmente observável a partir da imagem de satélite. 55


Figura 18 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a vegetação<br />

densa típica da Mata Atlântica. 55<br />

Figura 19 – Foto do Parque Nacional da Pedra Branca; detalhe da expansão urbana<br />

sobre a área do parque. 56<br />

Figura 20 – Representação da imagem IKONOS 57<br />

Figura 21 – Ilustração gerada com a foto aérea de 1999 e o DTM da área de estudo<br />

utilizado no processo de ortoretificação. 58<br />

Figura 22 – Comparação entre as segmentações em uma área da imagem selecionada; a)<br />

imagem, segmentação com parâmetro de escala b) 90, c) 60 e d) 30. 60<br />

Figura 23 - Classificação Visual da imagem IKONOS de 2001. 66


Lista de Tabelas<br />

Tabela 1 – Características da legenda utilizada no processo de classificação. 64<br />

Tabela 2 – Percentual de área na imagem classificada coberta por cada classe da legenda<br />

(imagens de 1999 e 2001 classificação visual) 65<br />

Tabela 3 – Número de segmentos gerados por classe da legenda (imagens de 1999 e<br />

2001, classificação visual) 65<br />

Tabela 4 – Alterações reais detectadas pela classificação visual entre os anos de 2001 e<br />

1999, relativo ao numero de segmentos. 67<br />

Tabela 5 – Alterações reais detectadas pela classificação visual entre os anos de 1999 e<br />

2001, percentual de mudança em relação ao ano de 1999. 67<br />

Tabela 6 – Matriz de confusão da classificação espectral da imagem de 2001 após a<br />

primeira fase. Resultados apresentados em percentual relativo a imagem de<br />

referência. 70<br />

Tabela 7 – Configuração dos sistemas neuro-fuzzy. 74<br />

Tabela 8 – Matriz de confusão de uma classificação típica após a Fase 2. Resultado<br />

percentual relativo a referencia de uma interação. 76<br />

Tabela 9 – Transições entre classes para a área de teste. 80<br />

Tabela 10 – Configuração dos sistemas neuro-fuzzy. 81<br />

Tabela 11 – Matriz de transição nebulosa. Valores em zero indicam transições<br />

impossíveis. 83


Lista de Gráficos<br />

Gráfico 1 – Taxa de erro médio de omissão por classe após a classificação<br />

supervisionada com atributos espectrais e textura. 69<br />

Gráfico 2 – Erro de omissão médio por classe após a FASE 2. (resultado após 20<br />

execuções) 75<br />

Gráfico 3 – Erro de classificação global após a FASE 2. (resultado após 20 execuções)<br />

77<br />

Gráfico 4 – Erro de classificação global após a inclusão de conhecimento multitemporal<br />

de maneira CRISP. (resultado após 20 execuções) 82<br />

Gráfico 5 – Evolução do algoritmo genético durante a sua evolução. 84<br />

Gráfico 6 – Avaliação do erro de omissão após a inclusão da informação multitemporal<br />

nebulosa. 84<br />

Gráfico 7 – Taxa de erro global após a classificação por inclusão de dados<br />

multitemporais nebulosos. 85


13<br />

1<br />

Introdução<br />

As técnicas de sensoriamento remoto estão em constante processo de evolução<br />

permitindo acurácia cada vez melhor na descriminação de classes de uso e cobertura do solo [1].<br />

Uma grande gama de novos sensores comerciais vem sendo desenvolvida com<br />

resolução espacial de poucos metros, em alguns casos até mesmo com menos de 1 metro.<br />

Sensores como o IKONOS com resolução de 1m na banda pancromática ou o QUICKBIRD<br />

com 60cm, permitem um desenvolvimento sem precedentes na área de sensoriamento remoto<br />

em imagens de alta resolução.<br />

Além da resolução espacial observa-se uma grande evolução nos sensores orbitais<br />

também em termos de resolução espectral e radiométrica. Sensores com centenas de bandas<br />

espectrais permitem a captura de imagens em diferentes faixas do espectro eletromagnético com<br />

elevada resolução radiométrica em cada uma de suas bandas.<br />

Isso tudo implica em um enorme aumento da complexidade e do volume de dados<br />

disponível em escala mundial, o que faz aumentar a demanda por ferramentas automáticas<br />

capazes de interpretar a massa de dados produzida.<br />

Uma das aplicações mais importantes de sensores remotos são atividades de<br />

planejamento ligadas a preservação ambiental. Monitoramento de queimadas,<br />

acompanhamento de áreas de risco e planejamento de expansão urbana sobre áreas de<br />

florestas são alguns exemplos dessas aplicações.<br />

Nesse contexto tem crescido o interesse mundial por métodos ou sistemas<br />

baseados no conhecimento [2, 3, 4, 5, 6 e 7]. Esses sistemas buscam reproduzir em um<br />

ambiente computacional o raciocínio, muitas vezes subjetivo, do foto-interprete. Ainda<br />

não existem métodos que consigam realizar toda a tarefa de interpretação independente<br />

da interação do ser humano, ou seja, completamente automáticos. Contudo, pesquisas<br />

vêem apontando para um aumento significativo dos níveis de automatização de vários<br />

passos envolvidos no processo de interpretação.<br />

O presente trabalho se insere nesta linha de pesquisa que procura desenvolver novos<br />

métodos automáticos de interpretação de imagens de sensores remotos, especialmente sensores<br />

de alta resolução espacial. Mais especificamente este trabalho investiga métodos<br />

automáticos de classificação com ênfase nos métodos baseados em conhecimento.


14<br />

Para avaliar as técnicas estudadas no âmbito desta pesquisa, foi escolhido como<br />

sítio alvo uma área representativa da Mata Atlântica no Estado do <strong>Rio</strong> de Janeiro.<br />

Inúmeras são as razões que justificam esta escolha. Primeiramente a Mata Atlântica é o<br />

bioma brasileiro mais devastado. Inicialmente esta mata ocupava a região costeira do<br />

país do Ceará ao <strong>Rio</strong> Grande do Sul em área aproximada de 1.000.000 km 2 . Atualmente<br />

está restrita a manchas distribuídas por vários Estados, ocupando área aproximada de<br />

91.000 km 2 . No Estado do <strong>Rio</strong> de Janeiro encontramos atualmente 19.000 km 2<br />

ocupados com a Mata Atlântica 1 . Este nível de devastação pode ser explicado tanto<br />

pelo valor econômico de suas espécies florestais, como pela intensa ocupação humana<br />

já que aproximadamente 70% da população brasileira vive em seu entorno, o que<br />

implica em todo tipo de pressão antrópica [8, 9].<br />

A Mata Atlântica, definida pela UNESCO como uma Reserva da Biosfera 2 , é<br />

uma das florestas mais ricas do mundo em termos de diversidade biológica, com<br />

elevados índices de endemismo: 30% das espécies arbóreas, 150 tipos de pássaros e 50<br />

tipos de pequenos animais, entre outros. É responsável pela manutenção de nascentes de<br />

rios que abastecem cerca de 10.000.000 pessoas. Além de ter efeito muito positivo sobre<br />

a sustentação e estabilidade de encostas íngremes. Sua existência também contribui para<br />

a qualidade de vida da população que vive em seu entorno, principalmente, por seu<br />

valor estético, criando uma paisagem equilibrada e saudável. O <strong>Rio</strong> de Janeiro,<br />

juntamente com os estados do Espírito Santo e da Bahia, são apontados como centros de<br />

endemismo de flora e fauna Atlântica [10].<br />

A preservação deste bioma necessariamente envolve o conhecimento da<br />

distribuição espacial destes remanescentes (land-cover), assim como a dinâmica de sua<br />

transformação temporal (land-cover change). As tecnologias orbitais são<br />

reconhecidamente capazes de produzir este tipo de mapeamento e vêm sendo utilizadas<br />

para este fim com resultados práticos como, por exemplo, a série de mapeamentos<br />

desenvolvidos pela Fundação SOS Mata Atlântica 3 e pelo Instituto Nacional de<br />

Pesquisas Espaciais - INPE.<br />

Nas últimas décadas o mapeamento do padrão de cobertura do espaço<br />

geográfico vem sendo produzido a partir de imagens de média resolução como a série<br />

LANDSAT. Os mapas de cobertura produzidos a partir dessas imagens geram produtos<br />

1 Atlas dos Remanescentes Florestais da Mata Atlântica – Período 1995/2000 – Fundação SOS Mata<br />

Atlântica<br />

2 http://www.unicamp.br/nipe/rbma/


15<br />

compatíveis com a escala 1:50.000 ou menores em função de sua resolução espacial de<br />

30 m × 30 m. Esses mapas permitem uma visão geral do problema, mas dificultam, pela<br />

escala, a definição mais precisa dos limites do processo de mudança, dificultando a<br />

definição de parâmetros operacionais que permitam ações objetivas na solução de<br />

problema locais [11].<br />

Os novos sensores orbitais com resolução espacial de poucos metros<br />

possibilitam a produção de mapeamentos em escalas maiores que permitem uma<br />

compreensão detalhada tanto do padrão de cobertura do espaço como, com o passar do<br />

tempo, do nível de alteração deste padrão [12]. Em função das resoluções espacial,<br />

espectral e radiométrica dessas imagens será possível identificar classes mais finas que<br />

as produzidas pelos sistemas orbitais anteriores, o que permitirá, consequentemente,<br />

uma melhor compreensão dos processos ambientais nas áreas sob risco e uma definição<br />

mais direcionada e mais fundamentada das ações que visam a sua preservação.<br />

É, portanto, importante, através de um processo ordenado e sistemático de<br />

pesquisa, avaliar a eficiência do processo de classificação de imagens orbitais de alta<br />

resolução em termos de acurácia e detalhamento de classes qualitativas de cobertura,<br />

visando aumentar o conhecimento do padrão de cobertura dos remanescentes de Mata<br />

Atlântica no Estado do <strong>Rio</strong> de Janeiro e contribuir com tecnologias de ponta para sua<br />

conservação.<br />

1.1<br />

Objetivos<br />

1.1.1<br />

Objetivo Geral<br />

O objetivo principal desse trabalho é avaliar um modelo baseado em<br />

conhecimento para a interpretação automática de imagens de sensores remotos de alta<br />

resolução. Embora o modelo tenha elementos de aplicabilidade geral, o trabalho foi<br />

direcionado a fragmentos florestais da Mata Atlântica, mais especificamente ao Parque<br />

Nacional da Pedra Branca no Município do <strong>Rio</strong> de Janeiro, RJ, Brasil.<br />

3 http://www.sosmatatlantica.org.br/


16<br />

1.1.2<br />

Específico<br />

São objetivos específicos deste trabalho:<br />

• Construir um modelo de classificação que leve em conta três<br />

modalidades de conhecimento: espectral, estrutural (ou contextual) e<br />

multitemporal;<br />

• Avaliar a contribuição individual de cada uma das modalidades de<br />

conhecimento para o desempenho da classificação de imagens de alta<br />

resolução.<br />

1.2<br />

Organização<br />

Este trabalho está organizado em seis capítulos descritos mais detalhadamente a<br />

seguir.<br />

O capítulo 2 descreve os principais métodos de interpretação baseados em<br />

conhecimento pesquisados atualmente, com foco em imagens de alta resolução. Nesse<br />

capítulo são abordados assuntos como interpretação baseada em pixels ou objetos,<br />

segmentação e multitemporalidade.<br />

O capítulo 3 apresenta de forma introdutória os conceitos teóricos usados neste<br />

trabalho. Esse capítulo se divide em duas partes. A primeira introduz conceitos básicos<br />

sobre sensoriamento remoto necessários para um bom entendimento do modelo<br />

apresentado. A segunda parte trata de métodos computacionais utilizados na<br />

implementação dos modelos.<br />

No quarto capítulo é apresentado o modelo de interpretação baseado em<br />

conhecimento proposto neste trabalho.<br />

O capítulo 5 descreve os experimentos realizados para avaliar os métodos<br />

propostos no trabalho. A área de estudo e a base de dados são descritos, assim como os<br />

procedimentos de pré-processamento das imagens. Esse capítulo também apresenta a<br />

legenda da aplicação escolhida, os procedimentos de segmentação das imagens e a<br />

metodologia de classificação visual realizada por um especialista, que produziu os<br />

dados de referência para a avaliação dos métodos propostos no trabalho. O capítulo<br />

termina apresentando e discutindo os resultados experimentais.<br />

No sexto e último capítulo é realizada uma análise global dos resultados e são<br />

apresentadas conclusões e propostas para trabalhos futuros.


17<br />

2<br />

Fundamentos Teóricos<br />

A presente pesquisa tem um caráter claramente multidisciplinar. Por isso foi<br />

introduzido neste documento o presente capítulo, cujo propósito é apresentar os<br />

fundamentos básicos teóricos e algumas técnicas das áreas relacionadas que são<br />

essenciais para a compreensão dos modelos e procedimentos apresentados nesse<br />

trabalho.<br />

Leitores já iniciados nos temas aqui abordados poderão prescindir da leitura da<br />

seção correspondente ao capítulo sem prejuízo para a compreensão do restante deste<br />

trabalho.<br />

Na primeira parte do capítulo é apresentada uma breve introdução sobre<br />

sensoriamento remoto e técnicas de processamento de imagens de sensores remotos,<br />

principalmente em alta resolução. Detalhes de correção geométrica e topográfica são<br />

apresentados.<br />

Na segunda parte são apresentados algoritmos específicos de classificação<br />

supervisionada utilizados durante o trabalho. Também são descritos modelos de<br />

classificação baseados em lógica nebulosa e sistemas neuro-fuzzy e algoritmos<br />

genéticos utilizados para otimização de parâmetros.<br />

O algoritmo de segmentação ou extração dos objetos a partir de imagens de<br />

sensores remotos é descrito na terceira parte do capítulo.<br />

Na quarta e última parte apresenta-se uma breve descrição dos parâmetros de<br />

Haralick [37], utilizados como atributos de textura ao longo desse trabalho.<br />

2.1<br />

Sensoriamento remoto<br />

Sensoriamento Remoto é a técnica ou arte de obter informações sobre objetos,<br />

áreas e fenômenos através da análise de informações obtidas sem contato direto com o<br />

objeto, área ou fenômeno de estudo [1]. Nesse contexto a análise de uma foto de uma<br />

determinada área geográfica pode ser denominada de sensoriamento remoto.


18<br />

A principal ferramenta do sensoriamento remoto é o sensor de captação da<br />

imagem a ser analisada. Atualmente, existe uma grande variedade de sensores ativos e<br />

passivos para a captação de imagens [13]. Sensores ativos emitem energia em um<br />

determinado comprimento de onda e a captam de volta após ser refletida pelo material<br />

analisado. Através de medidas realizadas na emissão e captação é possível a estimação e<br />

criação de imagens remotas. Sensores passivos não emitem radiação, mas simplesmente<br />

captam a reflexão da radiação, principalmente a radiação eletromagnética solar, sobre os<br />

objetos. Esse trabalho concentrara-se em sensores passivos, sensíveis a radiações<br />

eletromagnéticas.<br />

Esses sensores baseiam-se na propagação da energia eletromagnética e na sua<br />

interação com alvos naturais. Em poucas palavras a energia eletromagnética emitida<br />

pelo sol atinge alvos naturais e é refletida por esses, sendo então capturada por sensores<br />

remotos transportados por satélites, aeronaves, balões meteorológicos, etc. Essa reflexão<br />

eletromagnética sofre alguns fenômenos devidos à interação com a cobertura do solo ou<br />

à dispersão ou absorção pela atmosfera. As influências da atmosfera não são tratadas<br />

nesse trabalho e podem ser melhor estudadas em [1].<br />

Ao atingir alguma região da superfície da Terra a radiação eletromagnética sofre<br />

interações de acordo com as características físico-químicas da cobertura do solo ou da<br />

composição do objeto; como resultado uma parte da energia eletromagnética é refletida<br />

e uma outra parte é absorvida pela superfície. Em termos gerais, tipos diferentes de<br />

cobertura de solo oferecem comportamentos diferentes, conforme o comprimento de<br />

onda por ele atingido pelo alvo, como o apresentado na Figura 1.<br />

Figura 1 – Exemplo da influência da refletância e do comprimento de onda em diferentes tipos<br />

de cobertura de solo [14]


19<br />

Os sensores remotos passivos que detectam energia eletromagnética refletida ou<br />

emitida pelo alvo permitem medir a proporção de energia refletida da superfície<br />

terrestre que os atinge, num determinado comprimento de onda.<br />

2.1.1<br />

Sensoriamento remoto em imagens de alta resolução<br />

Os estudos em sensoriamento remoto em alta resolução espacial começaram a<br />

ganhar força quando câmeras a bordo de aviões foram utilizadas para a obtenção<br />

fotografias aéreas. Durante anos as tecnologias tanto de obtenção quanto de<br />

processamento e análise dessas imagens se desenvolveram intensamente, inicialmente<br />

nos setores militares e em seguida na administração pública e em setores privados [15].<br />

Os mapas produzidos por fotos aéreas podem ser obtidos em diferentes escalas,<br />

dependendo basicamente do tipo de câmera utilizada e da altitude do sobrevôo.<br />

O grande problema detectado com as imagens aéreas são os seus elevados custos<br />

de obtenção e a complexidade que cresce com a área a ser analisada. A análise de uma<br />

área relativamente grande com fotos aéreas é um processo caro e trabalhoso<br />

principalmente pelo complexo processo de obtenção que envolve um plano de vôo<br />

preciso e o controle necessário para garantir a homogeneidade na aquisição das<br />

imagens.<br />

Com o avanço das tecnologias espaciais especialmente a partir de 1972, e o<br />

desenvolvimento de câmeras e sensores digitais, foi possível a aquisição de imagens a<br />

partir de satélites não militares. O programa LANDSAT surgiu ainda em 1972 com o<br />

objetivo de produzir imagens de toda a superfície do globo terrestre de maneira contínua<br />

e sistemática, e a custos razoáveis.<br />

Desde o início da utilização não-militar de sensores remotos baseados em<br />

satélites, um grande número de diferentes sensores foram desenvolvidos. Estes sensores<br />

passam a forçar os desenvolvimentos científicos, e tecnológicos, tanto no que se refere a<br />

resolução espacial quando a resolução radiométrica. As imagens geradas estão sendo<br />

utilizadas amplamente, principalmente em tarefas de planejamento. A maior<br />

periodicidade na obtenção das imagens tornou possível uma análise de séries históricas<br />

em determinadas regiões que mostram claramente tendências de alteração de padrões de<br />

ocupação de solo. Com esses dados é possível um melhor planejamento a longo e médio


20<br />

prazo de atividades que impactam direta ou indiretamente no padrão de cobertura do<br />

solo.<br />

Os sensores remotos baseados em satélites tornaram possível uma utilização<br />

mais ampla e democrática da informação e do sensoriamento remoto como um todo.<br />

Porém, o tipo de informação extraída depende fundamentalmente do tipo de imagem<br />

obtida. Em outras palavras, uma imagem LANDSAT consegue representar objetos não<br />

menores do que 900 m 2 , assim como uma imagem de um satélite de metrologia como o<br />

AVHRR consegue representar informações a partir de 1Km 2 .<br />

Em meados de 1999 ocorreu um marco na área de sensoriamento remoto para<br />

aplicações não militares. O IKONOS, o primeiro satélite de alta resolução destinado<br />

exclusivamente para sensoriamento remoto e voltado a objetivos civis foi lançado. Com<br />

a resolução espacial de 1m no modo pancromático, as imagens IKONOS trouxeram<br />

para o mundo do sensoriamento remoto uma nova gama de possibilidades. Pela primeira<br />

vez era possível, de forma sistemática, em alguns casos à custos inferiores aos das fotos<br />

aéreas, a identificação e representação de objetos com até 1m 2 .<br />

O satélite IKONOS realiza a órbita em torno da Terra em aproximadamente 98<br />

minutos em uma altitude de aproximadamente 680 km [16]. Lançado em uma órbita em<br />

sincronia com o sol o IKONOS consegue passar por uma dada longitude em<br />

praticamente o mesmo horário local (10h30min AM) diariamente. Com isso o IKONOS<br />

é capaz de produzir imagens de 1m de resolução de uma determinada área geográfica a<br />

cada 3 dias.


21<br />

Figura 2 – resposta espectral relativa ao comprimento de onda na banda pancromática<br />

IKONOS [16]<br />

Figura 3 – resposta espectral relativa, conforme o comprimento de ondas para o sensor<br />

multiespectral IKONOS [16]<br />

O satélite IKONOS produz dois tipos de imagens bem distintas em termos de<br />

resolução espectral e espacial. Com a resolução de apenas 1m por pixel a imagem


22<br />

pancromática possui uma faixa de sensibilidade eletromagnética que cobre todo o<br />

espectro visível (Figura 2). A imagem multiespectral IKONOS possui uma resolução<br />

um pouco menor, 4 m por pixel, porém essa imagem possui quatro bandas de detecção<br />

oferecendo uma faixa dinâmica mais ampla em cada uma dessas bandas (Figura 3).<br />

Todas as imagens IKONOS são geradas com uma resolução radiométrica de 11-<br />

bits e 8-bits. A resolução radiométrica de 11-bits permite uma faixa dinâmica de níveis<br />

muito maior, podendo chegar a 2048 níveis em cada banda. A resolução de 8-bits é<br />

fornecida por compatibilidade com softwares existentes. O processamento com 11bits<br />

fornece uma maior riqueza de detalhes já que são 1048 níveis de cinza e não 256 como<br />

no caso das imagens LANDSAT.<br />

Assim como o IKONOS, outros satélites de alta resolução já foram e outros<br />

serão ainda lançados voltados a propósitos não militares. O QUIKCKBIRD, por<br />

exemplo, já operacional e trabalhando em uma resolução espacial de até 60cm e o<br />

SPOT 5 com uma resolução de até 2.5m já estão operacionais comercialmente.<br />

O governo Brasileiro mostra o seu envolvimento com sensoriamento remoto em<br />

imagens de alta resolução através de um programa em conjunto com o Governo Chinês<br />

chamado CBERS (China-Brazil Earth Resources Satellite). Através desse programa<br />

satélites com câmeras de médias resoluções já se encontram operacionais. Esse mesmo<br />

programa promete colocar em órbita os satélites CBERS-3 e CBERS-4 em 2008 e 2010<br />

respectivamente. Esses satélites devem operar com câmeras de média resolução capazes<br />

de produzir imagens com ate 5m de resolução espacial na banda pancromática, e ainda<br />

com uma taxa de revista (período no qual o satélite passa no mesmo local) de<br />

aproximadamente cinco dias.<br />

2.1.2<br />

Pré-processamento<br />

Para que várias imagens de sensores remotos sejam integradas entre si e com<br />

outros dados geográficos em um ambiente SIG (Sistema Geográfico de Informação), é<br />

necessário um processo prévio de correção.<br />

O processo de georeferenciação é o responsável por converter as coordenadas<br />

das imagens de sensores remotos para uma base geográfica real. Esse processo associa à<br />

posição de cada pixel da imagem a coordenada geográfica do ponto imageado. Isso<br />

permite, por exemplo, a integração da informação contida na imagem com dados de SIG


23<br />

disponíveis em todo o mundo. O georeferenciamento parte normalmente de pontos na<br />

imagem, cuja coordenada geográfica é bem conhecida, os chamados pontos de controle<br />

ou GCPs (“ground control points”). Os GCPs podem ser obtidos através de coleta de<br />

campo por GPS (Global Position System ou Sistema de Posicionamento Global) ou até<br />

mesmo a partir de algum dado já georeferenciado. Em outras palavras, os GCPs são um<br />

conjunto de pontos, facilmente identificáveis, em que se pode definir o posicionamento<br />

real ou geográfico de alguma maneira específica. A partir desses pontos procedimentos<br />

matemáticos são aplicados com o objetivo de realizar uma reamostragem na imagem<br />

como um todo segundo um sistema de coordenadas geográficas. Como resultado do<br />

georeferenciamento obtém-se uma nova imagem, denominada de “imagem retificada”,<br />

ou “georeferenciada”.<br />

Um outro problema com imagens de satélite diz respeito à altimetria. Em regiões<br />

muito montanhosas ou em uma escala muito fina o tamanho de um pixel pode não estar<br />

compatível com a realidade apresentada em campo.<br />

Sensor<br />

remoto<br />

1pixel = 1m<br />

Figura 4 – Representação do problema da topografia em captura de imagens de sensores<br />

remotos<br />

A Figura 4 ilustra o problema decorrente da elevação do terreno relacionado na<br />

captura de imagens de sensores remotos. Um pixel de 1m (área em azul) representa na<br />

realidade ou geograficamente falando uma área maior (em vermelho).<br />

A solução para o problema da correção altimétrica está na georetificação em<br />

conjunto com a correção altimétrica com base no modelo digital de terreno, ou DTM<br />

(Digital Terrain Model). Esse processo é comumente chamado de “ortoretificação”. O<br />

DTM é uma representação digital da superfície com informações altimétricas, que pode


24<br />

ser obtido a partir de isolinhas, ou seja, das curvas de nível da região estudada. Por ser<br />

digital possui uma resolução espacial e radiométrica assim como as imagens. A<br />

resolução, principalmente a espacial, do DTM utilizado afeta a qualidade da<br />

ortoretificação.<br />

Além de alterar propriedades geométricas nas imagens capturadas, a topografia<br />

traz consigo outros efeitos, como a iluminação e a reflectância dos objetos. Técnicas de<br />

correção topográficas também são utilizadas para amenizar esses problemas. Essas<br />

técnicas levam em conta, além do DTM, vários outros fatores, tais como a posição do<br />

sol no ato da captura da imagem e a altitude do sensor.<br />

Uma descrição detalhada dos procedimentos específicos, para a ortorretificação<br />

e para a correção topográfica, pode ser encontrada em [15, 17, 18 e 19].<br />

2.2<br />

Métodos computacionais<br />

Esta seção aborda os fundamentos e as técnicas de processamento de imagem,<br />

inteligência computacional e reconhecimento de padrões necessários para a<br />

compreensão do restante do trabalho.<br />

2.2.1<br />

Classificação de padrões<br />

O processo de classificação de padrões é o procedimento computacional capaz<br />

de atribuir a diferentes grupos ou classes alguns determinados padrões apresentados. Por<br />

exemplo, um procedimento que separe laranjas podres de laranjas sadias pode ser<br />

considerado um procedimento de classificação de padrões onde os padrões são os<br />

objetos analisados (laranjas). Os inúmeros fatores que tipicamente se usam para<br />

diferenciar uma laranja podre de uma sadia, por exemplo, o cheiro, a cor, a textura<br />

dentre outros são conhecidos como atributos dos padrões analisados.<br />

Os procedimentos de classificação podem ser divididos em dois grandes<br />

conjuntos. Primeiro pode-se definir um grupo de procedimentos que não necessita de<br />

dados de treinamento, ou seja, não é necessária a apresentação das classes dos de uma<br />

parte do conjunto de padrões (conjunto de treinamento) de cada uma das classes para


25<br />

que as mesmas sejam reconhecidas. Esses procedimentos normalmente trabalham<br />

dividindo o conjunto de padrões segundo os atributos apresentados ao sistema e são<br />

denominados “métodos de classificação não supervisionados”.<br />

Um outro conjunto de métodos e algoritmos trabalha de maneira supervisionada,<br />

ou seja, existe uma fase de ajuste de parâmetros dos procedimentos denominada de fase<br />

de treinamento onde as classes de cada padrão são apresentadas ao modelo. Assim como<br />

o ser humano, que tem que aprender alguma tarefa, esses métodos utilizam-se da fase de<br />

treinamento para “aprender” a como diferenciar as classes apresentadas ao sistema com<br />

base no conjunto de atributos disponíveis. Esses métodos são mais robustos em termos<br />

de desempenho de classificação e em tarefas especificas de classificação de imagens<br />

sensores remotos tem mostrado melhor desempenho segundo a literatura exposta no<br />

Capitulo 2.<br />

Nesse trabalho foi abordado um modelo de classificação supervisionada baseado<br />

em Redes Neurais Artificiais.<br />

Em um segundo momento é abordado métodos supervisionados baseados em<br />

lógica nebulosa (ou lógica nebulosa) nas tarefas de classificações de padrões. Esse tipo<br />

de procedimento depende da elaboração de regras de inferência por um especialista.<br />

Essas regras interagem sobre os atributos dos padrões analisados inferindo a classe de<br />

cada padrão.<br />

No final desse capítulo serão apresentadas resumidamente as teorias sobre<br />

sistemas neuro-fuzzy e algoritmos genéticos. Esses métodos serão utilizados mais a<br />

frente no modelo proposto, neste trabalho.<br />

2.2.1.1<br />

Redes neurais artificiais<br />

O cérebro humano pode ser visto como um processador de informações<br />

altamente complexo, não-linear e paralelo [20]. Por causa dessa capacidade de<br />

aprendizado e generalização o funcionamento dos neurônios tem sido estudado e com o<br />

objetivo de reproduzi-los em ambientes computacionais.<br />

O neurônio artificial é uma unidade de processamento de informação<br />

fundamental para a operação das chamadas “Redes Neurais Artificiais” [20].


26<br />

Bias (b k )<br />

x 1<br />

w k1<br />

x 2<br />

w k2<br />

Entrada<br />

x 3<br />

w k3<br />

Σ<br />

Junção<br />

aditiva<br />

v k<br />

φ(.)<br />

Função de<br />

ativação<br />

Saída<br />

y k<br />

x m<br />

w km<br />

Pesos<br />

sinápticos<br />

Figura 5 – Modelo de neurônio artificial não linear [20]<br />

O modelo de um neurônio artificial é apresentado na Figura 5. O neurônio<br />

artificial consiste de m entradas ponderadas pelos pesos w k1..m e então somadas numa<br />

junção aditiva. Esses pesos são conhecidos como pesos sinápticos e são responsáveis<br />

pela capacidade de modelar e aprender de uma rede neural. Uma função de ativação é<br />

colocada em seguida ao somador, essa função é dita como restritiva segundo [20], o que<br />

em linhas gerais significa que ela limita o intervalo permissivo de saída do neurônio a<br />

que se referencia. O modelo prevê ainda um ajuste denominado bias que tem o efeito de<br />

aumentar ou diminuir o valor aplicado à função de ativação [20].<br />

Em termos matemáticos pode-se definir a operação no neurônio k da Figura 5,<br />

que possui as entradas j (j=1,2,....m) através das seguintes equações:<br />

u<br />

k<br />

m<br />

= ∑ j =<br />

1<br />

w<br />

kj<br />

x<br />

j<br />

Eq.(1)<br />

v = u + b<br />

Eq.(2)<br />

k<br />

k<br />

k<br />

y<br />

( )<br />

= ϕ<br />

Eq.(3)<br />

k<br />

v k<br />

A função de ativação φ(.) é responsável pela definição da saída de um neurônio<br />

em termos de uma entrada v. Essas funções podem ser representadas de inúmeras<br />

maneiras. Mais comumente, e nesse trabalho, utilizam-se funções sigmóides (Figura 6).


27<br />

Basicamente o tipo de funções de ativação limita o comportamento no intervalo de<br />

saída. A função tangente hiperbólica sigmóide (tansig) por exemplo pode ter uma saída<br />

variando entre -1 e 1, enquanto a sigmóide logarítmica (logsig) tem uma saída sempre<br />

entre 0 e 1.<br />

1<br />

tansig<br />

1<br />

logsig<br />

0.5<br />

0.5<br />

0<br />

0<br />

-0.5<br />

-0.5<br />

-1<br />

-3 -2 -1 0 1 2 3<br />

-1<br />

-3 -2 -1 0 1 2 3<br />

(a)<br />

(b)<br />

Figura 6 – Funções de ativação: (a) tangente hiperbólica sigmóide (tansig) e (b) sigmóide<br />

logarítmica (logsig) a direita.<br />

Uma vez definida a característica de um neurônio pode-se definir a arquitetura<br />

de uma rede neural ligando neurônios entre si através dos pesos sinápticos. A<br />

configuração apresentada neste trabalho é a de uma rede neural de múltiplas camadas<br />

conhecida como “Perceptrons de múltiplas camadas” ou MLP (multilayer perceptrons).<br />

Essa configuração é ilustrada na Figura 7.<br />

Sinal de<br />

entrada<br />

Sinal de<br />

saída<br />

Camada<br />

de entrada<br />

Camada<br />

escondida<br />

Camada<br />

de saída<br />

Figura 7 – Arquitetura de uma rede neural do tipo MLP com uma camada oculta


28<br />

As redes MLPs consistem de um conjunto de unidades sensoriais, ou neurônios,<br />

arrumados em camadas, conforme o apresentado na Figura 7. Tem-se uma camada de<br />

entrada com nós não computacionais, uma ou mais camadas ocultas com nós<br />

computacionais e ainda uma camada de saída com nós também computacionais. Nesse<br />

trabalho exploram-se apenas redes neurais do tipo MLP com uma camada oculta. Os<br />

nós chamados computacionais realizam algum tipo de processamento, conforme o<br />

modelo do neurônio apresentado anteriormente. Os nós não computacionais são apenas<br />

entradas ou saídas de dados e não realizam qualquer processamento.<br />

Cada arco que liga um neurônio a outro em uma rede MLP possui um peso<br />

sináptico associado denotado por w ji . Esse peso pode ser entendido como um peso que<br />

associa à entrada do neurônio j a saída do neurônio i. Em uma rede neural do tipo MLP<br />

existe um grande número de pesos a serem definidos ou estimados. O algoritmo de<br />

retropropagação, ou BP (backpropagation), é um processo supervisionado de<br />

aprendizado baseado no gradiente descendente que estima os valores dos pesos<br />

sinápticos a partir de padrões de treinamento. Nesse algoritmo o erro de previsão se<br />

propaga da camada de saída para a camada oculta, procurando assim o melhor conjunto<br />

de valores para os pesos de toda a rede. Uma descrição detalhada do algoritmo de<br />

retropropagação é relativamente complexa e não foge ao escopo desse trabalho. Esse<br />

procedimento pode ser encontrado com mais detalhes de implementação em [20].<br />

Um outro ponto interessante utilizado nesse trabalho sobre as redes neurais diz<br />

respeito à relação entre saída da rede neural e a probabilidade a posteriori. Segundo<br />

Haykin em [20] um classificador MLP aproxima de fato as probabilidades das classes a<br />

posteriori, desde que o tamanho do conjunto de treinamento seja suficientemente<br />

grande, garantindo que o processo de aprendizado por retropropagação não caia em um<br />

mínimo local.<br />

2.2.1.2<br />

Lógica nebulosa<br />

A lógica nebulosa permite a expressão de forma clara e simples da incerteza e<br />

imprecisão inerentes às avaliações de um especialista, cuja experiência se deseja<br />

modelar num sistema de classificação baseado em conhecimento. Em outras palavras, a<br />

lógica nebulosa pode ser vista como uma maneira de expressar incerteza [21]. A lógica


29<br />

nebulosa permite representar valores de pertinência (grau de verdade) intermediários<br />

entre os valores de verdadeiro e falso da lógica clássica (bivalente).<br />

As variáveis de entrada em um sistema nebuloso são mapeadas em conjuntos<br />

nebulosos por meio de funções de pertinência. O mapeamento de uma entrada em um<br />

conjunto nebuloso gera um grau de pertinência dessa entrada ao conjunto nebuloso.<br />

Por meio de regras SE-ENTÃO o sistema é capaz de expressar condições de<br />

pertinência. Tais regras são formuladas da seguinte forma: SE (ANTECEDENTES)<br />

ENTÃO (CONSEQUENTE). Nessa formulação os ANTECEDENTES expressam as<br />

condições a serem satisfeitas que resultam em um desdobramento representado pelo<br />

CONSEQUENTE da regra.<br />

Através dos mecanismos da lógica nebulosa é possível a criação de sistemas de<br />

inferência nebulosa capazes de realizar tarefas complexas, como modelagem,<br />

classificação e previsão. Esse trabalho se concentra na elaboração de sistemas nebulosos<br />

voltados para a tarefa de classificação de padrões.<br />

2.2.1.3<br />

Sistema neuro-fuzzy<br />

O grande problema dos sistemas de classificação nebulosos está na quantidade<br />

de parâmetros livres a serem estimados para um funcionamento adequado do modelo.<br />

Esses parâmetros livres se encontram na formação das funções de pertinência dos<br />

antecedentes e dos conseqüentes. Em outras palavras para se criar uma regre nebulosa<br />

do tipo SE ALGO FOR ALTO ENTAO A SAIDA E BAIXA precisa definir-se que tipo<br />

de função e quais os parâmetros das funções de pertinência ALTO e BAIXO nesse<br />

contexto.<br />

Nesse contexto introduzem-se os sistemas adaptativos neuro-fuzzy. Unindo a<br />

flexibilidade dos sistemas fuzzy com a arquitetura de Redes Neurais. A idéia central por<br />

trás do algoritmo neuro-adaptativo de treinamento utilizado no ANFIS (adaptivenetwork-based<br />

fuzzy inference system) [22] é o aprendizado por meio de dados de<br />

treinamento por um algoritmo de retropropagação do erro [23] em conjunto com um<br />

método dos mínimos quadráticos. Esse método é muito semelhante ao utilizado para a<br />

aprendizagem em redes neurais artificiais.<br />

Os sistemas ANFIS possuem uma arquitetura em rede similar a arquitetura das<br />

redes neurais artificiais, que mapeiam um conjunto de entradas em uma saída. Esse


30<br />

mapeamento e feito através de funções de pertinência fuzzy. Os dados de entrada então<br />

são mapeados pelas funções de pertinência relacionadas a entrada e então por outras<br />

funções de pertinência associadas as saídas. Todas essas funções de pertinência<br />

possuem uma serie de parâmetros livres. A computação desses parâmetros e facilitada<br />

nos sistemas do tipo ANFIS pelo calculo do vetor de gradiente do erro relacionado a<br />

saída. Em outras palavras um sistema ANFIS computa os parâmetros das funções de<br />

pertinência nebulosa interativamente durante a fase de treinamento calculando a<br />

resposta obtida pelo sistema e a resposta esperada. E então pelo erro entre essas<br />

respostas o sistema automaticamente se adapta modificando os parâmetros das funções<br />

de pertinência fuzzy relacionadas com os antecedentes o os conseqüentes obtendo assim<br />

uma nova resposta para o sistema. Esse procedimento e executado com os dados de<br />

treinamento até que não se tenha mais diminuição significativa do erro relativo a saída<br />

esperada.<br />

Para testar a capacidade de generalização do sistema fuzzy é utilizado um<br />

conjunto de dados de validação. Esses dados tem o mesmo formato que os dados de<br />

treinamento e os de teste. Geralmente procura-se um sistema de inferência fuzzy capaz<br />

de mapear uma dada entrada em uma saída de forma eficiente. O modelo dos sistemas<br />

ANFIS é fixo, ou seja, depois de treinado o sistema não modifica mais os seus<br />

parâmetros. Dessa forma existe uma tendência de overfit aos dados de treinamento o<br />

que pode causar um desempenho ruim durante os dados de teste. Nesse caso os dados de<br />

validação são usados e aplicados ao sistema de inferência fuzzy a cada passo do<br />

treinamento. Esse resultado e monitorado e tipicamente quando o erro de validação<br />

aumenta o sistema de inferência pode ser considerado em sua etapa de máxima<br />

generalização e o treinamento para.<br />

Uma particularidade do sistema ANFIS e que se trata de um sistema fuzzy do<br />

tipo Takagi-Sugeno [24]. A principal conseqüência desse tipo de sistema e que somente<br />

é possível à representação de uma saída. Esse tipo de sistema foi desenvolvido<br />

inicialmente para previsão. Na pratica podemos ter em um sistema ANFIS inúmeras<br />

entradas, inúmeras regras porem apenas uma saída. Esse fato é altamente relevante<br />

nesse trabalho de classificação de padrões e define a arquitetura do classificador<br />

baseado em regras apresentado nesse trabalho.


31<br />

2.2.1.4<br />

Algoritmos Genéticos<br />

Algoritmo genético é um método de resolução de problemas de otimização<br />

baseado nos conceitos do processo biológico de evolução das espécies conhecido como<br />

a seleção natural. A teoria da seleção natural das espécies foi desenvolvido por C.<br />

Darwin muito tempo antes do descobrimento de mecanismos genéticos [25]. A hipótese<br />

inicial de Darwin supõe que qualidades ou características de dois ou mais indivíduos se<br />

unem ou se fundem em seus filhos formando indivíduos que de alguma forma herdam<br />

características, sejam qualidades ou defeitos de seus parentes mais próximos.<br />

Em algoritmos genéticos o vocabulário vem diretamente da genética natural.<br />

Indivíduos são soluções possíveis para um determinado problema. Esses indivíduos<br />

possuem um conjunto de características que pode ser denominado como o cromossomo<br />

do indivíduo. Cada característica individual de um cromossomo em um indivíduo é<br />

denominada gene [26], conforme a Figura 8.<br />

Genes<br />

Individuo<br />

. . .<br />

Característica 2<br />

Característica 1<br />

Característica n<br />

Figura 8 – Representação de um individuo e genes em algoritmos genéticos<br />

Um conjunto de indivíduos em uma mesma geração é denominado de população<br />

e pode ser entendido como um conjunto de soluções potenciais para um determinado<br />

problema proposto.<br />

Um processo evolucionário roda em uma população de cromossomos ou<br />

indivíduos correspondendo a uma procura de soluções sub-ótimas em um espaço de<br />

soluções potenciais [26]. Esse processo equilibra o interesse da busca de uma solução<br />

ótima e o interesse de exploração do espaço de soluções. Através das gerações a<br />

população evolui para uma solução ótima ou sub-ótima.


32<br />

Os algoritmos genéticos utilizam regras para a criação de indivíduos em uma<br />

próxima geração a partir de indivíduos de uma geração corrente. Essas regras podem ser<br />

divididas em métodos de seleção e operadores genéticos.<br />

O método de seleção indica a regra de escolha dos pais ou indivíduos que<br />

contribuirão para a criação da nova geração. Somente aos indivíduos selecionados são<br />

aplicados os operadores genéticos. Para que seja possível a avaliação dos indivíduos é<br />

necessário introduzir o conceito de função de avaliação. Essa função tem como entrada<br />

os genes de um indivíduo e indica a qualidade do indivíduo em uma população. Em<br />

outras palavras a função de avaliação é capaz de avaliar diferentes soluções para um<br />

problema e indicar qual é a melhor ou a menor, segundo algum critério utilizado.<br />

Os operadores genéticos mais comuns são mutação e o crossover. Na mutação<br />

um gene ou uma característica de um determinado indivíduo é alterado, em geral<br />

aleatoriamente, com o objetivo de gerar um novo indivíduo em uma nova população. O<br />

crossover por sua vez, é a mistura de características de dois ou mais indivíduos de uma<br />

geração para produzir um indivíduo na próxima geração com características misturadas.<br />

Existem vários tipos de crossover, nesse trabalho utiliza-se somente crossover de um<br />

ponto e mutações de maneira aleatória. O crossover de um ponto realiza a mistura de<br />

maneira simples do material genético dos indivíduos. Na Figura 9 é exemplificado o<br />

crossover de um ponto. O individuo A em verde é “misturado” com o individuo B em<br />

amarelo. Um ponto de corte nos dois indivíduos é definido, em geral aleatoriamente. A<br />

partir desse ponto de corte são construídos dois indivíduos filhos que herdam o material<br />

genético dos dois pais relacionados. Dessa maneira os indivíduos gerados carregam as<br />

características ou genes, dos seus pais para a próxima geração.<br />

Individuo A<br />

Ponto de<br />

crossover<br />

CROSSOVER<br />

Individuo B<br />

Indivíduos Filhos AB<br />

Figura 9 – demonstração do operador genético de crossover simples de um ponto.


33<br />

2.3<br />

Segmentação<br />

2.3.1 Histórico<br />

O processo de segmentação é um pré-requisito para a análise baseada em<br />

objetos.<br />

A tarefa de segmentação divide a imagem em objetos ou segmentos. O nível<br />

dessa divisão depende do que se pretende expressar no procedimento de classificação. A<br />

tarefa de segmentação pode ser considerado “boa”, ou “aceitável”, quando os objetos de<br />

interesse do problema estiverem isolados, o que permitirá em tese discriminar<br />

adequadamente as classes da legenda [27].<br />

As técnicas de segmentação procuram delimitar na imagem regiões com<br />

propriedades comuns. Podem-se dividir a maioria dos métodos de segmentação atuais<br />

em dois principais grupos de algoritmos: o primeiro são os métodos baseados em<br />

crescimento de regiões; e o segundo formado pelos métodos de agrupamento e divisões<br />

sucessivas de objetos [28].<br />

Na abordagem de dividir e agrupar, conhecida como “Split and Merge”, os<br />

algoritmos subdividem ou agrupam segmentos sucessivamente. A decisão se um objeto<br />

deve ser subdividido, ou dois objetos adjacentes devem ser agrupados, baseia-se na<br />

avaliação de uma função de custo. As diferentes funções de custo definem as variantes<br />

dos algoritmos do tipo dividir e agrupar.<br />

As técnicas do tipo crescimento de região ou “region growing” consideram<br />

como ponto de partida cada pixel como um objeto. Objetos adjacentes são agrupados<br />

formando objetos cada vez maiores. A cada passo do algoritmo a decisão de agrupar ou<br />

não objetos adjacentes leva em conta algum critério de homogeneidade do novo objeto<br />

que se formaria após o agrupamento. Os critérios de homogeneidade são específicos de<br />

cada algoritmo adotado.<br />

Existem outros métodos mais particulares de segmentação. Esses métodos não<br />

se baseiam especificamente nem em crescimento de regiões e nem em agrupamento e<br />

divisão de objetos. Dentre eles destacam-se os métodos baseados em morfologia<br />

matemática, como o watersheds.<br />

O método de segmentação alternativo baseado no divisor de águas (watersheds)<br />

é descrito sucintamente em [27]. Esse método utiliza a magnitude do gradiente da


34<br />

imagem no seu critério de segmentação [29]. Ainda em [30] Beucher e Lanteujoul<br />

utilizam o algoritmo de watersheds com sucesso para a detecção de fraturas em imagens<br />

de micrografias de aço e detecção de bolhas em radiografia. Em 1991 [31] Beucher<br />

aplica o algoritmo de watersheds para a segmentação de imagens de sensores remotos e<br />

trata de um problema particular desta classe de algoritmos conhecido como super<br />

segmentação. Em [28] o algoritmo de watersheds é utilizado especificamente para<br />

segmentação de imagens de alta resolução.<br />

Um método de segmentação não convencional, baseado nas caracteristicas<br />

morfológicas dos componentes conectados foi proposto em [32]. Esse método parte dos<br />

resíduos de duas operações morfológicas sucessivas de abertura (opening) e fechamento<br />

(closing) [27]. O método foi testado em imagens de alta resolução tanto em áreas de<br />

campo quanto em áreas urbanas, mostrando um ótimo desempenho comparado com<br />

outros métodos de segmentação mais comuns. Uma melhor descrição das formas foi<br />

alcançada e o método intrinsecamente reduz o efeito da super segmentação devido a<br />

detalhes de implementação. Porém nesse método o custo computacional é bastante<br />

elevado, conforme mostram os experimentos apresentados no artigo, principalmente se<br />

houver nas imagens áreas muito uniformes em termos espectrais. Nesses casos os<br />

algoritmos de watersheds tendem a ter um desempenho melhor.<br />

Vários algoritmos de segmentação são comparados em [33]. O estudo destacou<br />

dois softwares: o eCognition e o SPRING 4.0 4 . Ambos baseiam-se em crescimento de<br />

região, embora o SPRING ofereça também uma opção de segmentação por<br />

watersheads, um método que será abordado mais adiante nesta seção. Nesse trabalho<br />

também foram avaliados algoritmos de softwares como: Data Dissection Tools 5 ,<br />

CAESAR 3.1 6 , InfoPACK 1.0 7 e Image Segmentation (componente para o ERDAS<br />

Imagine) 8 .<br />

2.3.2 Segmentação baseada em crescimento de regiões<br />

Nesse trabalho utilizaremos um processo de segmentação baseado em<br />

crescimento de regiões desenvolvido por [34] e implementado comercialmente no<br />

4 INPE - http://www.dpi.inpe.br/spring<br />

5 INCITE, Stirling University – http://www.incite.org.uk/projects<br />

6 N.A. Software Ltd. – http://www.nasoftware.co.uk<br />

7 InfoSAR Ltd. - http://www.infosar.co.uk


35<br />

software eCognition [35]. O procedimento pode ser descrito como um algoritmo de<br />

aglomeração de objetos. Inicialmente cada pixel é tratado como único objeto. Através<br />

de passos interativos esses objetos são agrupados com os seus vizinhos formando<br />

objetos cada vez maiores. Em cada passo é agrupado somente um dos vizinhos do<br />

objeto analisado, a escolha de qual vizinho será agrupado segue o critério de<br />

homogeneidade local. Em termos práticos o objeto é unido com o seu vizinho que<br />

oferece menor incremento possível na homogeneidade do objeto resultante. O processo<br />

de crescimento do objeto para quando o incremento de homogeneidade devido à união<br />

dos vizinhos é maior que uma determinada função de custo. Essa função é provida para<br />

o algoritmo como um parâmetro de escala.<br />

O cálculo da homogeneidade local do objeto é realizado levando em conta n<br />

fatores espectrais e de forma do objeto. Em termos de forma dois parâmetros são<br />

analisados, a suavidade das bordas e a compactação do objeto gerado como um todo.<br />

Mais detalhes sobre esses cálculos podem ser obtido em [34]<br />

Esse processo de segmentação permite uma variação no tamanho dos segmentos<br />

gerados a partir de um controle sobre o parâmetro de escala. Sendo assim a sua<br />

expansão para um procedimento em múltiplas escalas é simples e intuitiva, tornando o<br />

algoritmo muito produtivo para o processamento de imagens de alta resolução.<br />

2.3.3<br />

Segmentação em múltiplas escalas<br />

A representação de objetos em múltiplas escalas é natural para o ser humano e<br />

crucial para todo o processo de reconhecimento, principalmente em imagens de alta<br />

resolução. Por exemplo, ao olhar um objeto como uma laranja muito de perto somente<br />

observa-se apenas a sua textura e não é possível a associar aquela superfície a uma<br />

casca de laranja. Ao se afastar um pouco do objeto analisado é possível definir que<br />

aquele objeto é de fato uma laranja.<br />

A idéia da segmentação multi-escala é agrupar objetos de uma determinada<br />

escala em objetos maiores em uma escala maior. Essa aglomeração é realizada<br />

respeitando os mesmo critérios do procedimento de segmentação inicial porém<br />

mudando o parâmetro de escala na análise.<br />

8 USDA Forest Service, Remote Sensing Application Center – http://www2.erdas.com/SupportSite/


36<br />

Desta forma os objetos da imagem, ou segmentos, estão unidos por uma relação<br />

hierárquica. Nessa relação temos vários níveis de segmentações elaboradas com<br />

parâmetros de escalas diferentes. Em linhas gerais cada objeto tem um super-objeto em<br />

um nível superior que o contém; e ainda contém inúmeros objetos em um nível abaixo<br />

do seu, os chamados sub-objetos.<br />

2.4 Parâmetros de textura<br />

Além de informações espectrais, a textura é uma característica muito importante<br />

para a discriminação das classes na tarefa de classificação de cobertura de solo.<br />

Os parâmetros de Haralick têm sidos amplamente utilizados na classificação de<br />

imagens de sensores remotos (por exemplo [36 , 45, 46 e 47]).<br />

Os parâmetros de Haralick se baseiam na computação da matriz de coocorrência<br />

de níveis de cinza da imagem (GLCM – “gray level cooccurrence matrix”) .<br />

A matriz GLCM representa a freqüência de ocorrência de pares de valores de tom de<br />

cinza em uma determinada relação espacial. A partir da matriz GLCM uma série de<br />

parâmetros estatísticos pode ser extraída. Destes somente os seguintes parâmetros ou<br />

índices foram analisados nesse trabalho:<br />

• Homogeneidade<br />

• Contraste<br />

• Dissimilaridade<br />

• Entropia<br />

• Segundo momento angular<br />

• Média<br />

• Desvio Padrão<br />

• Correlação<br />

A descrição detalhada dos cálculos dos parâmetros de Haralick pode ser<br />

encontrada em [37].


37<br />

3<br />

Estado da arte em classificação de imagens de alta resolução<br />

Com a recente disponibilidade de imagens de alta resolução produzidas por<br />

sensores orbitais como IKONOS e QUICKBIRD se tornou-se possível modelar com<br />

maior nível de detalhes características da cobertura do solo do que era possível com<br />

imagens de média ou baixa resolução. Imagens IKONOS, por exemplo, têm pixels de<br />

1m por 1m, no caso da banda pancromática. Essa resolução é o suficiente para<br />

visualizar com detalhes, por exemplo, o teto de uma casa, árvores, jardins e ruas.<br />

Graças à elevada resolução espacial é possível consolidar a informação contida<br />

em imagens de alta resolução com dados de um SIG que normalmente se encontraram<br />

disponíveis em escalas grandes, principalmente trabalhando a níveis locais.<br />

Nesse contexto uma série de trabalhos têm sido desenvolvidos utilizando<br />

diferentes técnicas automáticas de representação e interpretação em imagens de alta<br />

resolução. Essas técnicas envolvem não somente diferentes modelos de tratamento de<br />

dados, mas também englobam diferentes métodos de representação da informação<br />

relevante para a tarefa de interpretação.<br />

Esse capítulo aborda o estado da arte em classificação de imagens de alta<br />

resolução. O capítulo inicia com métodos baseados em pixel, e passa depois para uma<br />

abordagem mais generalista e mais moderna baseada em objetos ou segmentos. O<br />

procedimento de segmentação e as diferentes formas de representação de conhecimento<br />

são também considerados neste capítulo. Por último uma descrição dos métodos atuais<br />

de representação de conhecimento multitemporal é apresentada.<br />

3.1<br />

Métodos baseados em pixels<br />

Métodos automáticos de classificação baseados em pixels foram amplamente<br />

utilizados em procedimentos de classificação em média e baixa resolução e têm sido<br />

utilizados ainda em imagens de alta resolução. A tarefa de classificação de imagens de<br />

alta resolução pode ser considerada difícil, tendo em vista a elevada complexidade e


38<br />

composição dos tipos de cobertura do solo que podem ser discriminados nesse tipo de<br />

imagem, como se demonstra, por exemplo em [38].<br />

Várias abordagens foram realizadas utilizando apenas dados espectrais e<br />

classificadores como o de máxima probabilidade e distância euclidiana [39]. Em [40,<br />

41, 42, 56 e 57 diversos métodos de classificação baseados em lógica nebulosa, foram<br />

utilizados para a classificação de imagens de alta resolução. Tais métodos baseados<br />

somente na informação espectral alcançam resultados modestos, quando aplicados a<br />

imagens de alta resolução [42].<br />

O conhecimento estrutural e contextual foi considerado em [43] utilizando uma<br />

análise de vizinhança dos pixel. A informação numa vizinhança em torno de cada pixel<br />

foi usada para extrair dados sobre o relacionamento espacial entre os pixels, gerando<br />

desta forma um atributo de contexto. Esse método foi avaliado utilizando imagens<br />

IKONOS pancromáticas e fotos aéreas em conjunto com um classificador baseado em<br />

redes neurais. Os resultados demonstraram claramente os benefícios do uso dos<br />

atributos de contexto.<br />

Um novo método multi-escala foi proposto em [44] que combina imagens<br />

IKONOS pancromáticas e multiespectrais com fotografias aéreas. Neste trabalho o<br />

conjunto de dados é então tratado por classificadores de máxima probabilidade e<br />

classificadores baseados em arvore de regressão (CART). O resultado desse trabalho<br />

deu uma medida objetiva da importância da resolução espacial na tarefa de<br />

interpretação. O trabalho mostra ainda que a informação multi-escala pode ser utilizada<br />

com uma espécie de contexto no processo de classificação. Foi mostrado, por exemplo,<br />

que imagens com 1m de resolução favorecem a interpretação de alguns tipos de classes,<br />

por exemplo, sombreamento entre as árvores<br />

A utilização da informação de textura na classificação de imagens de sensores<br />

remotos também vem sendo bem explorada desde há muito tempo.<br />

Um [45] novo método de representação da textura foi proposto baseado no<br />

conceito de visões de um determinado padrão de textura. Basicamente o conceito<br />

aplicado é que uma determinada classe possui inúmeros padrões de textura e ainda que<br />

cada um desses padrões possui algumas visões. Essas visões foram obtidas com dados<br />

de treinamento e através de uma serie de parâmetros de textura. Foi desenvolvido então<br />

um algoritmo de classificação semelhante ao KNN, o K-View. Esse método em linhas<br />

gerais atribui o padrão analisado a classe que possui “visões” mais semelhantes. Esses<br />

métodos de extração de textura e de classificação foram aplicados a imagens de satélite


39<br />

de alta resolução resultando num incremento significativo da capacidade de<br />

discriminação de classes de cobertura de solo.<br />

Em [46] análise de textura foi aplicada em imagens IKONOS e QUICKBIRD<br />

para mapeamento de árvores, pomares e plantações de café em Uganda. Foram<br />

utilizados parâmetros de textura de Haralick, calculados com base na matriz de<br />

coocorrência de níveis de cinza ou GLCM (gray-level cooccurrence matrix). Os<br />

resultados relatados no trabalho foram muito positivos principalmente no que disse<br />

respeito ao reconhecimento de árvores e pomares. Porém o autor relata uma dificuldade<br />

para determinar a dimensão ideal da vizinhança em torno de cada pixel a ser usada no<br />

cálculo dos atributos de textura. Um outro trabalho [47] reafirma a importância da<br />

informação de textura no processo de classificação, e ressalta igualmente a necessidade<br />

de uma escolha adequada do tamanho dessas janelas de análise.<br />

Além dos estudos sobre atributos muito se tem investigado sobre diferentes<br />

modelos de classificadores para as aplicações em sensoriamento remoto.<br />

Uma comparação entre métodos estatísticos e redes neurais aplicados<br />

diretamente em classificação de imagens de sensores remotos é descrita em [48]<br />

utilizando múltiplas fontes de dados LANDSAT MMS e dados topográficos. Os<br />

experimentos mostraram que os modelos baseados em redes neurais têm taxas de<br />

reconhecimento potencialmente superiores aos métodos estatísticos convencionais, mas<br />

perdem em termos de desempenho computacional. Esse baixo desempenho se justifica<br />

pelo elevado número de padrões que se tem em imagens de alta resolução, o que onera<br />

principalmente a fase de treinamento da rede neural. Os experimentos também<br />

mostraram a importância de se condicionar os dados adequadamente quando se utilizam<br />

redes neurais. Pequenas mudanças no condicionamento dos dados podem alterar<br />

sensivelmente o resultado da classificação.<br />

Em [49] foi utilizado um método estatístico multivariado baseado em SVD<br />

(Ssingular Vvalue Ddecomposition) e análise de vetores chaves (key vector analysis)<br />

oferecendo uma solução alternativa a redes neurais artificiais para a classificação de<br />

imagens aéreas de alta resolução. A justificativa dada pelos autores para a procura de<br />

um método alternativo as redes neurais foi mais uma vez o baixo desempenho<br />

computacional das redes neurais, quase sempre devido à fase de treinamento, e a alta<br />

sensibilidade das redes neurais aos seus pesos iniciais, que são gerados de forma<br />

randômica, na maioria dos casos.


40<br />

Imagens de alta resolução espectral, obtidas a partir de sensor aerotransportado,<br />

AVIRIS, de 1991 foram analisadas em [50]. Esse tipo de imagem possui 224 canais, ou<br />

bandas espectrais, o que impossibilita, ou pelo menos torna difícil, uma análise<br />

estatística multivariada. A solução adotada pelo autor foi reduzir a dimensionalidade<br />

dos dados e aplicar em seguida um classificador não paramétrico. Foram utilizadas,<br />

mais uma vez, redes neurais artificiais como métodos não paramétricos de classificação.<br />

Para a redução de dimensionalidade foi utilizado um método chamado de DBFE<br />

(Ddecision Bboundary Ffeature Eextraction) [51][52][53]. A dimensionalidade foi<br />

reduzida de 224 para 35 e 36 bandas em dois experimentos realizados. Vários<br />

classificadores estatísticos foram comparados com as redes neurais artificiais para<br />

avaliar como cada um se comportava diante da redução de dimensionalidade dos dados.<br />

Classificadores baseados em redes neurais se mostraram superiores em termos de<br />

reconhecimento global. Os experimentos realizados mostraram ainda uma “singular”<br />

dificuldade do algoritmo de máxima verossimilhança nos casos em que determinadas<br />

classes possuem poucos padrões de treinamento, o que impossibilita uma boa estimação<br />

da matriz de covariância.<br />

3.2<br />

Classificação baseada em objetos<br />

Os métodos de interpretação e classificação baseados em pixels têm se<br />

mostrados insatisfatórios para imagens de alta resolução. Imagens de alta resolução<br />

classificadas por métodos baseados em pixel tendem a mostrar pixels isolados como<br />

uma classe claramente inserida em uma área que representa uma outra classe [54].<br />

Por outro lado surge a abordagem baseada em objetos que supõe uma préorganização<br />

dos pixels em grupos, denominados objetos ou segmentos. O processo de<br />

extração ou formulação de grupos ou segmentos é conhecido como segmentação. A<br />

análise por segmentos pode realmente simplificar a complexidade de informação<br />

contida em um pixel de uma imagem, especialmente em imagens de alta resolução,<br />

tanto espacial quanto radiométrica [55].<br />

Do ponto de vista da arquitetura do classificador a classificação de segmentos é<br />

idêntica à classificação baseada em pixels. A diferença principal é que o padrão é um<br />

segmento e não um pixel. Por esse motivo a maioria das técnicas para a classificação<br />

baseada em pixels, em princípio, funciona bem para a classificação de objetos. A maior


41<br />

diferença está nos atributos ou no conhecimento que se pode expressar utilizando uma<br />

abordagem por segmentos.<br />

Com o objetivo de investigar novas metodologias de classificação explorando<br />

dados de SIG para a cidade do <strong>Rio</strong> de Janeiro, Rego [56] e [57] adota imagens IKONOS<br />

tanto multiespectrais quanto pancromática. A partir desses dados o autor desenvolve<br />

uma metodologia de classificação baseada em atributos espectrais, contextuais e<br />

estruturais para imagens de alta resolução para a área de estudo. Ainda nesse trabalho<br />

foram utilizadas regras nebulosas para expressar o conhecimento impreciso do<br />

especialista. O autor alcança melhor desempenho através de métodos baseados em<br />

segmentos do que por meio de métodos baseados em pixels. Os resultados mostram<br />

ainda que a inclusão de conhecimento do especialista através de classificadores<br />

baseados em regras nebulosas foi capaz de aumentar significativamente a discriminação<br />

de classes que se confundiam no espaço de atributos puramente espectral e estrutural.<br />

Em [58] uma metodologia orientada a objetos foi aplicada para classificar<br />

imagens de sensores diferentes, KOMPSAT-1 e SPOT-5. A legenda continha 5 classes<br />

de cobertura do solo. O resultado da classificação automática foi comparado com a<br />

classificação visual da cena do KOMPSAT-1. Os resultados mostram que a abordagem<br />

baseada em objetos não só foi capaz de prover uma diferenciação mais rápida e precisa<br />

das classes básicas como foi capaz de, facilmente, se adaptar a outras imagens tomadas<br />

em datas diferentes em resoluções espaciais diferentes.<br />

Como objetivo de investigar o método de classificação orientado a objetos na<br />

discriminação de diferentes tipos de cobertura de solo em áreas urbanas utilizando<br />

imagens de alta resolução, em [59] utilizam-se imagens pancromáticas e multiespectrais<br />

IKONOS na cidade de Vienna. A validação baseou-se em dados oficiais, classificados<br />

manualmente a partir de ortofotos, por um especialista. Nos experimentos executados<br />

obteve-se um erro de 43%, em termos de número de objetos. Por outro lado se<br />

analisarmos a área dos objetos classificados corretamente, observamos que essa<br />

representa 72% da área total. Essa observação sugere que objetos com áreas menores<br />

estão sujeitos a mais erros em termos de classificação do que objetos com áreas<br />

maiores.<br />

Imagens SAR (Synthetic Aperture Radar) foram analisadas em [60] com o<br />

objetivo de desenvolver mapas urbanos de alta resolução. O trabalho foi realizado no<br />

eCognition incluindo a segmentação hierárquica em três níveis. Características<br />

radiométricas e polarimétricas foram utilizadas em conjunto com características


42<br />

estruturais como forma e tamanho. Para a validação dos resultados foram utilizados<br />

dados oficiais em uma escala compatível com dados SAR. Neste trabalho não foi<br />

possível separar algumas classes baseando-se somente nos dados polarimétricos e<br />

radiométricos provindos diretamente do SAR, porém quando agregados às<br />

características contextuais oriundas do processo de segmentação, como forma ou<br />

tamanho dos objetos, as mesmas classes foram distinguidas mais claramente.<br />

Em [38] foi utilizada uma abordagem “mista”, baseada em pixel e em objetos ao<br />

mesmo tempo. Inicialmente os pixels da imagem foram classificados utilizando tanto<br />

dados espectrais quanto contextuais a partir de um classificador baseado em regras<br />

nebulosas. A imagem então foi segmentada e as informações, tais como forma e outros<br />

atributos estruturais, foram então adicionadas ao conjunto de regras nebulosas,<br />

elaborando uma nova classificação. O desempenho melhorou quanto à taxa de<br />

reconhecimento global. Segundo os experimentos somente com a informação de pixels<br />

e as regras nebulosas o desempenho é de 10 a 20% maior se comparado a um<br />

classificador de máxima verossimilhança. Quando se introduz a análise baseada em<br />

objetos o desempenho final aumenta mais ainda, chegando a taxas de reconhecimento<br />

de até 86%.<br />

3.3<br />

Classificação Multitemporal<br />

A utilização de imagens multitemporais foi abordada em [61] de forma a<br />

representar múltiplas imagens de instantes de tempo distinos como uma série de<br />

camadas ou bandas em uma imagem multi-canais. A partir dessa representação,<br />

métodos tradicionais baseados em classificadores de máxima probabilidade e dados<br />

espectrais foram utilizados normalmente. A estratégia básica no método proposto<br />

baseia-se em uma classificação em dois estágios, no primeiro estágio realiza-se as<br />

classificações em cada instante de tempo individualmente para que no segundo estagio a<br />

decisão final seja tomada através da combinação dos resultados. O artigo propõe três<br />

modos de combinação do resultado multitemporal: no primeiro, chamado de adição de<br />

probabilidade ou LA (likelihood addition) a decisão é tomada para a classe que possui a<br />

soma do maior valor nos scores de classificação; o segundo método, denominado de<br />

maioria de probabilidade ou LM (likelihood majority), atribui a classificação final à<br />

classe com maior freqüência nas classificações anteriores; o terceiro e último método


43<br />

utilizado a decisão baseia-se na combinação de regras de Dempster’s onde a decisão é<br />

tomada onde a medida de aceitabilidade se mostra máxima.<br />

Em [62] o método anteriormente apresentado foi expandido com a utilização de<br />

matrizes de coocorrência como atributos espaciais e classificadores baseados em redes<br />

neurais artificiais. Nesse trabalho dois tipos de redes neurais foram utilizados, a com<br />

treinamento com retropropagação do erro e uma rede neural nebulosa. Dois modelos<br />

também foram apresentados: o primeiro baseado em uma rede neural única para a<br />

análise das matrizes de coocorrência de todas as imagens avaliadas; o segundo modelo<br />

utiliza uma série de redes neurais organizadas em dois estágios, onde cada rede neural<br />

no primeiro estágio realiza a classificação da matriz de coocorrência da imagem de cada<br />

um dos ano de análise, e então a rede no segundo estágio toma a decisão de<br />

classificação baseada nos resultados obtidos das redes do primeiro estagio. Os<br />

resultados obtidos mostram um grande incremento de desempenho da tarefa de<br />

classificação quando comparado com o método original apresentado em [61].<br />

Em [1] um método de segmentação baseado em conhecimento é proposto. Nesse<br />

método é utilizado para a segmentação dados de SIG, conhecimento específico do<br />

especialista e dados de série temporais. Nesse trabalho os autores concluem que<br />

sistemas baseados em conhecimento utilizados para a tarefa de segmentação oferecem<br />

segmentos mais bem delineados e por conseqüência uma classificação mais precisa.<br />

Quanto a avaliação multitemporal, o artigo indica que a segmentação usando uma série<br />

temporal tende a convergir para uma segmentação ótima conforme o número de<br />

imagens da série. Ainda nesse trabalho os autores enfrentam problemas sérios de erro de<br />

registro nas imagens de foto aéreas e propõe a utilização de imagens de satélite de alta<br />

resolução para resolução desses problemas.<br />

Os dados multiespectrais são tratados em [63] como um conjunto de dados<br />

multidimensionais assim como todas as bandas das imagens LANDSAT analisada. O<br />

método apresentado extrai atributos do conjunto de dados multidimensionais. A idéia<br />

principal é extrair atributos como uma combinação linear de componentes ortogonais de<br />

variação dos dados. É demonstrado que com a utilização de dados multitemporais o<br />

sistema foi capaz de reconhecer mais facilmente os objetos a serem classificados, ou<br />

seja, com menos número de atributos extraídos.<br />

Em [64] e [65] redes neurais artificiais são apresentadas como soluções<br />

vantajosas em termos de desempenho global de classificação se comparado com<br />

métodos estatísticos.


44<br />

Em [66] propõe-se um classificador que leva em conta relações estruturais e<br />

temporais analisando a interdependência temporal e espacial entre os pixels de uma<br />

imagem. O contexto espacial é utilizado para estimar a probabilidade a priori e o<br />

conhecimento multitemporal como a probabilidade de transição entre as classes em um<br />

determinado intervalo de tempo. O classificador apresentado é testado com imagens bi<br />

temporais LANDSAT e mostra um incremento significativo no desempenho da<br />

classificação se comparado com métodos tradicionais de máxima verossimilhança.<br />

Em [67] e [68] o conhecimento multitemporal foi empregado por meio de<br />

diagramas de transição de estado entre as classes da legenda em um determinado<br />

intervalo de tempo. Esses diagramas expressam a possibilidade de transição de uma<br />

classe para uma outra classe determinada. Os resultados de ambos os trabalhos mostram<br />

que houve um grande incremento no desempenho da classificação em relação à<br />

classificação sem informação multitemporal. Porém, em ambos os trabalhos houve<br />

dificuldade em modelar as possibilidades de transições entre as classes e foram<br />

definidos valores experimentais. Esta abordagem é estendida em [69] e [70] utilizando<br />

algoritmos genéticos para estimar os valores dos parâmetros de transição. Isso resultou<br />

numa melhora significativa no desempenho de classificação.


45<br />

4<br />

Modelo proposto<br />

4.1<br />

Introdução<br />

Este capítulo apresenta o modelo proposto no trabalho para interpretação de<br />

imagens de sensores remotos baseada em conhecimento.<br />

4.2<br />

Descrição geral do modelo<br />

O modelo proposto é orientado a objetos, o que envolve a segmentação prévia da<br />

imagem.<br />

Com a segmentação devidamente realizada parte-se para os procedimentos de<br />

classificação. O modelo de classificação divide-se em três fases, como mostra a Figura<br />

10.


46<br />

Imagem (t)<br />

Segmentação<br />

Segmentos (t)<br />

Fase 3 Fase 2 Fase 1<br />

Atributos de textura<br />

Classificação<br />

Fase 2 (t)<br />

Base de conhecimento<br />

multitemporal<br />

Classificação espectral<br />

Atributos espectrais<br />

Dados Estruturais, Contexto e SIG<br />

Classificação<br />

Fase 1 (t)<br />

Base de regras<br />

Classificação baseada em regras do especialista<br />

Classificação baseada em<br />

conhecimento multitemporal<br />

Classificação<br />

referência (t-∆t)<br />

Classificação<br />

Fase 3 (t)<br />

Classificação Final(t)<br />

Defuzzyficação<br />

Figura 10 – Modelo de interpretação baseado em conhecimento para imagens de alta<br />

resolução.<br />

Os dados de entrada para o modelo apresentado e a imagem a ser analisada<br />

obtida em um determinado instante de tempo t e a classificação de uma imagem da<br />

mesma área obtida em um instante de tempo anterior t-∆t.<br />

Na primeira fase do modelo realiza-se uma classificação supervisionada dos<br />

segmentos baseando-se na informação espectral e nos atributos de textura. A<br />

classificação produz para cada objeto um vetor com os graus de pertinência a cada uma<br />

das classes da legenda.<br />

Da segunda fase em diante utilizam-se modelos de conhecimento de um<br />

especialista. Computacionalmente esse conhecimento é modelado por meio de regras


47<br />

nebulosas. Agrega-se ao resultado produzido na primeira fase dados de SIG e outros<br />

atributos estruturais relacionados à forma e arranjo espacial dos segmentos..<br />

Na terceira e última fase aplica-se o conhecimento multitemporal. Este se baseia<br />

na classificação da área de estudo em um instante de tempo anterior t-∆t e utiliza<br />

estimativas de possibilidades de transições entre classes durante o intervalo de tempo<br />

∆t .<br />

Após a terceira fase é realizada a defuzzificação que gera o resultado final da<br />

classificação.<br />

Os resultados produzidos por uma fase são usados como entrada para a fase<br />

seguinte. A primeira fase prevê a utilização de algum método supervisionado<br />

absolutamente convencional. Nas seções seguintes descrevem-se as fases 2 e 3 do<br />

modelo.<br />

4.2.1<br />

Fase 1: Classificação automática supervisionada baseada em dados<br />

espectrais e textura<br />

Nessa Fase um classificador supervisionado é introduzido ao modelo para prover<br />

uma primeira classificação com base em dados espectrais e parâmetros de textura. Os<br />

padrões classificados constituem-se dos segmentos ou objetos representados pela<br />

segmentação da imagem original. A resposta espectral (nas bandas disponíveis) é<br />

medida como uma media no objeto.<br />

Esse classificador então e treinado por um conjunto de treinamento previamente<br />

selecionado. Uma vez treinado os dados de teste são classificados obtendo o resultado<br />

da classificação da primeira fase.<br />

4.2.2<br />

Fase 2: Classificação baseada em regras do especialista


48<br />

Figura 11 - diagrama detalhado do procedimento de interpretação na fase 2.<br />

A Figura 11 mostra a fase 2 do modelo proposto. Em linhas gerais a<br />

classificação nesta fase é feita por um conjunto de regras nebulosas elaboradas pelo<br />

especialista, que têm como entrada o resultado da classificação na fase 1, atributos de<br />

contexto, dados de SIG e atributos estruturais dos objetos. O conjunto de regras é<br />

especifico a imagem ou mesmo a região analisada, podendo assim ser considerado<br />

como uma entrada do procedimento. Esse conjunto de regras mapeia a entrada do<br />

sistema (todos os atributos disponíveis) as saídas (classes) coerentes.<br />

Entre os parâmetros que podem ser utilizados para a criação da base de regras<br />

destacam-se: os atributos de contexto; atributos estruturais, por exemplo,<br />

excentricidade, área, relação da área com o perímetro e dados gerais de SIG.<br />

O classificador baseado em regras nebulosas envolve uma série de funções de<br />

pertinência cuja forma é definida por um conjunto de parâmetros. Os valores adequados<br />

para estes parâmetros são freqüentemente definidos pelo método tradicional de<br />

tentativa-e-erro. Neste trabalho eles são estimados por um método automático de ajuste.<br />

4.2.3<br />

Fase 3: Representação de conhecimento multitemporal<br />

Na terceira fase do modelo proposto inclui-se o conhecimento multitemporal no<br />

processo de classificação automática. O conhecimento multitemporal é modelado<br />

conforme a proposta em [68], [69] e [70], isto é, através das possibilidades de transição


49<br />

entre classes em um determinado intervalo de tempo. Um diagrama de transição de<br />

estados, como o da Figura 12, representa pictoricamente o modelo de conhecimento<br />

multitemporal para um dado intervalo ∆t.<br />

b<br />

ω1<br />

ω4<br />

d<br />

e<br />

f<br />

a<br />

ω2<br />

ω3<br />

c<br />

g<br />

Figura 12 – Exemplo de diagrama de transição de estados para 4 classes<br />

Os nós ω 1 , ω 2 , ω 3 e ω 4 correspondem às classes da legenda e os arcos às<br />

mudanças de classes que podem ocorrer em um determinado intervalo de tempo ∆t.<br />

Associa-se a cada arco da Figura 12 um valor entre 0 e 1, representado na figura<br />

pelas letras a, b, c, d, e, f e g, que expressam as possibilidades de ocorrência da<br />

correspondente transição; zero indica transição impossível e 1 a transição com maiores<br />

chances de ocorrência.<br />

O diagrama de transição de estados define a chamada Matriz de Transição<br />

{ } n i , j<br />

Τ = τ , onde cada linha corresponde à classe do objeto no instante t-∆t e as<br />

ij = 1<br />

colunas às classes a que o mesmo objeto pode pertencer num instante posterior t. Os<br />

elementos da matriz são as respectivas possibilidades de transição τ ij . A matriz de<br />

transição relativa ao diagrama da Figura 12 é dada por:<br />

⎡b<br />

e f 0⎤<br />

⎢<br />

0 a g 0<br />

⎥<br />

Τ = ⎢<br />

⎥<br />

⎢0<br />

0 e 0⎥<br />

⎢<br />

⎥<br />

⎣0<br />

0 0 d ⎦<br />

Eq.(4)<br />

A classificação multitemporal admite conhecida a classificação ω i do segmento<br />

no instante anterior. Os valores de pertinências produzidos nesta terceira fase são dados<br />

pelo produto de cada elemento da i-ésima linha da matriz de transição pelo<br />

correspondente valor de pertinência produzido na fase 2. Se, por exemplo,


50<br />

2<br />

x<br />

1<br />

( x )<br />

= ,...,x n<br />

é o vetor com os valores de pertinência gerados na fase 2 em relação a<br />

cada uma das n classes, as pertinências da fase 3 em que se explora a informação<br />

multitemporal será dada por:<br />

3<br />

3 3<br />

3<br />

( τ x , τ x ,..., τ x ,)<br />

x = Eq.(5)<br />

i1<br />

1<br />

i2<br />

2<br />

in<br />

n<br />

Uma questão relevante a esta altura, diz respeito à estimativa dos valores de<br />

possibilidade de transição τ ij . Isto se faz com o auxílio de um especialista conhecedor da<br />

dinâmica das classes na área alvo. Ele indica as transições impossíveis, e, portanto com<br />

possibilidade nula, e para cada classe de partida a transição mais provável, que recebe<br />

possibilidade igual a 1.<br />

Resta estimar ainda as possibilidades de ocorrências das demais transições<br />

possíveis. Neste trabalho consideram-se duas abordagens. A primeira abordagem, que<br />

chamaremos de crisp, consiste em simplesmente atribuir valor 1 a todas as transições<br />

possíveis. Esta alternativa tem meramente o efeito de reduzir o espaço de busca na<br />

classificação.<br />

A segunda alternativa, que chamaremos nebulosa, admite valores entre 0 e 1<br />

para as possibilidades de transição. Estes valores podem ser estimados através de<br />

tentantivas-e-erros ou utilizando algum método de busca automático. No presente<br />

trabalho utiliza-se o mesmo procedimento adotado em [69], baseado em algoritmos<br />

genéticos.


51<br />

5<br />

Avaliação experimental<br />

Nesse capítulo são apresentados os procedimentos experimentais para validar o<br />

Modelo de Interpretação de Imagens proposto e apresentado no Capítulo 4.<br />

Na avaliação do procedimento automático de classificação/ interpretação<br />

proposto, foi escolhido como indicador de desempenho o erro médio de omissão. Esta<br />

escolha deveu-se a que este índice independe da distribuição inicial dos dados de teste.<br />

De fato, em nossa base de dados existe uma grande diferença entre o número de<br />

segmentos disponíveis em cada uma das classes da legenda. A classe Água, por<br />

exemplo, possui apenas quatro segmentos no ano de 2001, enquanto a classe Floresta é<br />

representada por mais de 700 segmentos no mesmo período. Nesse cenário a taxa de<br />

acerto global não indicaria um desempenho igual em todas as classes.<br />

5.1<br />

Descrição da área de estudo e preparação dos dados<br />

A área de estudo selecionada para esse trabalho compreende cerca de 49km 2 que<br />

inclui o Parque Estadual da Pedra Branca no Estado do <strong>Rio</strong> de Janeiro, Brasil. Esta área<br />

indica um dos últimos remanescentes florestais de Mata Atlântica situada no estado do<br />

<strong>Rio</strong> de Janeiro,<br />

A seção 5.1.1 apresenta a área de estudo assim como uma discussão sobre<br />

fatores sócios econômicos relacionados à expansão urbana e preservação de áreas<br />

nativas de Mata Atlântica. .<br />

Na seção 5.1.2 são apresentadas as imagens utilizadas nesse trabalho. Em<br />

seguida são descritos os procedimentos de preparação (seção 5.1.3) e correção dos<br />

dados e o processo de segmentação utilizado para a extração dos objetos a serem<br />

classificados (seção 5.1.4).<br />

As classes de cobertura de solo analisadas são detalhadamente descritas na seção<br />

5.1.5 e o procedimento de classificação visual realizado para a elaboração de dados de<br />

referência são apresentados na seção 5.1.6.


52<br />

5.1.1<br />

Parque Estadual da Pedra Branca<br />

A área do Parque Estadual da Pedra Branca foi escolhida para esse trabalho<br />

devido a sua grande importância para o estado do <strong>Rio</strong> de Janeiro em termos ecológicos<br />

e aos problemas acarretados pela sua proximidade com áreas urbanas altamente<br />

povoadas. Problemas como a degradação do solo e a expansão urbana desordenada em<br />

áreas internas ao parque vêm reduzindo drasticamente a área de Mata Atlântica nativa<br />

do Parque.<br />

Nesse contexto um monitoramento regular dessa área é muito importante para o<br />

planejamento de medidas de preservação, que uma vê aplicadas com sucesso poderão<br />

ser estendidas a outros fragmentos da Mata Atlântica.<br />

Figura 13 – Mapa representativo do Parque Estadual da Pedra Branca localizado no sul do<br />

Eestado do <strong>Rio</strong> de Janeiro.<br />

O Parque Estadual da Pedra Branca compreende uma área de 12.500 hectares<br />

coberta por vegetação típica da Mata Atlântica situada no maciço da Pedra Branca<br />

acima dos 100m de altitude, conforme representado na Figura 13. A área se situa entre<br />

as latitudes 22º53’ e 23º sul e 43º23’ e 43º32’ oeste. O Parque é cercado pelos bairros de<br />

Guaratiba a oeste, Bangu e Realengo ao norte, Jacarepaguá ao leste, Barra da Tijuca ao<br />

sudoeste e sul, Recreio dos Bandeirantes e Grumari ao sul e Campo Grande ao noroeste<br />

[57].


53<br />

Na área analisada a temperatura média anual é de 22ºC, chegando a picos de<br />

40ºC no verão, e abaixo de 18ºC no inverno. A densidade pluviométrica varia de 1.500<br />

a 2.500mm de chuvas, tendo o verão como a estação de maiores chuvas. As variações<br />

microclimáticas são resultado direto da proximidade da cidade com o mar, da influência<br />

da área urbana e do processo abusivo de desflorestamento [57].<br />

Na Figura 14 a imagem do satélite IKONOS na banda multiespectral do ano de<br />

2001 é apresentada com detalhe marcado em azul e reproduzido na Figura 15 e Figura<br />

16 em composições RGB e NRG respectivamente. Nessas imagens pode-se observar o<br />

alto índice de cobertura de vegetação remanescente na área do parque, assim como a<br />

expansão urbana sobre a área de vegetação.<br />

Figura 14 – Imagem IKONOS Multiespectral (4m de resolução) da área do Parque Estadual da<br />

Pedra Branca no ano de 2001. Em azul o recorte correspondente a Figura 15 e Figura 16


54<br />

mostrado apenas para exemplificar a riqueza de informação contida em imagens de alta<br />

resolução.<br />

Figura 15 – Detalhe da área marcada em azul na Figura 14. Bandas visíveis (RGB). Observase<br />

a expansão urbana e as áreas de vegetação.<br />

Figura 16 – Detalhe da área marcada em azul na Figura 14. Destaque na banda infravermelha.<br />

Composição (NRG) realçando a vegetação.


55<br />

Figura 17 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a área da represa<br />

facilmente observável a partir da imagem de satélite.<br />

Figura 18 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a vegetação<br />

densa típica da Mata Atlântica.


56<br />

Figura 19 – Foto do Parque Nacional da Pedra Branca; detalhe da expansão urbana sobre a<br />

área do parque.<br />

Nas Figura 17, Figura 18 e Figura 19 são apresentadas fotografias tomadas<br />

durante a visita à área de estudo realizada no início do ano de 2005. Essas fotografias,<br />

mesmo não tendo sido tomadas na mesma época que a imagem de satélite, permitem<br />

observar o alto índice de vegetação nativa e a expansão urbana acelerada em torno do<br />

Parque.<br />

5.1.2<br />

Imagens Utilizadas<br />

Foram utilizadas imagens de sensores remotos de alta resolução, obtidas em<br />

junho de 1999 e março de 2001 de uma área de aproximadamente 13 Km 2 . Essa área<br />

cobre uma grande parcela do Parque Estadual da Pedra Branca e também a sua<br />

vizinhança, composta de áreas urbanas e industriais.<br />

Os dados selecionados compreendem uma imagem IKONOS do ano de 2001 do<br />

sensor multiespectral, ou seja, com quatro bandas espectrais: vermelho, azul, verde e<br />

infravermelho. Essas imagens têm resolução espacial de 4m. As imagens utilizadas têm


57<br />

uma resolução radiométrica de 11 bits em cada banda espectral, como indicado na<br />

Figura 20.<br />

Vermelho<br />

Verde<br />

Azul<br />

Infravermelho próximo<br />

Quatro bandas espectrais<br />

11bits – 2048 níveis representados<br />

Figura 20 – Representação da imagem IKONOS multiespectral<br />

Foi utilizada ainda uma foto área do ano de 1999 com resolução original de<br />

aproximadamente 0,63 m por pixel e que foi reamostrada para uma resolução<br />

compatível com as imagens IKONOS. O procedimento de reamostragem foi efetuado<br />

no software ERDAS [71] e as imagens validadas visualmente.<br />

A foto aérea, apesar de possuir uma resolução espacial de menos de 1 mo, elas<br />

apresentam pelo menos três desvantagens principais com relação às imagens IKONOS<br />

multiespectrais. A primeira, e mais evidente, é que imagens aéreas são capturadas<br />

geralmente no espectro visível, e não têm a informação na região do infravermelho. A<br />

segunda desvantagem é que a resolução radiométrica de 8 bits é menor do que nas<br />

imagens IKONOS. O terceiro aspecto diz respeito à geometria de aquisição de imagens<br />

aéreas e o ângulo de visada das imagens analisadas; satélites estão a uma altitude muito<br />

maior do que aviões, o que diminui efeitos relacionados ao ângulo de captura dos<br />

sensores em relação ao solo.<br />

Os experimentos descritos neste trabalho não utilizam, contudo, em nenhum de<br />

seus passos automáticos diretamente a resposta espectral da imagem aérea, mas apenas.<br />

a classificação dessa imagem. As imagens aéreas foram analisadas somente na etapa de<br />

classificação visual para a elaboração de dados de referência.


58<br />

5.1.3<br />

Preparação dos dados<br />

No processo de preparação de dados a principal atividade foi a correção<br />

geométrica e topográfica das imagens. O processo de correção geométrica ou<br />

georeferenciamento consiste basicamente em registrar a imagem com base em um<br />

sistema de coordenada fixo, conforme descrito na seção 2.1.2 utilizando dados de<br />

altimetria.<br />

A imagem de referência utilizada foi foto aérea de 1999 por possuir uma<br />

resolução espacial mais elevada. Essa imagem já se encontrava corretamente<br />

referenciada e com as devidas correções topográficas.<br />

Figura 21 – Ilustração gerada com a foto aérea de 1999 e o DTM da área de estudo utilizado<br />

no processo de ortoretificação.


59<br />

5.1.4<br />

Segmentação<br />

A segmentação, conforme descrita na seção 2.3, é o processo de subdividir a ser<br />

analisada em objetos discretos. A segmentação pode levar em conta informações<br />

espectrais e relações de formas dos objetos gerados.<br />

O algoritmo utilizado para a segmentação nesse trabalho é do tipo crescimento<br />

de regiões, conforme implementado no software e-Cognition 4.0.<br />

A determinação do parâmetro de escala, assim como todos os outros parâmetros<br />

de segmentação é por si só um processo complexo. A dificuldade de definir uma<br />

segmentação “ideal” é um problema que ainda não foi resolvido no mundo do<br />

sensoriamento remoto e é muito dependente do tipo de análise a ser efetuada.<br />

Em [56] um trabalho foi realizado em uma parte da área de estudo descrita nesse<br />

trabalho. Esse procedimento de classificação baseou-se também em objetos obtidos pelo<br />

software eCognition. Nesse trabalho foram analisados visualmente por um especialista<br />

os resultados da segmentação produzida por diversos valores dos parâmetros do<br />

algoritmo de segmentação. Esses estudos foram realizados em uma área muito<br />

semelhante à desse trabalho, além de tratar de classes similares às classes consideradas<br />

nesta dissertação. Por isso foram utilizados no presente trabalho os mesmos valores dos<br />

parâmetros de segmentação sugeridos em [56].<br />

Foi utilizado então parâmetro de escala igual a 90 e fatores de cor/forma de 0.2 e<br />

suavidade/compactação de 0.5. Uma explicação mais detalhada sobre esses parâmetros<br />

encontra-se em [34] e [35].<br />

Para a realização de uma análise de contexto foi utilizada, assim como em [56],<br />

uma série de segmentações hierárquicas com diferentes valores de escala, seguindo o<br />

procedimento apresentado na seção 2.3.3..<br />

Na<br />

Figura 22 é apresentado um exemplo de uma área da imagem e a segmentação<br />

em múltiplas escalas. Observa-se o aumento do tamanho médio dos objetos gerados,<br />

conforme o aumento do fator de escala escolhido.


60<br />

a<br />

b<br />

c<br />

d<br />

Figura 22 – Comparação entre as segmentações em uma área da imagem selecionada; a)<br />

imagem, segmentação com parâmetro de escala b) 90, c) 60 e d) 30.<br />

5.1.5<br />

Definição das classes<br />

As classes da legenda são apresentadas na Tabela 1. Para cada classe são<br />

mostrados exemplos retirados das imagens IKONOS do ano de 2001. Esses exemplos<br />

sempre são apresentados na composição vermelho, verde e azul (ou RGB) e na<br />

composição infravermelho, vermelho e verde (ou NRG).


61<br />

CLASSE<br />

Água<br />

Características predominantes<br />

Inclui lagoas rios e canais<br />

Campo<br />

(RGB)<br />

(NRG)<br />

Áreas, quase em sua totalidade, origem antrópica, incluindo campos<br />

de capim-colonião, de outras gramíneas, de dicotiledôneas<br />

herbáceas, e macega ou ainda áreas de solo exposto, seja por<br />

ocorrência de terraplenagem, deslizamentos ou outras causas e as<br />

áreas de mineração - pedreiras, saibreiras. Inclui campos altos e<br />

campos baixos.<br />

Campo Baixo (RGB) – campo baixo<br />

Campo Baixo (NRG) – campo baixo<br />

Campo Alto (RGB) – campo alto<br />

Campo Alto (NRG) – campo alto


62<br />

CLASSE<br />

Campo Alagado<br />

Características predominantes<br />

Áreas com vegetação arbustivo-herbácea - nativa, secundária ou<br />

invasora - sobre solos encharcados, seja por deficiência de<br />

drenagem ou por afloramento de lençol freático.<br />

(RGB)<br />

(NRG)<br />

Floresta<br />

Floresta Ombrófila Densa - Mata Atlântica - pouco alterada ou não<br />

alterada, fitofisionomia nativa do Município, podendo também ser<br />

uma Floresta Alterada tardia que inclui diversas fitofisionomias<br />

associadas à alteração das florestas nativas, como raleamento por<br />

corte seletivo, ou pequenas áreas de desmatamento, além de<br />

associadas às diversas fases sucessionais que seguem a supressão<br />

total ou parcial da floresta nativa. Inclui também os bananais que<br />

ocupam diversos trechos das encostas.<br />

Floresta Alterada (RGB)<br />

Floresta Alterada (NRG)<br />

Floresta (RGB)<br />

Floresta (NRG)


63<br />

CLASSE<br />

Floresta Urbana<br />

Características predominantes<br />

Áreas com vegetação de campo e porte arbóreo nos grandes parques<br />

públicos da cidade ou em áreas predominantemente urbanas.<br />

Urbano<br />

(RGB)<br />

(NRG)<br />

Grupo heterogêneo de alvos espectrais característicos de áreas<br />

urbanas densas.<br />

Rocha<br />

(RGB)<br />

(NRG)<br />

Afloramentos de rocha de origem natural e costões rochosos.<br />

(RGB)<br />

(NRG)


64<br />

CLASSE<br />

Campo Urbano<br />

Características predominantes<br />

Áreas de campo nitidamente inseridas em contexto urbano.<br />

(RGB)<br />

(NRG)<br />

Tabela 1 – Características da legenda utilizada no processo de classificação.<br />

5.1.6<br />

Processo de classificação visual<br />

Como parte desse trabalho foi realizada em conjunto com alunos de graduação e<br />

pós-graduação do Departamento de Geografia da <strong>PUC</strong>-RJ a classificação visual das<br />

duas imagens utilizadas nesse trabalho.<br />

Esse procedimento teve dois propósitos. O primeiro foi gerar dados de<br />

treinamento e de referência para a análise de desempenho do modelo proposto. O<br />

segundo propósito foi levantar o conhecimento utilizado pelo especialista durante o<br />

procedimento de classificação visual.<br />

O processo de classificação visual das imagens foi realizado no software<br />

eCognition [35].<br />

Além das próprias imagens a serem classificadas foram utilizados pelo<br />

especialista dados de apoio como imagens pancromáticas com 1 m de resolução dos<br />

anos de 2001 e 2002, dados de SIG, além do conhecimento prévio da área de estudo.<br />

O processo de classificação visual das três imagens tomou cerca de quatro<br />

meses. Para reduzir o efeito da subjetividade foram geradas chaves de classificação


65<br />

contendo a descrição detalhada de cada classe da legenda e do raciocínio aplicado para<br />

reconhecê-las.<br />

Os resultados da classificação visual são apresentados na Tabela 2 e na Tabela 3<br />

em termos da área em metros quadrados, e número de objetos ou segmentos de cada<br />

classe.<br />

Classe<br />

Imagem de<br />

1999 (%)<br />

Imagem de<br />

2001 (%)<br />

Água 0,3% 0,2%<br />

Campo Alagado 0,7% 1,1%<br />

Campo 8,1% 10,5%<br />

Floresta alterada 2,4% 2,4%<br />

Floresta 72,1% 70,2%<br />

Urbano 5,1% 6,5%<br />

Rocha 3,1% 2,5%<br />

Campo Urbano 8,1% 6,5%<br />

Tabela 2 – Percentual de área na imagem classificada coberta por cada classe da legenda<br />

(imagens de 1999 e 2001 classificação visual)<br />

Classe<br />

Imagem de<br />

1999<br />

Imagem de<br />

2001<br />

Água 13 4<br />

Campo Alagado 11 9<br />

Campo 419 431<br />

Floresta alterada 196 169<br />

Floresta 771 795<br />

Urbano 345 402<br />

Rocha 96 68<br />

Campo Urbano 278 251<br />

Total 2129 2129<br />

Tabela 3 – Número de segmentos gerados por classe da legenda (imagens de 1999 e 2001,<br />

classificação visual)<br />

A<br />

Figura 23 apresenta, como exemplo, o resultado da classificação visual numa<br />

subárea da imagem IKONOS do ano de 2001. Analisando mais detalhadamente a<br />

classificação visual realizada pelo especialista nota-se que uma grande parte da área de<br />

estudo corresponde às classes Campo e Floresta. Esse fato é justificado pela área de<br />

estudo cobrir um Parque sob preservação ambiental, o que, de alguma forma, limita a<br />

expansão urbana nessa área.


Figura 23 - Classificação Visual da imagem IKONOS de 2001.<br />

66


67<br />

Classificação 2001<br />

Água<br />

Campo<br />

Alagado<br />

Classificação 1999<br />

Floresta<br />

Campo<br />

Urbana<br />

Floresta Urbano Rocha<br />

Campo<br />

Urbano<br />

Água 4 0 0 0 0 0 0 0<br />

Campo Alagado 0 5 0 0 0 0 0 4<br />

Campo 0 0 260 3 119 18 19 12<br />

Floresta Urbana 0 0 7 93 10 24 0 35<br />

Floresta 6 0 111 4 614 30 18 12<br />

Urbano 1 1 24 46 16 227 2 85<br />

Rocha 0 0 5 0 6 0 57 0<br />

Campo Urbano 2 5 12 50 6 46 0 130<br />

Tabela 4 – Alterações reais detectadas pela classificação visual entre os anos de 2001 e 1999,<br />

relativo ao numero de segmentos.<br />

Classificação 2001 (%)<br />

Água<br />

Campo<br />

Alagado<br />

Classificação 1999<br />

Floresta<br />

Campo<br />

Urbana<br />

Floresta Urbano Rocha<br />

Campo<br />

Urbano<br />

Água 30,8 0,0 0,0 0,0 0,0 0,0 0,0 0,0<br />

Campo Alagado 0,0 45,5 0,0 0,0 0,0 0,0 0,0 1,4<br />

Campo 0,0 0,0 62,1 1,5 15,4 5,2 19,8 4,3<br />

Floresta Urbana 0,0 0,0 1,7 47,4 1,3 7,0 0,0 12,6<br />

Floresta 46,2 0,0 26,5 2,0 79,6 8,7 18,8 4,3<br />

Urbano 7,7 9,1 5,7 23,5 2,1 65,8 2,1 30,6<br />

Rocha 0,0 0,0 1,2 0,0 0,8 0,0 59,4 0,0<br />

Campo Urbano 15,4 45,5 2,9 25,5 0,8 13,3 0,0 46,8<br />

Tabela 5 – Alterações reais detectadas pela classificação visual entre os anos de 1999 e 2001,<br />

percentual de mudança em relação ao ano de 1999.<br />

Analisando as classificações de 1999 e 2001 é possível montar a matriz de<br />

transição dos segmentos entre os períodos considerados. Essa matriz é apresentada na<br />

Tabela 4. Na diagonal dessa matriz estão destacados os segmentos que permanecem na<br />

mesma classe nos dois períodos analisados. Observa-se como uma característica<br />

importante a ser salientada a grande transição existente entre Floresta e Campo tanto de<br />

1999 para 2001 quanto de 2001 para 1999.<br />

Um outro importante ponto revelado pela matriz de transição é a perda de áreas<br />

floresta para áreas urbanas (edificações e campos urbanos), mostrando o avanço urbano<br />

sobre o Parque mesmo se tratando de uma área de preservação ambiental protegida por<br />

lei.


68<br />

5.2<br />

Fase 1 – Classificação Espectral e Textura<br />

Métodos convencionais de classificação baseados na resposta espectral pura e<br />

simples, ou mesmo quando se utilizam atributos de textura, não apresentam<br />

desempenho satisfatório em imagens de alta resolução. Um dos propósitos deste<br />

trabalho é avaliar a esperada superioridade de métodos mais sofisticados de<br />

classificação baseados em conhecimento. Afim de obter uma classificação espectral e de<br />

textura o mais eficiente possível foi adotado um método baseado em Redes Neurais<br />

Artificiais para classificação de padrões.<br />

Redes neurais artificiais vêem se mostrando eficientes em tarefas complexas de<br />

classificação de imagens de sensores remotos, segundo a literatura.<br />

Nesse trabalho utiliza-se um classificador baseado em redes neurais do tipo<br />

perceptrons de múltiplas camadas (multilayer perceptrons ou MLP) em conjunto com<br />

algoritmo de treinamento baseado em retro propagação do erro (Backpropagation ou<br />

simplesmente BP)<br />

5.2.1<br />

Dados utilizados<br />

A base de dados utilizada no classificador supervisionado baseado em redes<br />

neurais refere-se aos valores espectrais, ou seja, a resposta media espectral em cada um<br />

dos segmentos analisados; e ainda as medidas de textura obtidas a partir dos parâmetros<br />

de Haralick.<br />

Nesse trabalho os atributos para representar textura foram escolhidos<br />

empiricamente por análise visual. A escolha recaiu sobre parâmetros de Haralick, mais<br />

especificamente Homogeneidade, Dissimilaridade e Correlação média considerando<br />

todas as bandas da imagem. Os parâmetros foram calculados utilizando o software<br />

eCognition.<br />

Foram utilizados 50 segmentos por classe durante a fase de treinamento<br />

totalizando 400 segmentos no conjunto de treinamento. Em algumas classes foi<br />

necessário replicar os dados para que atingissem tal número. Foram selecionados


69<br />

também 50 padrões por classe para a validação. O demais padrões formaram o conjunto<br />

de teste..<br />

O classificador baseado em redes neurais foi configurado com 10 neurônios na<br />

camada oculta todos configurados com funções de transferência tangente hiperbólica. .<br />

Na camada de entrada tem-se 7 entradas relativas às quatro respostas espectrais e três<br />

parâmetros de textura selecionados. Já na camada de saída tem-se 8 neurônios que<br />

representam cada um uma das classes da legenda configurados com funções de<br />

transferência logarítmica. O algoritmo de treinamento utilizado atualiza os pesos e os<br />

valores dos bias da rede de acordo com o gradiente descendente por retropropagação,<br />

utilizando momento e uma taxa de aprendizado adaptativa.<br />

Inicialmente a taxa de aprendizado foi configurada com o valor de 0,01 e o<br />

treinamento e executado durante 1000 épocas no máximo.<br />

5.2.2<br />

Resultados<br />

Erro de omissão por classe<br />

100,00%<br />

90,00%<br />

80,00%<br />

70,00%<br />

60,00%<br />

50,00%<br />

40,00%<br />

30,00%<br />

20,00%<br />

10,00%<br />

0,00%<br />

Agua<br />

Campo<br />

Alagado<br />

Campo<br />

Floresta<br />

Urbana<br />

Floresta Urbano Rocha<br />

Campo<br />

Urbano<br />

Media<br />

Erro % 40,00% 52,50% 88,05% 66,67% 36,67% 29,75% 79,12% 94,16% 60,86%<br />

Gráfico 1 – Taxa de erro médio de omissão por classe após a classificação supervisionada com<br />

atributos espectrais e textura.<br />

Os resultados do classificador supervisionado baseado em redes neurais<br />

artificiais mostram um baixo desempenho na classificação de áreas de Rocha, Campo e<br />

Campo Urbano principalmente. Esse fato pode ser justificado devido à real confusão<br />

espectral e em termos de textura dessas classes. Na verdade a classe Campo Urbano não


70<br />

pode realmente ser diferenciada de Campo somente com dados espectrais, no caso, o<br />

que a caracteriza é a proximidade com a área urbana. No caso da Rocha acontece o<br />

mesmo já que espectralmente se confunde com o Campo. O que caracteriza a Rocha<br />

neste caso é a declividade,.<br />

No caso de classes com identificação mais imediata, como o Campo Alagado, o<br />

Urbano e até mesmo a Floresta, a classificação supervisionada obteve resultados<br />

razoáveis. Ainda no caso da Floresta Urbana ocorre o mesmo que com o Campo<br />

Urbano, isto é, não é possível a identificação sem a utilização da informação de<br />

proximidade com a classe Urbana.<br />

A taxa de erro global de classificação foi de 55,48%. Essa alta taxa de erro pode<br />

ser justificada pela dificuldade de separação em classes com muitos segmentos, como<br />

Floresta e Campo.<br />

5.3<br />

Fase 2 – Classificação estrutural baseada em regras<br />

Na segunda fase do modelo proposto, o conhecimento do especialista é<br />

acrescido ao procedimento de classificação usando para isso regras nebulosas. O<br />

objetivo é modelar o raciocínio do analista humano para melhorar o resultado de<br />

classificação baseada somente na informação espectral e textura apresentada na fase 1.<br />

Classificação FASE 1 (%)<br />

Água<br />

Classificação de referência<br />

Campo<br />

Floresta<br />

Campo<br />

Floresta Urbano Rocha<br />

Alagado<br />

Urbana<br />

Campo<br />

Urbano<br />

Água 60,0 20,0 13,8 11,2 15,2 10,9 26,5 11,3<br />

Campo Alagado 20,0 47,5 3,3 4,5 1,2 4,2 17,4 5,2<br />

Campo 0,0 0,0 12,0 15,2 7,2 1,4 5,0 6,3<br />

Floresta Urbana 0,0 10,0 22,7 33,3 7,5 4,9 13,2 18,4<br />

Floresta 10,0 2,5 32,3 15,0 63,3 2,1 9,4 4,9<br />

Urbano 0,0 5,0 5,3 10,1 2,4 70,2 5,0 45,4<br />

Rocha 10,0 7,5 7,3 5,1 2,2 2,6 20,9 2,7<br />

Campo Urbano 0,0 7,5 3,3 5,5 1,0 3,6 2,6 5,8<br />

Tabela 6 – Matriz de confusão da classificação espectral da imagem de 2001 após a primeira<br />

fase. Resultados apresentados em percentual relativo a imagem de referência.<br />

O resultado da classificação espectral na Fase 1 é apresentado em maiores detalhes pela<br />

matriz de confusão mostrada na<br />

Tabela 6. Nessa matriz são apresentados o percentual dos segmentos<br />

classificados em uma determinada classe (na horizontal) e pertencentes na referência


71<br />

(ou verdade de campo) a uma outra classe (na vertical). Assim, na diagonal dessa matriz<br />

são apresentados os acertos de classificação em cada uma das classes.<br />

O procedimento da Fase 2 tem então o objetivo de, através da utilização de<br />

outros dados como altimetria, forma e contexto, elaborar regras que sejam capazes de<br />

reduzir os erros de classificação e melhorar a classificação da primeira fase.<br />

Algumas confusões, marcadas na<br />

Tabela 6 em vermelho, foram escolhidas para o tratamento via regras de<br />

inferência com o objetivo de diminuir o erro de omissão em cada uma das classes. Estas<br />

confusões foram escolhidas por orientação de um fotointérprete, conhecedor da região,<br />

que considerou possível resolvê-las a partir de regras usando os dados disponíveis..<br />

Na seção 5.3.1 são descritos os dados e atributos utilizados para a elaboração das<br />

regras de inferência. A seguir são descritas as regras e a implementação dos sistemas<br />

nebulosos de classificação nas seções 5.3.2 e 5.3.3 respectivamente. Por último na seção<br />

5.3.4 são apresentados os resultados dos experimentos.<br />

5.3.1<br />

Atributos utilizados na classificação estrutural<br />

Os atributos de entrada para as regras podem ser divididos em dois conjuntos.<br />

O primeiro conjunto de atributos deriva do resultado da primeira fase, mais<br />

especificamente dos valores de pertinência de cada segmento produzidos pela rede<br />

neural.<br />

Os atributos do segundo grupo são calculados a partir da própria imagem ou de<br />

dados de SIG, como descrito abaixo:<br />

• NDVI – índice de vegetação - indica a quantidade de vegetação em uma<br />

determinada área. O seu cálculo está descrito na Eq.(6) onde NIR é o valor<br />

de intensidade da banda infravermelha da imagem e RED a intensidade da<br />

banda que representa espectralmente o vermelho;<br />

( NIR−<br />

RED)<br />

NDVI(<br />

i)<br />

=<br />

( NIR+<br />

RED)<br />

Eq.(6)


72<br />

• Contexto Urbano – indica o grau de ocupação urbana na área do segmento<br />

analisado. O contexto Urbano é avaliado considerando a proximidade do<br />

objeto analisado a objetos e áreas de ocupação urbana. Para isso foi utilizada<br />

a técnica de segmentação hierárquica em que cada segmentação em uma<br />

escala mais alta gera objetos maiores, que contém os objetos menores dos<br />

níveis abaixo deste - produzidos com fator de escala mais baixos. Maiores<br />

detalhes sobre segmentação em múltiplas escalas ou hierárquica são<br />

apressentados no capítulo 2.3.3 e também em [35].<br />

Através da segmentação hierárquica são gerados vários níveis ou camadas de<br />

segmentações em diferentes escalas. Essas segmentações são aqui<br />

denominadas segundo o fator de escala utilizado para obtê-la. Foram<br />

utilizados fatores 120, 180, 270 e 360. Um segmento representado na escala<br />

360, por exemplo, contém vários segmentos menores gerados na escala 120,<br />

180 e 270.<br />

Para medir o grau de ocupação urbana na escala 90, por exemplo, mede-se o<br />

percentual da área do objeto nessa escala que é coberto por objetos urbanos<br />

(definidos na fase 1) na escala 30. Da mesma forma para medir o grau de<br />

ocupação urbana na escala 180 mede-se o percentual de área coberta por área<br />

urbana na segmentação de escala 30.<br />

Quatro parâmetros foram medidos nas escalas anteriormente mencionadas e<br />

foram denominados como Contexto Urbano 120, Contexto Urbano 180,<br />

Contexto Urbano 270 e Contexto Urbano 360;<br />

• Contexto de Vegetação – indica o grau de vegetação em torno do objeto<br />

analisado em quatro escalas, assim como no contexto urbano. A extração do<br />

parâmetro contexto de vegetação segue o mesmo procedimento para medida<br />

do contexto urbano, considerando-se porém a área relativa coberta por<br />

vegetação em cada objeto. Os parâmetros gerados são denominamos da<br />

seguinte forma: Contexto de Vegetação 90, Contexto de Vegetação 180,<br />

Contexto de Vegetação 270 e Contexto de Vegetação 360;<br />

• Altura – é calculada pela média de altura no segmento analisado, baseandose<br />

no DTM (Digital Terrain Model ou Modelo Digital de Terreno);<br />

• Declividade – a declividade não era um dado diretamente disponível; foi<br />

utilizado em seu lugar o desvio padrão da altura dentro do objeto analisado.


73<br />

5.3.2<br />

Regras<br />

O conhecimento do especialista foi modelado no procedimento de interpretação<br />

automática através de regras nebulosas no formato SE(condição) ENTAO(conseqüente.<br />

O primeiro conjunto de regras atua apenas nos segmentos classificados como<br />

Campo na Fase 1. As regras nesse conjunto foram criadas para dirimir a confusão entre<br />

Rochas e Campo. A informação de altimetria e declividade, permite solucionar esse<br />

tipo de confusão para uma boa parte dos segmentos. A conhecimento no caso consiste<br />

em que Rochas normalmente têm uma declividade mais elevada, quando comparada<br />

com Campo. Na verdade na região analisada os Campos em geral são formados por<br />

acúmulo de matéria orgânica sobre as Rochas, e em áreas de alta declividade não é<br />

possível esse acúmulo, o que deixa as Rochas expostas.<br />

O segundo conjunto de regras atua nos objetos atribuídos à Classe Floresta<br />

Urbana na fase 1 com a finalidade de resolver a confusão com Campo, Floresta e<br />

Campo Urbano. Com relação à Floresta o critério discriminante é a proximidade a área<br />

Urbana ou a contexto urbano. Com relação ao Campo o índice de Vegetação (NDVI) foi<br />

utilizado critério de divisão. No caso do Campo Urbano o NDVI e o contexto urbano<br />

foramutilizados em conjunto.<br />

O terceiro conjunto de regras atua nos segmentos previamente classificados<br />

como Floresta objetivando os mesmos critérios da segunda regra.<br />

O quarto conjunto atua sobre a classe Urbano objetivando somente a confusão<br />

com Campo urbano e as variáveis de critério utilizadas foram o contexto urbano e o<br />

NDVI.<br />

O quinto conjunto de regras age sobre a classe Rocha visando a confusão com<br />

Campo, Campo Urbano e Urbano. Foi utilizado o NDVI, a declividade e o contexto<br />

urbano para a discretizacao.<br />

Finalmente o ultimo conjunto age sobre a classe Campo Urbano e na confusão<br />

com Floresta, Floresta Urbana, Campo e Urbano. Uma serie de variáveis são utilizadas<br />

entre eles o contexto urbano e o contexto de vegetação, a altimetria e o NDVI.<br />

Neste trabalho todas as regras nebulosas foram modeladas utilizando duas<br />

funções de pertinência por entrada. Esses conjuntos foram criados a partir de funções<br />

gaussianas.


74<br />

5.3.3<br />

Ajuste das funções de pertinência<br />

Resta agora definir o que é alto (a) ou baixo (a) para relevo, contexto, NDVI<br />

dentre outros parâmetros. Em outras palavras o formato das funções de pertinência<br />

nebulosa (membership functions) tem que ser escolhidos e ajustados. Como foram<br />

escolhidas funções de pertinência gaussianas, estes parâmetros são a média e o desvio<br />

padrão das gaussianas.<br />

Nesse trabalho a estimativa dos parâmetros das funções de pertinência nebulosas<br />

foi realizada utilizando um sistema neuro-fuzzy denominado ANFIS (seção 2.2.1.3). O<br />

sistema neuro-fuzzy ajusta os parâmetros relativos ao formato das funções de<br />

pertinência e aos pesos de cada regra no procedimento de classificação. Para isso é<br />

utilizado um conjunto de treinamento e um algoritmo de retropropagação do erro. Em<br />

nossos experimentos foi utilizado como treinamento uma parcela da imagem de 2001,<br />

no caso a mesma utilizada na primeira fase do experimento. Os restantes dos segmentos<br />

foram utilizados como um conjunto de teste.<br />

Toda a implementação do sistema de inferência nebulosa, assim como o<br />

procedimento de ajuste automático dos parâmetros, foi realizada no MATLAB na<br />

versão 7.0.4.<br />

Em termos de implementação foram utilizados sistemas neuro-fuzzy distintos<br />

para cada grupo de regras apresentado anteriormente. Dessa maneira a otimização dos<br />

parâmetros dos sistemas nebuloso se restringe a dados de atuação distintos, diminuindo<br />

o espaço de busca. Cada um desses sistemas pode então possuir duas saídas (0 e 1)<br />

indicando cada um dos conseqüentes.<br />

Os parâmetros dos sistemas neuro-fuzzy utilizados em todos os sistemas<br />

nebulosos apresentados estão descritos<br />

Configuração dos sistemas neuro-fuzzy (ANFIS)<br />

Numero de Épocas 100<br />

Tamanho do passo inicial 0,01<br />

Incremento e Decremento 10%<br />

Tabela 7 – Configuração dos sistemas neuro-fuzzy.


75<br />

O conjunto de treinamento utilizado e o mesmo da primeira fase porem sem a<br />

replicação dos dados feita para garantir o mesmo numero de padrões em cada uma das<br />

classes.<br />

5.3.4<br />

Resultados da classificação estrutural baseada em regras<br />

Erro médio de omissão após a inferência de regras da FASE 2<br />

FASE2<br />

FASE1<br />

100,0%<br />

80,0%<br />

60,0%<br />

40,0%<br />

20,0%<br />

0,0%<br />

Agua<br />

Campo<br />

Alagado<br />

Floresta<br />

Campo<br />

Urbana Floresta Urbano Rocha Campo<br />

Urbano<br />

Media<br />

FASE2 40,0% 52,5% 58,6% 59,5% 26,7% 35,8% 88,2% 73,6% 54,4%<br />

FASE1 40,0% 52,5% 88,0% 66,7% 36,7% 29,8% 79,1% 94,2% 60,9%<br />

Gráfico 2 – Erro de omissão médio por classe após a FASE 2. (resultado após 20 execuções)<br />

Os resultados apresentados no Gráfico 2 mostram claramente um incremento de<br />

desempenho, no que se diz respeito a diminuição do erro de classificação em cada<br />

classe, após a inclusão do conhecimento do especialista modelado por regras nebulosas.<br />

As classes afetadas pelo procedimento da Fase 2 claramente tiveram o seu erro<br />

de classificação ou omissão, reduzidos significativamente. A maior redução ocorre na<br />

classe Campo onde antes 88% dos segmentos eram classificados erroneamente, após a<br />

Fase 2 cerca de 58% são classificados erroneamente. Embora esse valor ainda seja alto,<br />

verifica-se que a inclusão do conhecimento através de regras nebulosas traz um<br />

melhoria importante de desempenho.<br />

O mesmo ocorre porém com menos intensidade, nas classes Floresta, Floresta<br />

Urbana e Campo Urbano. No caso destas duas classes que estão intimamente ligadas<br />

com a informação de contexto urbano (Floresta Urbana e Campo Urbano) as regras


76<br />

nebulosas baseadas em informação de contexto principalmente foram realmente capazes<br />

de identificar e separar os segmentos relativos às classes citadas.<br />

Em algumas classes como Urbano e Rocha o erro após a Fase 2 teve um ligeiro<br />

acréscimo, possivelmente porque não havia dados de treinamento suficientes para estes<br />

casos, ou ainda porque as regras elaboradas não são capazes de resolver as confusões<br />

entre as classes para estes casos.<br />

Observa-se pela Tabela 8 uma confusão grande entre Urbano e Campo Urbano e entre<br />

Rocha e Campo mesmo após a aplicação das regras.<br />

As classes não afetadas pelo procedimento da segunda fase continuam<br />

naturalmente com o mesmo erro de omissão.<br />

Classificação FASE 2 (%)<br />

Água<br />

Classificação de referência<br />

Campo Floresta<br />

Campo Floresta Urbano Rocha<br />

Alagado Urbana<br />

Campo<br />

Urbano<br />

Água 50,0 0,0 0,5 1,2 0,2 0,0 0,0 0,0<br />

Campo Alagado 0,0 50,0 4,7 6,0 2,0 4,5 23,5 2,4<br />

Campo 0,0 25,0 41,4 17,9 12,8 5,0 32,4 18,4<br />

Floresta Urbana 0,0 0,0 7,9 40,5 2,5 8,5 2,9 12,0<br />

Floresta 0,0 0,0 31,2 9,5 73,3 1,5 5,9 4,8<br />

Urbano 0,0 0,0 5,1 4,8 3,1 64,2 2,9 34,4<br />

Rocha 50,0 0,0 4,7 2,4 2,9 0,0 11,8 1,6<br />

Campo Urbano 0,0 25,0 4,7 17,9 3,1 16,4 20,6 26,4<br />

Tabela 8 – Matriz de confusão de uma classificação típica após a Fase 2. Resultado percentual<br />

relativo a referencia de uma interação.


77<br />

Taxa de erro global, comparação Fase 1 e Fase 2<br />

60,00%<br />

50,00%<br />

40,00%<br />

30,00%<br />

20,00%<br />

10,00%<br />

0,00%<br />

Taxa global de erro<br />

FASE2 44,32%<br />

FASE1 55,48%<br />

Gráfico 3 – Erro de classificação global após a FASE 2. (resultado após 20 execuções)<br />

O erro global de classificação teve um decréscimo significativo após a inclusão<br />

das regras da segunda fase. Esse decréscimo está sem duvida ligado principalmente ao<br />

incremento na taxa de reconhecimento na classe Floresta que representa uma grande<br />

proporção dos segmentos .<br />

5.4<br />

Fase 3 – Classificação multitemporal<br />

A terceira Fase da classificação inclui o conhecimento multitemporal no<br />

processo de interpretação, conforme o apresentado em seções anteriores. Os<br />

experimentos realizados para esta fase compreendem 4 tarefas:<br />

1. Construção do diagrama de transição,<br />

2. Preparação dos dados,<br />

3. No caso de conhecimento temporal nebuloso, estimativa das<br />

possibilidades de transição, e<br />

4. Avaliação de desempenho.


78<br />

A primeira tarefa consiste em representar o conhecimento multitemporal através<br />

de um diagrama que indica as transições de classes possíveis em um determinado<br />

intervalo de tempo.<br />

O diagrama de transição para esse trabalho foi elaborado por um especialista<br />

conhecedor da área de teste. Devido ao grande número de classes da legenda nesse<br />

trabalho, as transições são apresentadas na Tabela 9, onde a primeira coluna<br />

corresponde à classe em um instante anterior ao analisado (t-∆t), a segunda coluna ao<br />

rótulo do arco da transição e a terceira coluna à classe no instante analisado (t). Essa<br />

tabela foi elaborada durante entrevistas com o especialista em classificação de imagens<br />

de sensores remotos e com amplo conhecimento da área de estudo e de sua dinâmica ao<br />

longo do tempo.


79<br />

Classe<br />

em t-1<br />

Água<br />

Campo<br />

Alagado<br />

Campo<br />

Floresta<br />

Urbana<br />

Floresta<br />

Transição Classe em t Causas<br />

τ1 Água -<br />

τ2 Campo Alagado Aterramento natural, secagem de rios e<br />

mananciais.<br />

τ3 Campo Aterramento natural, secagem de rios e<br />

mananciais.<br />

τ4 Urbano Aterramento urbano para construção<br />

τ5 Campo Urbano Aterramento urbano para construção<br />

τ6 Campo Alagado -<br />

τ7 Campo Aterramento natural, secagem de rios e<br />

mananciais.<br />

τ8 Urbano Aterramento não natural seguido de construção.<br />

τ9 Campo Urbano Aterramento não natural.<br />

τ10 Campo -<br />

τ11 Campo Alagado Alagamento<br />

τ12 Floresta Crescimento de espécies arbóreas<br />

τ13 Urbano Crescimento urbano<br />

τ14 Campo Urbano Crescimento urbano ao redor da área<br />

τ15 Floresta Urbana Crescimento urbano ao redor da área e ainda<br />

crescimento de vegetação arbórea na área.<br />

τ16 Rocha Desmatamento ou deslizamento de área de campo<br />

sobre rocha<br />

τ17 Urbano Crescimento urbano<br />

τ18 Campo Urbano Derrubada de árvores em áreas urbanas<br />

τ19 Floresta Urbana -<br />

τ20 Campo Desmatamento<br />

τ21 Floresta -<br />

τ22 Urbano Desmatamento com crescimento urbano<br />

τ23 Campo Urbano Desmatamento com crescimento urbano ao redor<br />

da área<br />

τ24 Floresta Urbana Crescimento urbano ao redor da área<br />

τ25 Urbano -<br />

Urbano τ26 Campo urbano Desocupação urbana ou demolição para<br />

construção o que causa uma resposta característica<br />

de campo<br />

τ27 Floresta Urbana Desocupação urbana com replantio de espécies<br />

Rocha<br />

arbóreas<br />

τ28 Campo Urbano Desocupação urbana<br />

τ29 Campo Acumulo de matéria orgânica causa crescimento<br />

de vegetação sobre rochas.


80<br />

Classe<br />

em t-1<br />

Campo<br />

Urbano<br />

Transição Classe em t Causas<br />

τ30 Rocha -<br />

τ31 Urbano Crescimento urbano<br />

τ32 Campo Urbano -<br />

τ33 Floresta Urbana Crescimento de vegetação arbórea em áreas de<br />

campo urbano<br />

Tabela 9 – Transições entre classes para a área de teste.<br />

A partir da Tabela 9 é possível montar a matriz de transição crisp, que indica<br />

transições possíveis e impossíveis com “1” e “0” respectivamente, como mostrado a<br />

seguir.<br />

Τ<br />

crisp<br />

=<br />

⎡1<br />

⎢<br />

⎢<br />

0<br />

⎢0<br />

⎢<br />

⎢0<br />

⎢0<br />

⎢<br />

⎢0<br />

⎢0<br />

⎢<br />

⎢⎣<br />

0<br />

1<br />

1<br />

1<br />

0<br />

0<br />

0<br />

0<br />

0<br />

1<br />

1<br />

1<br />

0<br />

1<br />

0<br />

1<br />

0<br />

0<br />

0<br />

1<br />

1<br />

1<br />

0<br />

0<br />

1<br />

0<br />

0<br />

1<br />

0<br />

1<br />

0<br />

0<br />

0<br />

1<br />

1<br />

1<br />

1<br />

1<br />

1<br />

1<br />

1<br />

0<br />

0<br />

1<br />

0<br />

0<br />

0<br />

1<br />

0<br />

1⎤<br />

1<br />

⎥<br />

⎥<br />

1⎥<br />

⎥<br />

1⎥<br />

1⎥<br />

⎥<br />

1⎥<br />

1⎥<br />

⎥<br />

1⎥⎦<br />

Semelhantemente, a matriz de transição nebulosa toma a seguinte forma:<br />

Τ<br />

nebuloso<br />

⎡τ<br />

1<br />

⎢<br />

⎢<br />

0<br />

⎢ 0<br />

⎢<br />

⎢ 0<br />

=<br />

⎢ 0<br />

⎢<br />

⎢ 0<br />

⎢ 0<br />

⎢<br />

⎢⎣<br />

0<br />

τ 2<br />

τ 6<br />

τ10<br />

0<br />

0<br />

0<br />

0<br />

0<br />

τ 3<br />

τ 7<br />

τ11<br />

0<br />

τ 20<br />

0<br />

τ 27<br />

0<br />

0<br />

0<br />

τ12<br />

τ17<br />

τ 21<br />

0<br />

0<br />

τ 31<br />

0<br />

0<br />

τ13<br />

0<br />

τ 22<br />

0<br />

0<br />

0<br />

τ 4<br />

τ8<br />

τ14<br />

τ18<br />

τ 23<br />

τ 25<br />

τ 28<br />

τ 32<br />

0<br />

0<br />

τ15<br />

0<br />

0<br />

0<br />

τ 29<br />

0<br />

τ 5 ⎤<br />

τ 9<br />

⎥<br />

⎥<br />

τ16⎥<br />

⎥<br />

τ19⎥<br />

τ 24⎥<br />

⎥<br />

τ 26⎥<br />

τ 30⎥<br />

⎥<br />

τ 33⎥⎦<br />

Onde os parâmetros não nulos são números reais no intervalo (0,1].<br />

As linhas correspondem ao instante anterior (t-∆t) e as colunas ao instante


81<br />

analisado (t). A ordem das classes, tanto nas linhas quanto nas colunas, segue a ordem<br />

de classificação definida pelas classes para todo o processo (Água, Campo Alagado,<br />

Campo, Floresta Urbana, Floresta, Urbano, Rocha e Campo Urbano).<br />

Tratando-se do conhecimento multitemporal crisp pode-se passar diretamente<br />

para a tarefa 4 da avaliação. Já o conhecimento multitemporal nebuloso requer que<br />

antes se estimem os valores das possibilidades de transição.<br />

Esta tarefa de estimação dos valores de probabilidade utilizou o mesmo conjunto<br />

de treinamento de dados anteriormente selecionado e utilizado durante a Fase 1 e Fase<br />

2.<br />

O especialista da área identificou para cada classe da legenda a transição mais<br />

freqüente que recebeu o valor de possibilidade igual a 1. Isso fez com que matriz de<br />

transição tivesse valor 1 em toda a sua diagonal. Restaram então 25 valores de transição<br />

para serem estimados. Um algoritmo genético (GA) é então aplicado sobre os dados de<br />

1999 e 2001 visando minimizar o erro médio de omissão, usando como referência a<br />

classificação visual da imagem de 2001 e os dados de treinamento anteriormente<br />

selecionados. A configuração do GA utilizado nesse trabalho esta descrito na Tabela 10.<br />

Configuração do sistema de otimização baseado em algoritmos genéticos<br />

Cromossomo<br />

27 genes ou parâmetros a serem estimados<br />

Números reais entre 0 e 1<br />

Função de avaliação<br />

Minimizar o erro médio de omissão entre as classes<br />

Tamanho da população<br />

100 ( população inicial randômica)<br />

Numero de gerações 100<br />

Substituição por geração 80%<br />

Operações de cruzamento<br />

Crossover simples de um ponto<br />

Crossover aritmético<br />

Operações de mutação<br />

Mutação simples<br />

Creep Pequeno (0,2)<br />

Creep Grande (0,8)<br />

Tabela 10 – Configuração dos sistemas neuro-fuzzy.<br />

Os valores de possibilidade de transição estimados a partir dos dados de<br />

treinamento foram então aplicados aos dados de teste e o resultado final apresentado<br />

nesse capitulo.


82<br />

5.4.1<br />

Resultados do classificador multitemporal<br />

Uma série de experimentos foi realizada para avaliar a contribuição do<br />

conhecimento multitemporal e nebuloso, conforme mostrado nas seções a seguir.<br />

5.4.1.1<br />

Contribuição do conhecimento multitemporal crisp<br />

Erro médio de omissão apos a inclusao o conhecimento multitemporal<br />

crisp<br />

100,0%<br />

90,0%<br />

80,0%<br />

70,0%<br />

60,0%<br />

50,0%<br />

40,0%<br />

30,0%<br />

20,0%<br />

10,0%<br />

0,0%<br />

Agua<br />

Campo<br />

Alagado<br />

Floresta<br />

Campo<br />

Urbana Floresta Urbano Rocha Campo<br />

Urbano<br />

Media<br />

FASE1 40,0% 52,5% 88,0% 66,7% 36,7% 29,8% 79,1% 94,2% 60,9%<br />

FASE2 40,0% 52,5% 58,6% 59,5% 26,7% 35,8% 88,2% 73,6% 54,4%<br />

FASE3 - CRISP 40,00% 50,00% 60,00% 35,71% 29,21% 33,83% 73,53% 71,20% 49,19%<br />

Gráfico 4 – Erro de classificação global após a inclusão de conhecimento multitemporal de<br />

maneira CRISP. (resultado após 20 execuções)<br />

Os resultados da inclusão do conhecimento multitemporal crisp mostram um<br />

aumento significativo de desempenho, ou seja, a diminuição do erro de omissão médio<br />

em cerca de cinco pontos percentuais. Algumas classes, como Floresta Urbana e Rocha<br />

foram mais afetadas. Essas classes claramente se beneficiam de informação<br />

multitemporal. No caso da Rocha, ela tende a não se alterar ao longo do tempo e no<br />

caso de Floresta Urbana, que compreende parques e jardins, ocorre o mesmo.<br />

Na média, no entanto, o erro de omissão cai significativamente após a inclusão<br />

do conhecimento multitemporal, mesmo usando a modelo crisp.


83<br />

5.4.1.2<br />

Contribuição do conhecimento multitemporal nebuloso<br />

No segundo experimento aplicou-se o conhecimento multitemporal nebuloso. A<br />

Tabela 11 mostra os valores da matriz de transição obtida pelo algoritmo genético com<br />

base nos dados de treinamento.<br />

t<br />

t-∆t<br />

Água Campo<br />

Campo<br />

Urbano<br />

Floresta<br />

Urbana Floresta Urbano Rocha<br />

Campo<br />

Urbano<br />

Água 1,00 0,33 0,49 0,00 0,00 0,16 0,00 0,18<br />

Campo Urbano 0,00 1,00 0,13 0,00 0,00 0,21 0,00 0,76<br />

Campo 0,00 0,11 1,00 0,29 0,29 0,49 0,58 0,39<br />

Floresta Urbana 0,00 0,00 0,00 1,00 0,00 0,50 0,00 0,69<br />

Floresta 0,00 0,00 0,49 0,77 1,00 0,19 0,00 0,41<br />

Urbano 0,00 0,00 0,00 0,69 0,00 1,00 0,00 0,50<br />

Rocha 0,00 0,00 0,16 0,00 0,00 0,25 1,00 0,30<br />

Campo Urbano 0,00 0,00 0,00 0,76 0,00 0,28 0,00 1,00<br />

Tabela 11 – Matriz de transição nebulosa. Valores em zero indicam transições impossíveis.<br />

A função objetivo do algoritmo genético, conforme citado anteriormente, é a<br />

taxa média de acerto entre as classes. No Gráfico 5 é apresentado um exemplo retirado<br />

dos experimentos realizados que retrata a evolução do algoritmo genético durante a sua<br />

evolução. Observa-se um incremento significativo na função de avaliação a cada<br />

geração.


84<br />

0.77<br />

GRÁFICO DE DESEMPENHO<br />

0.765<br />

0.76<br />

Avaliação<br />

0.755<br />

0.75<br />

0.745<br />

0.74<br />

0 10 20 30 40 50 60 70 80 90 100<br />

Geração<br />

Gráfico 5 – Evolução do algoritmo genético durante a sua evolução.<br />

Erro médio de omissão apos a inclusao do conhecimento multitemporal<br />

nebuloso<br />

100,0%<br />

90,0%<br />

80,0%<br />

70,0%<br />

60,0%<br />

50,0%<br />

40,0%<br />

30,0%<br />

20,0%<br />

10,0%<br />

0,0%<br />

Agua<br />

Campo<br />

Alagado<br />

Floresta<br />

Campo<br />

Urbana Floresta Urbano Rocha Campo<br />

Urbano<br />

Media<br />

FASE1 40,0% 52,5% 88,0% 66,7% 36,7% 29,8% 79,1% 94,2% 60,9%<br />

FASE2 40,0% 52,5% 58,6% 59,5% 26,7% 35,8% 88,2% 73,6% 54,4%<br />

FASE3 - CRISP 40,0% 50,0% 60,0% 35,7% 29,2% 33,8% 73,5% 71,2% 49,2%<br />

FASE3 - NEBULOSA 40,0% 50,0% 44,7% 29,8% 35,5% 39,8% 44,1% 60,8% 43,1%<br />

Gráfico 6 – Avaliação do erro de omissão após a inclusão da informação multitemporal<br />

nebulosa.<br />

Observa-se pelo Gráfico 6 que após a inclusão da informação multitemporal<br />

nebulosa o erro médio de omissão entre as classes tem um declínio significativo. A<br />

maior parte das classes apresenta uma queda significativa no seu erro de omissão.


85<br />

Se comparado com a Fase 1 a inclusão do conhecimento multitemporal pode<br />

oferecer uma queda de quase 17% em termos de erro de omissão. E em algumas classes<br />

como Rocha essa queda pode chegar a cerca de 35%.<br />

Nas classes Floresta e Urbano porém ocorre um ligeiro acréscimo no erro de<br />

omissão. Esse fato pode estar relacionado com a escolha pelo especialista das transições<br />

possíveis.<br />

Taxa de erro global, comparação Fase 1, Fase 2 e Fase 3<br />

60,00%<br />

50,00%<br />

40,00%<br />

30,00%<br />

20,00%<br />

10,00%<br />

0,00%<br />

Taxa global de erro<br />

FASE1 55,48%<br />

FASE2 44,32%<br />

FASE3 - NEBULOSA 40,81%<br />

Gráfico 7 – Taxa de erro global após a classificação por inclusão de dados multitemporais<br />

nebulosos.<br />

O Gráfico 7 mostra que apesar de todo o procedimento ser focado na diminuição<br />

da taxa média de erro entre as classes, indicadores como a taxa global de acerto também<br />

se comportam de maneira favorável.


86<br />

5.5<br />

Conclusões<br />

Os experimentos realizados e descritos neste capítulo levaram algumas<br />

observações e conclusões que cabem ressaltar ao final desta seção.<br />

Em primeiro lugar se confirmou a tese de que métodos convencionais de<br />

classificação baseados apenas na informação espectral, trazem resultados insatisfatórios<br />

quando aplicados a imagens de alta resolução. De fato, ao se introduzir conhecimento<br />

prévio no processo de classificação obteve-se um aumento importante de desempenho<br />

da classificação.<br />

Nos experimentos realizados o conhecimento multitemporal se mostrou mais<br />

efetivo do que o conhecimento monotemporal. Sem dúvida o modelo de conhecimento<br />

monotemporalcriado neste trabalho é passível de ser aperfeiçoado, e os experimentos<br />

não permitem avaliar todo o potencial do método de classificação estrutural.<br />

Outro aspecto diz respeito à dificuldade para a aquisição de conhecimento. A<br />

modelagem de conhecimento através de regras se faz a partir séries de entrevistas com o<br />

analista, num processo longo e trabalhoso, além de estar sujeito à imprecisão inerente à<br />

subjetividade do processo de interpretação das imagens.<br />

O conhecimento multitemporal, na forma em que foi apresentado neste trabalho,<br />

é, ao contrário, fácil de se obter junto ao analista, já que se resume a discriminar entre<br />

transições de classe possíveis e impossíveis.<br />

Um outro comentário se refere ao volume de dados necessários para o ajuste dos<br />

parâmetros do modelo. O modelo de conhecimento requer uma imagem e a<br />

correspondente classificação de referência. O modelo multitemporal nebuloso requer<br />

além destas, ainda a classificação de uma imagem anterior da mesma área. O método<br />

multitemporal crisp, não requer uma classificação anterior, já que não se estimam os<br />

valores de possibilidade de transição, mas tem desempenho inferior ao do modelo<br />

nebuloso.<br />

Finalmente cabe mencionar que o método multitemporal nebuloso, admite que<br />

os valores de possibilidade de transição é estável ao longo do tempo. Esta é uma<br />

hipótese que não foi questionada neste trabalho e que não necessariamente se aplica a<br />

todos os problemas de interpretação de imagens de sensores remotos.


87<br />

6<br />

Comentários finais<br />

O objetivo desse trabalho foi avaliar a contribuição de diversas formas de<br />

conhecimento em um sistema automático de classificação aplicado a imagens de<br />

sensores remotos de alta resolução. O conhecimento empregado foi dividido em três<br />

modalidades expressas em três fases do processo de classificação. Na primeira houve o<br />

emprego de classificação espectral; na segunda a inclusão de informações de contexto e<br />

estruturais em conjunto com o conhecimento do especialista modelado por regras<br />

nebulosas, e na terceira fase a inclusão de conhecimento multitemporal por meio de<br />

diagramas de transição de classes.<br />

A inclusão do conhecimento específico, através de regras elaboradas pelo<br />

especialista, ofereceu um ganho importante na taxa global de acerto. O modelo neurofuzzy<br />

para otimização dos parâmetros dessas regras mostrou-se eficiente.<br />

A inclusão de conhecimento multitemporal trouxe também um aumento do<br />

desempenho da classificação. O ganho de desempenho obtido pela inclusão do<br />

conhecimento multitemporal foi, contudo, maior do que o ganho obtido pela inclusão<br />

do conhecimento monotemporal.<br />

Cabe relevar que essa análise está condicionada à área de estudo selecionada. A<br />

área do Parque da Pedra Branca sofre poucas alterações em um intervalo de tempo<br />

reduzido uma vez que é uma área de preservação ambiental. Com isso é uma área<br />

pouco suscetível a mudanças bruscas nas características de cobertura do solo, fato esse<br />

que sem dúvida aumenta o impacto do conhecimento multitemporal.<br />

Os resultados mostram que o melhor desempenho foi alcançado quando foi<br />

utilizado o conhecimento prévio envolvendo relativo a variáveis espectrais e contextuais<br />

em conjunto com o conhecimento multitemporal.<br />

É importante ressaltar que todos os procedimentos aqui abordados visam a<br />

elaboração de um modelo de classificação para a área de estudo analisada. Outras áreas<br />

podem vir a utilizar o mesmo método de modelagem, porém as regras, como as da fase<br />

2 ou o diagrama de transição da fase 3, são paraticulares para uma determinada área de<br />

estudo.


88<br />

Vários trabalhos podem ser desenvolvidos sobre a mesma temática seguindo a<br />

linha aqui proposta. Provavelmente o desempenho na primeira fase não aumentaria<br />

muito qualquer que fosse a informação incluída no classificador espectral<br />

supervisionado. Isso pode ser justificado pela complexidade das classes da legenda e do<br />

uso de imagens de alta resolução.<br />

Finalmente é importante mencionar que não foi um objetivo central deste<br />

trabalho construir um modelo de conhecimento contextual/espacial elaborado. É,<br />

portanto, razoável admitir que os ganhos de desempenho obtidos nesta etapa podem ser<br />

significativamente mais elevados do que o alcançado em nossos experimentos, desde de<br />

se crie um conjunto de regras mais elababorado.


89<br />

Referências<br />

1 CORR, D.G.; TAILOR, A.M.; CROSS, A.; MASON, D.C.; PETROU, M.; HOGG,<br />

D.C.; LAWRENCE. D.H. Progress In Automatic Analysis of Multitemporal<br />

Remotely-Sensed Data. In: IGARSS 1988 - International Geoscience And Remote<br />

Sensing Symposium, Edinburgh, Scotland, sep. 13-16 1988. Proceedings of<br />

IGARSS 1988, p. 1175-1178, 1988.<br />

2 BÜCKNER, J.; STAHLHUT, O.; PAHL, M.; LIEDTKE, C.-E. A Knowledge Based<br />

Automatic Image Data Analyzer for Remote Sensing Data. In: ICSC CONGRESS<br />

ON COMPUTATIONAL INTELLIGENCE METHODS AND APPLICATIONS<br />

2001 - CIMA 2001, 2001, Bangor, Wales, Reino Unido. Proceedings (CD ROM)<br />

of The Congress on Computational Intelligence Methods and Applications<br />

2001 – CIMA 2001. International Computing Sciences Conventions – University<br />

of Wales in Bangor, U.K, 2001.<br />

3 LIEDTKE, C.-E.; BÜCKNER, J.; GRAU, O.; GROWE, S.; TÖNJES, R. AIDA: A<br />

System for the Knowledge Based Interpretation of Remote Sensing Data, In:<br />

THIRD INTERNATIONAL AIRBORNE REMOTE SENSING CONFERENCE<br />

AN EXHIBITION, 1999, Copenhagen, Dinamarca, Proceedings of the Third<br />

International Airborne Remote Sensing Conference and Exhibition,<br />

Environmental Research Institute of Michigan, AGU, 1997.<br />

4 NIEMANN, H.; SAGERER G.; SCHRODER, S.; KUMMERT, F. ERNEST:A<br />

Semantic Network System for Pattern Understanding. IEEE Transactions on<br />

Pattern Analysis and Machine Intelligence, v. 12, n. 9, set 1990.<br />

5 CLEMENT, V.; GIRAUDON, G.; HOUZELLE, S.; SANDAKLY F. Interpretation of<br />

Remotely Sensed Images in a Context of Mutisensor Fusion Using a Multispecialist<br />

Architecture. IEEE Transactions on Geoscience and Remote Sensing, v. 31, n. 4,<br />

p. 779-791, jul 1993.<br />

6 MATSUYAMA, T.; HWANG, V. Advances in computer vision and machine<br />

intelligence. SIGMA, a knowledge-based aerial image understanding system. New<br />

York: Plenum, 1990. ISBN: 030643301X<br />

7 MCKEOWN, D. M.; HARVEY, W.A.; MCDERMOTT, J. Rule Based interpretation<br />

of aerial imagery. IEEE Transactions on Pattern Analysis and Machine<br />

Intelligence, v. 7, v. 5, p. 570-585, 1985.<br />

8 THOMAS W.W.; CARVALHO, A.M.V.; AMORIM, A.M.A.; GARISON, J.;<br />

ARBELÁZ, A.L. Plant endemism in two forests in southern Bahia, Brazil.<br />

Biodiversity and Conservation 7, p. 311-322, CIFOR/UNESCO, 1998.<br />

9 SIPS, P. The Atlantic Forest of South Bahia, Brazil: Hotspot within a Hotspot.<br />

European Tropical Research Network. n. 29, p. 41- 43, 1999. Disponivel em:<br />

<br />

10 MORI, S. A.; BOOM, B.M.; PRANCE, G.T. Distribution and conservation of easter<br />

Brazilian coastal forest tree species. Brittonia, 33, p. 233-245, 1981.


90<br />

11 <strong>Rio</strong> de Janeiro (Estado) Secretaria Municipal de Meio Ambiente. Relatório Técnico,<br />

SMAC. 2000. Mapeamento e caracterização de usos das terras e cobertura vegetal<br />

no município do <strong>Rio</strong> de Janeiro entre os anos de 1984 e 1999. <strong>Rio</strong> de Janeiro, 2000.<br />

12 ANTUNES, A. F. Classificação de ambiente ciliar baseada em orientação a<br />

objetos em imagens de alta resolução. Curitiba, 2003. Tese ( Pós Graduação em<br />

Ciências Geodésicas 0) - Universidade Federal do Paraná.<br />

13 CAMPBEL, J.B. Introduction to Remote Sensing. 3.ed. New York: Guilford<br />

Publications, 2002. 621p. ISBN 1572306408<br />

14 RST - The Remote Sensing Tutorial. Disponível em:<br />

Acesso em: 01 jul. 2005.<br />

15 LILLESEND, T.M.; KIEFER, R.W. Remote Sensing and Image Interpretation.<br />

4 th ed., New York: Wiley , 1999. ISBN: 0471255157<br />

16 SPACE IMAGING WEB SITE. Informações sobre o sensor IKONOS. Disponível<br />

em: < http://www.spaceimaging.com/ >. Acesso em: 20 jul. 2005.<br />

17 CIVCO, D.L. Topographic normalization of Landsat Thematic Mapper digital<br />

imagery, Photogrammetric Engineering and Remote Sensing, v. 55, n. 9, p.<br />

1303-1309, 1989.<br />

18 MATHER, P.M. Computer processing of remotely sensed images. John Wiley and<br />

Sons Ltd. 1987. ISBN: 0471906484.<br />

19 RICHARDS, J.A.; JIA, X. Remote Sensing Digital Image Analysis : An<br />

Introduction, 4 th ed, Springer, 2005. ISBN: 3540251286.<br />

20 HAYKIN, S. Redes Neurais: Princípios e práticas. 2. ed. Porto Alegre: Bookman,<br />

2001. ISBN: 85-7307-718-2.<br />

21 ELKAN, C.; BERENJI, H.R.; CHANDRASEKARAN, B.; SILVA, C.J.S.;<br />

ATTIKIOUZEL, Y.; DUBOIS, D.; PRADE, H.; SMETS, P.; FREKSA, C.;<br />

GARCIA, O.N.; KLIR, G.J.; Bo YUAN; MAMDANI, E.H.; PELLETIER, F.J.;<br />

RUSPINI, E.H.; TURKSEN, B.; VADIEE, N.; JAMSHIDI, M.; Pei-Zhuang<br />

WANG; Sie-Keng TAN; Shaohua TAN; YAGER, R.R.; ZADEH, L.A. The<br />

paradoxical success of fuzzy logic. IEEE Expert, v.9, n. 4, p.3-49, ago. 1994.<br />

22 JANG, J.-S. R., ANFIS: Adaptive-Network-based Fuzzy Inference Systems. IEEE<br />

Transactions on Systems, Man, and Cybernetics, v. 23, n. 3, p. 665-685, mai.<br />

1993.<br />

23 CHEN, Mu-Song. A comparative study of learning methods in tuning parameters of<br />

fuzzy membership functions. In: 1999 IEEE International Conference on Systems,<br />

Man, and Cybernetics, 12-15 Oct. 1999. IEEE SMC '99 Conference Proceedings,<br />

v. 3, p.40-44, oct. 1999.<br />

24 SUGENO, M., Industrial applications of fuzzy control, Elsevier Science Pub. Co.,<br />

1985.<br />

25 SVIREZHEV, Yu.M.; PASSEKOV, V.P. Fundamentals of Mathematical<br />

Evolutionary Genetics, Londres: Kluwer Academic Publisher, Mathematics and<br />

Its Applications (Soviet Series), v. 22, 1989.<br />

26 MICHALEWICZ, Z., Genetic Algorithms + Data Structures = Evolution<br />

Programs, 3 rd ed., Springer, 1998. ISBN: 3540606769.


91<br />

27 GONZALEZ, R.C., WOODS, R.E. Digital Image Processing. 2. ed. New Jersey:<br />

Prentice Hall, 2001. ISBN 0-201-18075-8<br />

28 MOHAN, B.K.; KADAM, S.U.; RAO E.P. Segmentation of High Resolution<br />

Imagery. Map Asia 2003, GISdevelopment.NET. Disponível em:<br />

<br />

29 PESARESI, M.; BENEDIKTSSON, J.A. A New Approach for the Morphological<br />

Segmentation of High-Resolution Satellite Imagery. IEEE Transactions on<br />

Geosciences and Remote Sensing, v. 29 , n. 2 , p. 309 – 320, fev. 2001.<br />

30 BEUCHER, S.; LANTEUJOUL, C. Use of watersheds in contour detection. In:<br />

International Workshop on Image Processing, real-time edge and motion<br />

detection/estimation, Rennes, France, Sept. 17-21 1979. Proceedings of<br />

International Workshop on Image Processing, real-time edge and motion<br />

etection/estimation, sept. 1979.<br />

31 BEUCHER, S. The watersheds transformation applied to image segmentation. In:<br />

1Oth Pfefferkorn Conf. on Signal and Image Processing in Microscopy and<br />

Microanalysis, Cambridge, UK, Sept. 16-19 1991. Scanning Microscopy<br />

International 6, p. 299-314.<br />

32 PESARESI, M.; BENEDIKTSSON, J.A. A New Approach for the Morphological<br />

Segmentation of High-Resolution Satellite Imagery. IEEE Transactions on<br />

Geosciences and Remote Sensing, v. 29 , n. 2 , p. 309 – 320, Feb. 2001.<br />

33 MEINEL G., NEUBERT M. A comparison of segmentation programs for high<br />

resolution remote sensing. In: XXth Congress of the International Society for<br />

Photogrammetry and Remote Sensing, Istanbul. International Archives of<br />

Photogrammetry and Remote Sensing, v. 35, Part B, p. 1097-1105, 2004.<br />

34 BAATZ, M.; SCHÄPE, A. Multiresolution Segmentation: an optimization approach<br />

for high quality multi-scale image segmentation. In: Angewandte Geographische<br />

Informationsverarbeitung XII, eds. Strobl, J., Blaschke, T.& Griesebner, G.<br />

Wichmann-Verlag: Heidelberg. Proceedings of Angewandte Geographische<br />

Informationsverarbeitung XII, p. 12-23, 2000. Disponível em:<br />

<br />

35 DEFINIENS e-Cognition Professional, version 4.0: multiscale image interpretation<br />

software. DEFINIENS IMAGING, 2004. Manual disponível em:<br />

.<br />

36 BARALDI, A.; PARMIGGIANI, F. An Investigation of the Textural Characteristics<br />

Associated with Gray Level Cooccurrence Matrix Statistical Parameters. IEEE<br />

Transactions on Geoscience and Remote Sensing, v. 33, n. 2, p. 293 – 303, Mar.<br />

1995.<br />

37 HARALICK, R.M.; SHANMUGAM, K.; DINSTEIN, J. Textural features for image<br />

classification. IEEE Transactions on System, Man and Cybernetics, v. 3, n. 6, p.<br />

610-621, Nov. 1973.<br />

38 MASUOKA P.M. Use of IKONOS and LANDSAT for malaria control in the<br />

Republic of Korea. Remote Sensing of Environment 88, p. 187–194, 2003.<br />

39 JENSEN, J.R.; Introductory Digital Image Processing: A Remote Sensing<br />

Perspective, 2nd ed. Upper Saddle River, NJ: Prentice-Hall, 1996.


92<br />

40 SHACKLFORD, A.K.; DAVIS, C.H. A Hierarchical FUZZY Classification<br />

Approach for High-Resolution Multispectral Data Over Urban Areas, IEEE<br />

Transactions on Geosciences and Remote Sensing, v. 41, p.2354-2363, Sept.<br />

2003.<br />

41 MELGANI, F.; Al HASHEMY, B.A.R.; TAHA, S.M.R. An explicit FUZZY<br />

supervised classification method for multispectral remote sensing images, IEEE<br />

Transactions on Geosciences and Remote Sensing, v. 38, p.287-295, Jan. 2000.<br />

42 SHACKLFORD, A.K., DAVIS, C.H. A fuzzy classification approach for highresolution<br />

multispectral data over urban areas, In: IGARSS 2002 - International<br />

Geoscience And Remote Sensing Symposium, Toronto, ON, Canada, June 24-28,<br />

2002. Proceedings of IGARSS 2002, v. 2, p. 1621-1623, Jun. 2002.<br />

43 BINAGHI, E.; GALLO, I.; PEPE, M. A cognitive Pyramid for Contextual<br />

Classification of Remote Sensing Images, IEEE Transactions on Geosciences<br />

and Remote Sensing, v. 41, p.2906-2922, Dec. 2003.<br />

44 SUGUMARAN, R.; PAVULURI, M.K. The Use of High-Resolution Imagery for<br />

Identification of Urban Climax Forest Species Using Traditional and Rule-Based<br />

Classification Approach, IEEE Transactions on Geosciences and Remote<br />

Sensing, v. 41, p.1933-1939, Sept. 2003.<br />

45 SHISONG Y.; CHIH-CHENG, H. Texture classification in remotely sensed images,<br />

In: IEEE Southeast Conference. 5 – 7 April 2002, Columbia, SC. Proceedings of<br />

IEEE Southeast p. 62 – 66, Apr. 2002.<br />

46 LELONG, C.C.D.; THONG-CHANE, A. Application of textural analysis on very<br />

high resolution panchromatic images to map coffee orchards in Uganda, In:<br />

IGARSS 2003 - International Geoscience And Remote Sensing Symposium, July<br />

21-25 2003. Proceedings of IGARSS 2003, v. 2, p. 1007 – 1009, 2003.<br />

47 PESARESI, M. Textural classification of very high-resolution satellite imagery:<br />

Empirical estimation of the interaction between window size and detection<br />

accuracy in urban environment, In: ICIP99 - International Conference on Image<br />

Processing, Kobe, 24-28 Oct. 1999. Proceedings of ICIP99, Kobe , v. 1, p. 114 –<br />

118, Oct. 1999.tober 1999, Vol.1, 25AP3.3, pp.114-118<br />

48 BENEDIKTSSON, J.A.; SWAIN, P.H.; ERSOY, O.K. Neural Network Approaches<br />

Versus Statistical Methods In Classification Of Multisource Remote Sensing data.<br />

IEEE Transactions on Geosciences and Remote Sensing, v. 28 , n. 4 , p. 540 –<br />

552, jul. 2003.<br />

49 HERRIES, G.M.; SELIGE, T.M. Characterization of agricultural land using signal<br />

processing and cognitive learning techniques. In: IGARSS 1997 - International<br />

Geoscience And Remote Sensing Symposium, Toronto, ON, Canada, August 3-8,<br />

1997. Proceedings of IGARSS 1997, v. 2, p. 1032 – 1034, Ago. 1997.<br />

50 BENEDIKSSON, J.A.; SVENSSON, J.R.; AMASON, K. Classification and feature<br />

extraction of AVIRIS data. IEEE Transactions on Geosciences and Remote<br />

Sensing, v. 33 , n. 5 , p. 1194 – 1205, Sept. 1995.<br />

51 LEE, C.; LANDGREBE, D.A. Feature extraction based on decision boundaries.<br />

IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 15, n. 4 ,<br />

pp. 388 – 400, Apr. 1993.


93<br />

52 LEE, C.; LANDGREBE, D.A. Decision boundary feature extraction for neural<br />

networks. IEEE Transactions on Neural Networks, v. 8 , n. 1, p. 75 – 83, Jan.<br />

1997.<br />

53 LEE, C.; LANDGREBE, D.A. Decision boundary feature extraction for<br />

nonparametric classification. IEEE Transactions on Systems, Man and<br />

Cybernetics, v. 23 , n. 2 , p. 433 – 444, Mar./Apr. 1993.<br />

54 BLASCHKE, T.; STROBL. J. What is wrong with pixel Some recent developments<br />

Interfacing remote sensing and GIS. GeoBIT/GIS 6, p. 12-17, 2001.<br />

55 SMITH, G.M.; HOFFMANN, A. 2001: An Object based Approach to Urban Feature<br />

Mapping, In: 2 nd International Symposium Remote Sensing of Urban Areas,<br />

Regensburg, Germany, 22-23 June, 2001. Proceedings of Symposium on Remote<br />

Sensing of Urban Areas, Jun. 2001.<br />

56 REGO, L.F.G.; KOCH, B. Automatic classification of land cover with high<br />

resolution data of the <strong>Rio</strong> de Janeiro City Brazil, In: 2 nd GRSS/ISPRS Joint<br />

Workshop on Remote Sensing and Data Fusion over Urban Areas, Berlin,<br />

Germany, 22-23 Mai. 2003. Proceedings of 2 nd GRSS/ISPRS Joint Workshop on<br />

Remote Sensing and Data Fusion over Urban Areas, p. 172 – 176, Mai. 2003.<br />

57 REGO, L.F.G. Automatic land-cover Classification Derived from High-Resolution<br />

IKONOS Satellite Image in the Urban Atlantic Forest in <strong>Rio</strong> de Janeiro, Brazil, by<br />

Means of an Objects-Oriented Approach, Ph.D. Thesis, Universitat Freiburg<br />

(Germany)<br />

58 KRESSLER, F.P.; KIM Y.S.; STEINNOCHER, K.T. Object-oriented land cover<br />

classification of panchromatic KOMPSAT-1 and SPOT-5 data. In: IGARSS 2003 -<br />

International Geoscience And Remote Sensing Symposium, Jul. 21-25 2003.<br />

Proceedings of IGARSS 2003, v. 6, p.3471 – 3473, 2003.<br />

59 KRESSLER, F.P.; BAUER, T.B.; STEINNOCHER, K.T. Object-oriented per-parcel<br />

land use classification of very high resolution images. In: IEEE/ISPRS Joint<br />

Workshop on Remote Sensing and Data Fusion over Urban Areas, nov. 8-9 2001.<br />

Proceedings of IEEE/ISPRS Joint Workshop on Remote Sensing and Data<br />

Fusion over Urban Areas, p.164 – 167, Nov. 2001.<br />

60 CORR, D.G.; WALKER, A.; BENZ, U.; LINGENFELDER, I.; RODRIGUES, A.<br />

Classification of urban SAR imagery using object oriented techniques. In: IGARSS<br />

2003 - International Geoscience And Remote Sensing Symposium, July 21-25<br />

2003. Proceedings of IGARSS 2003, v. 1, p. 188 - 190, 2003.<br />

61 HONG, S.; FUKUE, K.; SHIMODA, H.; SAKATA, T. Multitemporal Satellite<br />

Images for Land Cover Classification. In: IGARSS 1991 - International<br />

Geoscience And Remote Sensing Symposium. Proceedings of IGARSS 1991, p.<br />

1831-1834, 1991.<br />

62 KUSHARDONO, D.; FUKUE, K.; SHIMODA, H.; SAKATA, T. Comparison of<br />

Multi-Temporal Image Classification Methods. In: IGARSS 1995 - International<br />

Geoscience And Remote Sensing Symposium, Jul. 10-14 1995. Proceedings of<br />

IGARSS 1995, v. 2, p. 1282-1284, 1991.<br />

63 FUJIMURA, S.; KIYASU, S. Classification of Terrain Objects using Hyper-<br />

Dimensional (Multi-Temporal Multi-Spectral) Images Through Purpose-Oriented


94<br />

Feature Extraction. In: IGARSS 1999 - International Geoscience And Remote<br />

Sensing Symposium, Jun 28-Jul 02 1999. Proceedings of IGARSS 1999,v. 2, p.<br />

1192-1194, 1988.<br />

64 KAMATA, S.-I.; NIJIMI, M.; KAWAGUCHI, E. A multi-temporal classification of<br />

multi-spectral images using a neural network. In: 12th IAPR International<br />

Conference on Pattern Recognition, out. 9-13 1994. Proceedings of the 12th IAPR<br />

International, v. 2, p. 470 – 472, 1999.<br />

65 KAMATA, S.-I; KAWAGUCHI, E. A Neural Net Classifier for Multi-Temporal<br />

LANDSAT Images Using Spatial and Spectral Information. In: International Joint<br />

Conference on Neural Networks, 1993. Proceedings of 1993 International Joint<br />

Conference on Neural Networks, p. 2199-2202, 1993.<br />

66 JEON, B.; LANDGREBE, D.A. Classification with spatio-temporal interpixel class<br />

dependency contexts. IEEE Transactions on Geosciences and Remote<br />

Sensing, v. 30, n. 4, p. 663 – 672, Jul. 1992.<br />

67 MÜLLER, S.; MOTA, G.L.A.; LIEDTKE, C.-E. Multitemporal Interpretation of<br />

Remote Sensing Data. In: XXth ISPRS Congress, Jul. 12-23 2004 Istanbul, Turkey.<br />

Proceedings of ISPRS. v. 35, part B4, p. 1244-1248, 2004.<br />

68 MOTA, G.L.A. Knowledge-based Interpretation of Multitemporal Low<br />

Resolution Satellite Images. <strong>Rio</strong> de Janeiro, 2004. 206p. Ph.D Electrical<br />

Engineering Thesis - Pontifical Catholic University of <strong>Rio</strong> de Janeiro, <strong>Rio</strong> de<br />

Janeiro, Brazil.<br />

69 CAMPOS, V.O.; FEITOSA, R.Q.; MOTA, G. L.A.; PACHECO, M A.C.;<br />

COUTINHO, H.L.C. Um Método para Modelagem do Conhecimento<br />

Multitemporal no Processo de Classificação Automática de Imagens de Sensores<br />

Remotos. In: XII SBSR – Simpósio Brasileiro de Sensoriamento Remoto, Goiânia,<br />

GO, Brazil, Abr. 16-21 2005. Revista Brasileira de Cartografia, No 57/01, 2005.<br />

p. 28-35. ISSN 1808-0936. Disponível em:<br />

. Acesso em 23 de maio<br />

de 2005.<br />

70 CAMPOS, V. O.; FEITOSA, R. Q.; MOTA, G. L. A.; PACHECO, M A.C.;<br />

COUTINHO, H. L. C; Um método para modelagem de conhecimento<br />

multitemporal no processo de classificação automática de imagens de sensores<br />

remotos. In: Simpósio Brasileiro de Sensoriamento Remoto, 12. (SBSR), 16-21<br />

Abr. 2005, Goiânia. Anais XII Simpósio Brasileiro de Sensoriamento Remoto,<br />

São José dos Campos: INPE, 2005a. Artigos, p. 4021-4028. CD-ROM.<br />

71 LEICA GEOSYSTEMS, ERDAS Imagine, version 8.7: geographic imaging<br />

software. [S.I.] Leica Geosystems GIS & Mapping, 2003.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!