Thiago Broerman Cazes Interpretação Baseada ... - NIMA - PUC-Rio
Thiago Broerman Cazes Interpretação Baseada ... - NIMA - PUC-Rio
Thiago Broerman Cazes Interpretação Baseada ... - NIMA - PUC-Rio
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
A-PDF Merger DEMO : Purchase from www.A-PDF.com to remove the watermark<br />
<strong>Thiago</strong> <strong>Broerman</strong> <strong>Cazes</strong><br />
Interpretação <strong>Baseada</strong> em Conhecimento de<br />
Imagens de Sensores Remotos de Alta Resolução<br />
Dissertação de Mestrado<br />
Dissertação apresentada ao Programa de Pósgraduação<br />
em Engenharia Elétrica da <strong>PUC</strong>-<strong>Rio</strong><br />
como requisito parcial para a obtenção do título de<br />
Mestre em Ciências da Engenharia Elétrica<br />
Orientador: Raul Queiroz Feitosa<br />
Co-orientador: Luiz Felipe Guanaes Rego<br />
<strong>Rio</strong> de Janeiro, 09 de Setembro de 2005
<strong>Thiago</strong> <strong>Broerman</strong> <strong>Cazes</strong><br />
Interpretação <strong>Baseada</strong> em Conhecimento<br />
de Imagens de Sensores Remotos de<br />
Alta Resolução<br />
Dissertação apresentada como requisito parcial para<br />
obtenção do grau de Mestre pelo Programa de Pós-<br />
Graduação em Engenharia Elétrica do Departamento de<br />
Engenharia Elétrica do Centro Técnico Científico da <strong>PUC</strong>-<br />
<strong>Rio</strong>. Aprovada pela Comissão Examinadora abaixo<br />
assinada.<br />
Dr. Raul Queiroz Feitosa<br />
Orientador<br />
Departamento de Engenharia Elétrica - <strong>PUC</strong>-<strong>Rio</strong><br />
Dr. Luiz Felipe Guanaes Rego<br />
Co-Orientador<br />
Departamento de Geografia - <strong>PUC</strong>-<strong>Rio</strong><br />
Dra. Marley Maria Bernardes Rebuzzi Vellasco<br />
Departamento de Engenharia Elétrica - <strong>PUC</strong>-<strong>Rio</strong><br />
Dr. Herman Johann Heinrich Kux<br />
INPE<br />
Prof. José Eugenio Leal<br />
Coordenador Setorial do Centro<br />
Técnico Científico - <strong>PUC</strong>-<strong>Rio</strong><br />
<strong>Rio</strong> de Janeiro, 09 de setembro de 2005
Todos os direitos reservados. É proibida a reprodução total ou<br />
parcial do trabalho sem autorização da universidade, do autor e do<br />
orientador.<br />
<strong>Thiago</strong> <strong>Broerman</strong> <strong>Cazes</strong><br />
Graduação em Engenharia Elétrica com Ênfase em Sistemas e<br />
Computação na UERJ. Objetivando título de Mestre em Métodos<br />
de Apoio a Decisão no Departamento de Engenharia Elétrica da<br />
<strong>PUC</strong>-RJ atuando em pesquisa na área de métodos automáticos de<br />
interpretação em sensoriamento remoto. Toma parte do projeto<br />
ECOWATCH que envolve instituições brasileiras e alemãs e é<br />
gerido pelo programa PROBRAL.<br />
Ficha Catalográfica<br />
<strong>Cazes</strong>, <strong>Thiago</strong> <strong>Broerman</strong><br />
Interpretação baseada em conhecimento de<br />
imagens de sensores remotos de alta resolução<br />
/ <strong>Thiago</strong> <strong>Broerman</strong> <strong>Cazes</strong> ; orientador: Raul<br />
Queiroz Feitosa ; co-orientador: Luiz Felipe<br />
Guanaes Rego. – <strong>Rio</strong> de Janeiro : <strong>PUC</strong>,<br />
Departamento de Engenharia Elétrica, 2005.<br />
94 f. ; 30 cm<br />
Dissertação (mestrado) – Pontifícia<br />
Universidade Católica do <strong>Rio</strong> de Janeiro,<br />
Departamento de Engenharia Elétrica.<br />
Inclui referências bibliográficas.<br />
1. Engenharia elétrica – Teses. 2.<br />
Sensoriamento remoto. 3. Imagens de alta<br />
resolução. 4. Interpretação de imagens baseada<br />
em conhecimento. 5. Classificação de imagens.<br />
6. IKONOS. I. Feitosa, Raul Queiroz. II. Rego,<br />
Luiz Felipe Guanaes. III. Pontifícia Universidade<br />
Católica do <strong>Rio</strong> de Janeiro. Departamento de<br />
Engenharia Elétrica. VI. Título.<br />
CDD: 621.3
Agradecimentos<br />
Ao meu orientador Prof. Raul Queiroz Feitosa;<br />
Ao meu co-orientador Prof. Luiz Felipe Guanaes Rego;<br />
A toda a equipe do projeto ECOWATCH;<br />
Aos professores que participaram da Comissão examinadora;<br />
Aos meus amigos da <strong>PUC</strong>-RIO;<br />
A CAPES, ao DAAD e ao CNPQ pelo apoio financeiro;<br />
Aos alunos de graduação Marlene, Daniele e Ricardo em geografia pelo apoio no<br />
procedimento de interpretação visual e apoio nos procedimentos específicos de<br />
cartografia;<br />
Aos meus pais, familiares e amigos.
Resumo<br />
<strong>Cazes</strong>, <strong>Thiago</strong> <strong>Broerman</strong>; Feitosa, Raul Queiroz . Interpretação <strong>Baseada</strong> em<br />
Conhecimento de Imagens de Sensores Remotos de Alta Resolução <strong>Rio</strong> de<br />
Janeiro, 2005, 94 p. Dissertação de Mestrado – Departamento de Engenharia<br />
Elétrica, Pontifícia Universidade Católica do <strong>Rio</strong> de Janeiro.<br />
A cada dia mais e mais satélites de alta resolução têm se tornado disponíveis,<br />
criando grande demanda por novos métodos de interpretação baseados em<br />
conhecimento. Estes métodos emulam parcialmente o trabalho do especialista em<br />
análise visual de imagens. Nesse contexto, o presente trabalho apresenta um modelo de<br />
classificação baseado no conhecimento do especialista aplicado a imagens de alta<br />
resolução. O modelo de interpretação consiste de três fases. A primeira inclui o<br />
conhecimento espectral e a informação de textura. Na segunda fase dados de SIG<br />
(sistema de informação geográfico) são combinados com o resultado da análise<br />
espectral através de regras nebulosas. Na terceira e última fase é introduzido o<br />
conhecimento multitemporal através de uma estimativa das possibilidades de transição<br />
entre classes de uma mesma área em um dado intervalo de tempo. Para validação desse<br />
modelo experimentos foram realizados em imagens IKONOS e fotos aéreas de 1999,<br />
2001 e de 2002 da área do Parque Estadual da Pedra Branca, que é um importante<br />
fragmento da Floresta Atlântica situado no estado do <strong>Rio</strong> de Janeiro, Brasil.<br />
Palavras-Chaves<br />
Sensoriamento remoto; Imagens de alta resolução; Interpretação de imagens<br />
baseada em conhecimento; Classificação de imagens; IKONOS.
Abstract<br />
<strong>Cazes</strong>, <strong>Thiago</strong> <strong>Broerman</strong>; Feitosa, Raul Queiroz (Advisor). Knowledge-based<br />
Interpretation of High Resolution Remote Sensing Images <strong>Rio</strong> de Janeiro,<br />
2005, 94 p. MSc. Dissertation – Department of Electrical Engineering, Pontifical<br />
Catholic<br />
New high resolution satellites for commercial purposes became available in the<br />
few years. This increases the need of new automatic knowledge based image<br />
interpretation methods. Such methods partially emulate the reasoning of an image<br />
analyst during the visual image interpretation. The present work falls into this context<br />
and proposes an automatic classification model for high resolution remotely sensed<br />
images. The model consists of three stages. In the first stage only spectral and textural<br />
information are used for classification. In the second stage GIS (geographic information<br />
system) data are combined with the result of the spectral analysis by means of fuzzy<br />
rules. In the third stage the multitemporal knowledge is introduced by estimating class<br />
transition possibilities within a given time span. To validate the proposed model<br />
experiments were performed based on IKONOS images from 2001 and 2002 as well as<br />
aerial photos from 1999 of the Pedra Branca Park, which is an important Atlantic Forest<br />
fragment in the State <strong>Rio</strong> de Janeiro in Southeast Brazil.<br />
Keywords<br />
Remote sensing; High Resolution Images; Knowledge-based interpretation; Image<br />
Classification; IKONOS.
Sumário<br />
1 Introdução 13<br />
1.1 Objetivos 15<br />
1.1.1 Objetivo Geral 15<br />
1.1.2 Específico 16<br />
1.2 Organização 16<br />
2 Fundamentos Teóricos 17<br />
2.1 Sensoriamento remoto 17<br />
2.1.1 Sensoriamento remoto em imagens de alta resolução 19<br />
2.1.2 Pré-processamento 22<br />
2.2 Métodos computacionais 24<br />
2.2.1 Classificação de padrões 24<br />
2.3 Segmentação 33<br />
2.3.1 Histórico 33<br />
2.3.2 Segmentação baseada em crescimento de regiões 34<br />
2.3.3 Segmentação em múltiplas escalas 35<br />
2.4 Parâmetros de textura 36<br />
3 Estado da arte em classificação de imagens de alta resolução 37<br />
3.1 Métodos baseados em pixels 37<br />
3.2 Classificação baseada em objetos 40<br />
3.3 Classificação Multitemporal 42<br />
4 Modelo proposto 45<br />
4.1 Introdução 45<br />
4.2 Descrição geral do modelo 45<br />
4.2.1 Fase 1: Classificação automática supervisionada baseada em dados<br />
espectrais e textura 47<br />
4.2.2 Fase 2: Classificação baseada em regras do especialista 47<br />
4.2.3 Fase 3: Representação de conhecimento multitemporal 48<br />
5 Avaliação experimental 51<br />
5.1 Descrição da área de estudo e preparação dos dados 51<br />
5.1.1 Parque Estadual da Pedra Branca 52<br />
5.1.2 Imagens Utilizadas 56<br />
5.1.3 Preparação dos dados 58<br />
5.1.4 Segmentação 59<br />
5.1.5 Definição das classes 60<br />
5.1.6 Processo de classificação visual 64<br />
5.2 Fase 1 – Classificação Espectral e Textura 68<br />
5.2.1 Dados utilizados 68<br />
5.2.2 Resultados 69<br />
5.3 Fase 2 – Classificação estrutural baseada em regras 70
5.3.1 Atributos utilizados na classificação estrutural 71<br />
5.3.2 Regras 73<br />
5.3.3 Ajuste das funções de pertinência 74<br />
5.3.4 Resultados da classificação estrutural baseada em regras 75<br />
5.4 Fase 3 – Classificação multitemporal 77<br />
5.4.1 Resultados do classificador multitemporal 82<br />
5.5 Conclusões 86<br />
6 Comentários finais 87<br />
Referências 89
Lista de Figuras<br />
Figura 1 – Exemplo da influência da refletância e do comprimento de onda em<br />
diferentes tipos de cobertura de solo [] 18<br />
Figura 2 – resposta espectral relativa ao comprimento de onda na banda pancromática<br />
IKONOS [16] 21<br />
Figura 3 – resposta espectral relativa, conforme o comprimento de ondas para o sensor<br />
multiespectral IKONOS [16] 21<br />
Figura 4 – Representação do problema da topografia em captura de imagens de sensores<br />
remotos 23<br />
Figura 5 – Modelo de neurônio artificial não linear [22] 26<br />
Figura 6 – Funções de ativação: (a) tangente hiperbólica sigmóide (tansig) e (b)<br />
sigmóide logarítmica (logsig) a direita. 27<br />
Figura 7 – Arquitetura de uma rede neural do tipo MLP com uma camada oculta 27<br />
Figura 8 – Representação de um individuo e genes em algoritmos genéticos 31<br />
Figura 9 – demonstração do operador genético de crossover simples de um ponto. 32<br />
Figura 10 – Modelo de interpretação baseado em conhecimento para imagens de alta<br />
resolução. 46<br />
Figura 11 - diagrama detalhado do procedimento de interpretação na fase 2. 48<br />
Figura 12 – Exemplo de diagrama de transição de estados para 4 classes 49<br />
Figura 13 – Mapa representativo do Parque Estadual da Pedra Branca localizado no sul<br />
do Eestado do <strong>Rio</strong> de Janeiro. 52<br />
Figura 14 – Imagem IKONOS Multiespectral (4m de resolução) da área do Parque<br />
Estadual da Pedra Branca no ano de 2001. Em azul o recorte correspondente a<br />
Figura 15 e Figura 16 mostrado apenas para exemplificar a riqueza de informação<br />
contida em imagens de alta resolução. 53<br />
Figura 15 – Detalhe da área marcada em azul na Figura 14. Bandas visíveis (RGB).<br />
Observa-se a expansão urbana e as áreas de vegetação. 54<br />
Figura 16 – Detalhe da área marcada em azul na Figura 14. Destaque na banda<br />
infravermelha. Composição (NRG) realçando a vegetação. 54<br />
Figura 17 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a área da<br />
represa facilmente observável a partir da imagem de satélite. 55
Figura 18 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a vegetação<br />
densa típica da Mata Atlântica. 55<br />
Figura 19 – Foto do Parque Nacional da Pedra Branca; detalhe da expansão urbana<br />
sobre a área do parque. 56<br />
Figura 20 – Representação da imagem IKONOS 57<br />
Figura 21 – Ilustração gerada com a foto aérea de 1999 e o DTM da área de estudo<br />
utilizado no processo de ortoretificação. 58<br />
Figura 22 – Comparação entre as segmentações em uma área da imagem selecionada; a)<br />
imagem, segmentação com parâmetro de escala b) 90, c) 60 e d) 30. 60<br />
Figura 23 - Classificação Visual da imagem IKONOS de 2001. 66
Lista de Tabelas<br />
Tabela 1 – Características da legenda utilizada no processo de classificação. 64<br />
Tabela 2 – Percentual de área na imagem classificada coberta por cada classe da legenda<br />
(imagens de 1999 e 2001 classificação visual) 65<br />
Tabela 3 – Número de segmentos gerados por classe da legenda (imagens de 1999 e<br />
2001, classificação visual) 65<br />
Tabela 4 – Alterações reais detectadas pela classificação visual entre os anos de 2001 e<br />
1999, relativo ao numero de segmentos. 67<br />
Tabela 5 – Alterações reais detectadas pela classificação visual entre os anos de 1999 e<br />
2001, percentual de mudança em relação ao ano de 1999. 67<br />
Tabela 6 – Matriz de confusão da classificação espectral da imagem de 2001 após a<br />
primeira fase. Resultados apresentados em percentual relativo a imagem de<br />
referência. 70<br />
Tabela 7 – Configuração dos sistemas neuro-fuzzy. 74<br />
Tabela 8 – Matriz de confusão de uma classificação típica após a Fase 2. Resultado<br />
percentual relativo a referencia de uma interação. 76<br />
Tabela 9 – Transições entre classes para a área de teste. 80<br />
Tabela 10 – Configuração dos sistemas neuro-fuzzy. 81<br />
Tabela 11 – Matriz de transição nebulosa. Valores em zero indicam transições<br />
impossíveis. 83
Lista de Gráficos<br />
Gráfico 1 – Taxa de erro médio de omissão por classe após a classificação<br />
supervisionada com atributos espectrais e textura. 69<br />
Gráfico 2 – Erro de omissão médio por classe após a FASE 2. (resultado após 20<br />
execuções) 75<br />
Gráfico 3 – Erro de classificação global após a FASE 2. (resultado após 20 execuções)<br />
77<br />
Gráfico 4 – Erro de classificação global após a inclusão de conhecimento multitemporal<br />
de maneira CRISP. (resultado após 20 execuções) 82<br />
Gráfico 5 – Evolução do algoritmo genético durante a sua evolução. 84<br />
Gráfico 6 – Avaliação do erro de omissão após a inclusão da informação multitemporal<br />
nebulosa. 84<br />
Gráfico 7 – Taxa de erro global após a classificação por inclusão de dados<br />
multitemporais nebulosos. 85
13<br />
1<br />
Introdução<br />
As técnicas de sensoriamento remoto estão em constante processo de evolução<br />
permitindo acurácia cada vez melhor na descriminação de classes de uso e cobertura do solo [1].<br />
Uma grande gama de novos sensores comerciais vem sendo desenvolvida com<br />
resolução espacial de poucos metros, em alguns casos até mesmo com menos de 1 metro.<br />
Sensores como o IKONOS com resolução de 1m na banda pancromática ou o QUICKBIRD<br />
com 60cm, permitem um desenvolvimento sem precedentes na área de sensoriamento remoto<br />
em imagens de alta resolução.<br />
Além da resolução espacial observa-se uma grande evolução nos sensores orbitais<br />
também em termos de resolução espectral e radiométrica. Sensores com centenas de bandas<br />
espectrais permitem a captura de imagens em diferentes faixas do espectro eletromagnético com<br />
elevada resolução radiométrica em cada uma de suas bandas.<br />
Isso tudo implica em um enorme aumento da complexidade e do volume de dados<br />
disponível em escala mundial, o que faz aumentar a demanda por ferramentas automáticas<br />
capazes de interpretar a massa de dados produzida.<br />
Uma das aplicações mais importantes de sensores remotos são atividades de<br />
planejamento ligadas a preservação ambiental. Monitoramento de queimadas,<br />
acompanhamento de áreas de risco e planejamento de expansão urbana sobre áreas de<br />
florestas são alguns exemplos dessas aplicações.<br />
Nesse contexto tem crescido o interesse mundial por métodos ou sistemas<br />
baseados no conhecimento [2, 3, 4, 5, 6 e 7]. Esses sistemas buscam reproduzir em um<br />
ambiente computacional o raciocínio, muitas vezes subjetivo, do foto-interprete. Ainda<br />
não existem métodos que consigam realizar toda a tarefa de interpretação independente<br />
da interação do ser humano, ou seja, completamente automáticos. Contudo, pesquisas<br />
vêem apontando para um aumento significativo dos níveis de automatização de vários<br />
passos envolvidos no processo de interpretação.<br />
O presente trabalho se insere nesta linha de pesquisa que procura desenvolver novos<br />
métodos automáticos de interpretação de imagens de sensores remotos, especialmente sensores<br />
de alta resolução espacial. Mais especificamente este trabalho investiga métodos<br />
automáticos de classificação com ênfase nos métodos baseados em conhecimento.
14<br />
Para avaliar as técnicas estudadas no âmbito desta pesquisa, foi escolhido como<br />
sítio alvo uma área representativa da Mata Atlântica no Estado do <strong>Rio</strong> de Janeiro.<br />
Inúmeras são as razões que justificam esta escolha. Primeiramente a Mata Atlântica é o<br />
bioma brasileiro mais devastado. Inicialmente esta mata ocupava a região costeira do<br />
país do Ceará ao <strong>Rio</strong> Grande do Sul em área aproximada de 1.000.000 km 2 . Atualmente<br />
está restrita a manchas distribuídas por vários Estados, ocupando área aproximada de<br />
91.000 km 2 . No Estado do <strong>Rio</strong> de Janeiro encontramos atualmente 19.000 km 2<br />
ocupados com a Mata Atlântica 1 . Este nível de devastação pode ser explicado tanto<br />
pelo valor econômico de suas espécies florestais, como pela intensa ocupação humana<br />
já que aproximadamente 70% da população brasileira vive em seu entorno, o que<br />
implica em todo tipo de pressão antrópica [8, 9].<br />
A Mata Atlântica, definida pela UNESCO como uma Reserva da Biosfera 2 , é<br />
uma das florestas mais ricas do mundo em termos de diversidade biológica, com<br />
elevados índices de endemismo: 30% das espécies arbóreas, 150 tipos de pássaros e 50<br />
tipos de pequenos animais, entre outros. É responsável pela manutenção de nascentes de<br />
rios que abastecem cerca de 10.000.000 pessoas. Além de ter efeito muito positivo sobre<br />
a sustentação e estabilidade de encostas íngremes. Sua existência também contribui para<br />
a qualidade de vida da população que vive em seu entorno, principalmente, por seu<br />
valor estético, criando uma paisagem equilibrada e saudável. O <strong>Rio</strong> de Janeiro,<br />
juntamente com os estados do Espírito Santo e da Bahia, são apontados como centros de<br />
endemismo de flora e fauna Atlântica [10].<br />
A preservação deste bioma necessariamente envolve o conhecimento da<br />
distribuição espacial destes remanescentes (land-cover), assim como a dinâmica de sua<br />
transformação temporal (land-cover change). As tecnologias orbitais são<br />
reconhecidamente capazes de produzir este tipo de mapeamento e vêm sendo utilizadas<br />
para este fim com resultados práticos como, por exemplo, a série de mapeamentos<br />
desenvolvidos pela Fundação SOS Mata Atlântica 3 e pelo Instituto Nacional de<br />
Pesquisas Espaciais - INPE.<br />
Nas últimas décadas o mapeamento do padrão de cobertura do espaço<br />
geográfico vem sendo produzido a partir de imagens de média resolução como a série<br />
LANDSAT. Os mapas de cobertura produzidos a partir dessas imagens geram produtos<br />
1 Atlas dos Remanescentes Florestais da Mata Atlântica – Período 1995/2000 – Fundação SOS Mata<br />
Atlântica<br />
2 http://www.unicamp.br/nipe/rbma/
15<br />
compatíveis com a escala 1:50.000 ou menores em função de sua resolução espacial de<br />
30 m × 30 m. Esses mapas permitem uma visão geral do problema, mas dificultam, pela<br />
escala, a definição mais precisa dos limites do processo de mudança, dificultando a<br />
definição de parâmetros operacionais que permitam ações objetivas na solução de<br />
problema locais [11].<br />
Os novos sensores orbitais com resolução espacial de poucos metros<br />
possibilitam a produção de mapeamentos em escalas maiores que permitem uma<br />
compreensão detalhada tanto do padrão de cobertura do espaço como, com o passar do<br />
tempo, do nível de alteração deste padrão [12]. Em função das resoluções espacial,<br />
espectral e radiométrica dessas imagens será possível identificar classes mais finas que<br />
as produzidas pelos sistemas orbitais anteriores, o que permitirá, consequentemente,<br />
uma melhor compreensão dos processos ambientais nas áreas sob risco e uma definição<br />
mais direcionada e mais fundamentada das ações que visam a sua preservação.<br />
É, portanto, importante, através de um processo ordenado e sistemático de<br />
pesquisa, avaliar a eficiência do processo de classificação de imagens orbitais de alta<br />
resolução em termos de acurácia e detalhamento de classes qualitativas de cobertura,<br />
visando aumentar o conhecimento do padrão de cobertura dos remanescentes de Mata<br />
Atlântica no Estado do <strong>Rio</strong> de Janeiro e contribuir com tecnologias de ponta para sua<br />
conservação.<br />
1.1<br />
Objetivos<br />
1.1.1<br />
Objetivo Geral<br />
O objetivo principal desse trabalho é avaliar um modelo baseado em<br />
conhecimento para a interpretação automática de imagens de sensores remotos de alta<br />
resolução. Embora o modelo tenha elementos de aplicabilidade geral, o trabalho foi<br />
direcionado a fragmentos florestais da Mata Atlântica, mais especificamente ao Parque<br />
Nacional da Pedra Branca no Município do <strong>Rio</strong> de Janeiro, RJ, Brasil.<br />
3 http://www.sosmatatlantica.org.br/
16<br />
1.1.2<br />
Específico<br />
São objetivos específicos deste trabalho:<br />
• Construir um modelo de classificação que leve em conta três<br />
modalidades de conhecimento: espectral, estrutural (ou contextual) e<br />
multitemporal;<br />
• Avaliar a contribuição individual de cada uma das modalidades de<br />
conhecimento para o desempenho da classificação de imagens de alta<br />
resolução.<br />
1.2<br />
Organização<br />
Este trabalho está organizado em seis capítulos descritos mais detalhadamente a<br />
seguir.<br />
O capítulo 2 descreve os principais métodos de interpretação baseados em<br />
conhecimento pesquisados atualmente, com foco em imagens de alta resolução. Nesse<br />
capítulo são abordados assuntos como interpretação baseada em pixels ou objetos,<br />
segmentação e multitemporalidade.<br />
O capítulo 3 apresenta de forma introdutória os conceitos teóricos usados neste<br />
trabalho. Esse capítulo se divide em duas partes. A primeira introduz conceitos básicos<br />
sobre sensoriamento remoto necessários para um bom entendimento do modelo<br />
apresentado. A segunda parte trata de métodos computacionais utilizados na<br />
implementação dos modelos.<br />
No quarto capítulo é apresentado o modelo de interpretação baseado em<br />
conhecimento proposto neste trabalho.<br />
O capítulo 5 descreve os experimentos realizados para avaliar os métodos<br />
propostos no trabalho. A área de estudo e a base de dados são descritos, assim como os<br />
procedimentos de pré-processamento das imagens. Esse capítulo também apresenta a<br />
legenda da aplicação escolhida, os procedimentos de segmentação das imagens e a<br />
metodologia de classificação visual realizada por um especialista, que produziu os<br />
dados de referência para a avaliação dos métodos propostos no trabalho. O capítulo<br />
termina apresentando e discutindo os resultados experimentais.<br />
No sexto e último capítulo é realizada uma análise global dos resultados e são<br />
apresentadas conclusões e propostas para trabalhos futuros.
17<br />
2<br />
Fundamentos Teóricos<br />
A presente pesquisa tem um caráter claramente multidisciplinar. Por isso foi<br />
introduzido neste documento o presente capítulo, cujo propósito é apresentar os<br />
fundamentos básicos teóricos e algumas técnicas das áreas relacionadas que são<br />
essenciais para a compreensão dos modelos e procedimentos apresentados nesse<br />
trabalho.<br />
Leitores já iniciados nos temas aqui abordados poderão prescindir da leitura da<br />
seção correspondente ao capítulo sem prejuízo para a compreensão do restante deste<br />
trabalho.<br />
Na primeira parte do capítulo é apresentada uma breve introdução sobre<br />
sensoriamento remoto e técnicas de processamento de imagens de sensores remotos,<br />
principalmente em alta resolução. Detalhes de correção geométrica e topográfica são<br />
apresentados.<br />
Na segunda parte são apresentados algoritmos específicos de classificação<br />
supervisionada utilizados durante o trabalho. Também são descritos modelos de<br />
classificação baseados em lógica nebulosa e sistemas neuro-fuzzy e algoritmos<br />
genéticos utilizados para otimização de parâmetros.<br />
O algoritmo de segmentação ou extração dos objetos a partir de imagens de<br />
sensores remotos é descrito na terceira parte do capítulo.<br />
Na quarta e última parte apresenta-se uma breve descrição dos parâmetros de<br />
Haralick [37], utilizados como atributos de textura ao longo desse trabalho.<br />
2.1<br />
Sensoriamento remoto<br />
Sensoriamento Remoto é a técnica ou arte de obter informações sobre objetos,<br />
áreas e fenômenos através da análise de informações obtidas sem contato direto com o<br />
objeto, área ou fenômeno de estudo [1]. Nesse contexto a análise de uma foto de uma<br />
determinada área geográfica pode ser denominada de sensoriamento remoto.
18<br />
A principal ferramenta do sensoriamento remoto é o sensor de captação da<br />
imagem a ser analisada. Atualmente, existe uma grande variedade de sensores ativos e<br />
passivos para a captação de imagens [13]. Sensores ativos emitem energia em um<br />
determinado comprimento de onda e a captam de volta após ser refletida pelo material<br />
analisado. Através de medidas realizadas na emissão e captação é possível a estimação e<br />
criação de imagens remotas. Sensores passivos não emitem radiação, mas simplesmente<br />
captam a reflexão da radiação, principalmente a radiação eletromagnética solar, sobre os<br />
objetos. Esse trabalho concentrara-se em sensores passivos, sensíveis a radiações<br />
eletromagnéticas.<br />
Esses sensores baseiam-se na propagação da energia eletromagnética e na sua<br />
interação com alvos naturais. Em poucas palavras a energia eletromagnética emitida<br />
pelo sol atinge alvos naturais e é refletida por esses, sendo então capturada por sensores<br />
remotos transportados por satélites, aeronaves, balões meteorológicos, etc. Essa reflexão<br />
eletromagnética sofre alguns fenômenos devidos à interação com a cobertura do solo ou<br />
à dispersão ou absorção pela atmosfera. As influências da atmosfera não são tratadas<br />
nesse trabalho e podem ser melhor estudadas em [1].<br />
Ao atingir alguma região da superfície da Terra a radiação eletromagnética sofre<br />
interações de acordo com as características físico-químicas da cobertura do solo ou da<br />
composição do objeto; como resultado uma parte da energia eletromagnética é refletida<br />
e uma outra parte é absorvida pela superfície. Em termos gerais, tipos diferentes de<br />
cobertura de solo oferecem comportamentos diferentes, conforme o comprimento de<br />
onda por ele atingido pelo alvo, como o apresentado na Figura 1.<br />
Figura 1 – Exemplo da influência da refletância e do comprimento de onda em diferentes tipos<br />
de cobertura de solo [14]
19<br />
Os sensores remotos passivos que detectam energia eletromagnética refletida ou<br />
emitida pelo alvo permitem medir a proporção de energia refletida da superfície<br />
terrestre que os atinge, num determinado comprimento de onda.<br />
2.1.1<br />
Sensoriamento remoto em imagens de alta resolução<br />
Os estudos em sensoriamento remoto em alta resolução espacial começaram a<br />
ganhar força quando câmeras a bordo de aviões foram utilizadas para a obtenção<br />
fotografias aéreas. Durante anos as tecnologias tanto de obtenção quanto de<br />
processamento e análise dessas imagens se desenvolveram intensamente, inicialmente<br />
nos setores militares e em seguida na administração pública e em setores privados [15].<br />
Os mapas produzidos por fotos aéreas podem ser obtidos em diferentes escalas,<br />
dependendo basicamente do tipo de câmera utilizada e da altitude do sobrevôo.<br />
O grande problema detectado com as imagens aéreas são os seus elevados custos<br />
de obtenção e a complexidade que cresce com a área a ser analisada. A análise de uma<br />
área relativamente grande com fotos aéreas é um processo caro e trabalhoso<br />
principalmente pelo complexo processo de obtenção que envolve um plano de vôo<br />
preciso e o controle necessário para garantir a homogeneidade na aquisição das<br />
imagens.<br />
Com o avanço das tecnologias espaciais especialmente a partir de 1972, e o<br />
desenvolvimento de câmeras e sensores digitais, foi possível a aquisição de imagens a<br />
partir de satélites não militares. O programa LANDSAT surgiu ainda em 1972 com o<br />
objetivo de produzir imagens de toda a superfície do globo terrestre de maneira contínua<br />
e sistemática, e a custos razoáveis.<br />
Desde o início da utilização não-militar de sensores remotos baseados em<br />
satélites, um grande número de diferentes sensores foram desenvolvidos. Estes sensores<br />
passam a forçar os desenvolvimentos científicos, e tecnológicos, tanto no que se refere a<br />
resolução espacial quando a resolução radiométrica. As imagens geradas estão sendo<br />
utilizadas amplamente, principalmente em tarefas de planejamento. A maior<br />
periodicidade na obtenção das imagens tornou possível uma análise de séries históricas<br />
em determinadas regiões que mostram claramente tendências de alteração de padrões de<br />
ocupação de solo. Com esses dados é possível um melhor planejamento a longo e médio
20<br />
prazo de atividades que impactam direta ou indiretamente no padrão de cobertura do<br />
solo.<br />
Os sensores remotos baseados em satélites tornaram possível uma utilização<br />
mais ampla e democrática da informação e do sensoriamento remoto como um todo.<br />
Porém, o tipo de informação extraída depende fundamentalmente do tipo de imagem<br />
obtida. Em outras palavras, uma imagem LANDSAT consegue representar objetos não<br />
menores do que 900 m 2 , assim como uma imagem de um satélite de metrologia como o<br />
AVHRR consegue representar informações a partir de 1Km 2 .<br />
Em meados de 1999 ocorreu um marco na área de sensoriamento remoto para<br />
aplicações não militares. O IKONOS, o primeiro satélite de alta resolução destinado<br />
exclusivamente para sensoriamento remoto e voltado a objetivos civis foi lançado. Com<br />
a resolução espacial de 1m no modo pancromático, as imagens IKONOS trouxeram<br />
para o mundo do sensoriamento remoto uma nova gama de possibilidades. Pela primeira<br />
vez era possível, de forma sistemática, em alguns casos à custos inferiores aos das fotos<br />
aéreas, a identificação e representação de objetos com até 1m 2 .<br />
O satélite IKONOS realiza a órbita em torno da Terra em aproximadamente 98<br />
minutos em uma altitude de aproximadamente 680 km [16]. Lançado em uma órbita em<br />
sincronia com o sol o IKONOS consegue passar por uma dada longitude em<br />
praticamente o mesmo horário local (10h30min AM) diariamente. Com isso o IKONOS<br />
é capaz de produzir imagens de 1m de resolução de uma determinada área geográfica a<br />
cada 3 dias.
21<br />
Figura 2 – resposta espectral relativa ao comprimento de onda na banda pancromática<br />
IKONOS [16]<br />
Figura 3 – resposta espectral relativa, conforme o comprimento de ondas para o sensor<br />
multiespectral IKONOS [16]<br />
O satélite IKONOS produz dois tipos de imagens bem distintas em termos de<br />
resolução espectral e espacial. Com a resolução de apenas 1m por pixel a imagem
22<br />
pancromática possui uma faixa de sensibilidade eletromagnética que cobre todo o<br />
espectro visível (Figura 2). A imagem multiespectral IKONOS possui uma resolução<br />
um pouco menor, 4 m por pixel, porém essa imagem possui quatro bandas de detecção<br />
oferecendo uma faixa dinâmica mais ampla em cada uma dessas bandas (Figura 3).<br />
Todas as imagens IKONOS são geradas com uma resolução radiométrica de 11-<br />
bits e 8-bits. A resolução radiométrica de 11-bits permite uma faixa dinâmica de níveis<br />
muito maior, podendo chegar a 2048 níveis em cada banda. A resolução de 8-bits é<br />
fornecida por compatibilidade com softwares existentes. O processamento com 11bits<br />
fornece uma maior riqueza de detalhes já que são 1048 níveis de cinza e não 256 como<br />
no caso das imagens LANDSAT.<br />
Assim como o IKONOS, outros satélites de alta resolução já foram e outros<br />
serão ainda lançados voltados a propósitos não militares. O QUIKCKBIRD, por<br />
exemplo, já operacional e trabalhando em uma resolução espacial de até 60cm e o<br />
SPOT 5 com uma resolução de até 2.5m já estão operacionais comercialmente.<br />
O governo Brasileiro mostra o seu envolvimento com sensoriamento remoto em<br />
imagens de alta resolução através de um programa em conjunto com o Governo Chinês<br />
chamado CBERS (China-Brazil Earth Resources Satellite). Através desse programa<br />
satélites com câmeras de médias resoluções já se encontram operacionais. Esse mesmo<br />
programa promete colocar em órbita os satélites CBERS-3 e CBERS-4 em 2008 e 2010<br />
respectivamente. Esses satélites devem operar com câmeras de média resolução capazes<br />
de produzir imagens com ate 5m de resolução espacial na banda pancromática, e ainda<br />
com uma taxa de revista (período no qual o satélite passa no mesmo local) de<br />
aproximadamente cinco dias.<br />
2.1.2<br />
Pré-processamento<br />
Para que várias imagens de sensores remotos sejam integradas entre si e com<br />
outros dados geográficos em um ambiente SIG (Sistema Geográfico de Informação), é<br />
necessário um processo prévio de correção.<br />
O processo de georeferenciação é o responsável por converter as coordenadas<br />
das imagens de sensores remotos para uma base geográfica real. Esse processo associa à<br />
posição de cada pixel da imagem a coordenada geográfica do ponto imageado. Isso<br />
permite, por exemplo, a integração da informação contida na imagem com dados de SIG
23<br />
disponíveis em todo o mundo. O georeferenciamento parte normalmente de pontos na<br />
imagem, cuja coordenada geográfica é bem conhecida, os chamados pontos de controle<br />
ou GCPs (“ground control points”). Os GCPs podem ser obtidos através de coleta de<br />
campo por GPS (Global Position System ou Sistema de Posicionamento Global) ou até<br />
mesmo a partir de algum dado já georeferenciado. Em outras palavras, os GCPs são um<br />
conjunto de pontos, facilmente identificáveis, em que se pode definir o posicionamento<br />
real ou geográfico de alguma maneira específica. A partir desses pontos procedimentos<br />
matemáticos são aplicados com o objetivo de realizar uma reamostragem na imagem<br />
como um todo segundo um sistema de coordenadas geográficas. Como resultado do<br />
georeferenciamento obtém-se uma nova imagem, denominada de “imagem retificada”,<br />
ou “georeferenciada”.<br />
Um outro problema com imagens de satélite diz respeito à altimetria. Em regiões<br />
muito montanhosas ou em uma escala muito fina o tamanho de um pixel pode não estar<br />
compatível com a realidade apresentada em campo.<br />
Sensor<br />
remoto<br />
1pixel = 1m<br />
Figura 4 – Representação do problema da topografia em captura de imagens de sensores<br />
remotos<br />
A Figura 4 ilustra o problema decorrente da elevação do terreno relacionado na<br />
captura de imagens de sensores remotos. Um pixel de 1m (área em azul) representa na<br />
realidade ou geograficamente falando uma área maior (em vermelho).<br />
A solução para o problema da correção altimétrica está na georetificação em<br />
conjunto com a correção altimétrica com base no modelo digital de terreno, ou DTM<br />
(Digital Terrain Model). Esse processo é comumente chamado de “ortoretificação”. O<br />
DTM é uma representação digital da superfície com informações altimétricas, que pode
24<br />
ser obtido a partir de isolinhas, ou seja, das curvas de nível da região estudada. Por ser<br />
digital possui uma resolução espacial e radiométrica assim como as imagens. A<br />
resolução, principalmente a espacial, do DTM utilizado afeta a qualidade da<br />
ortoretificação.<br />
Além de alterar propriedades geométricas nas imagens capturadas, a topografia<br />
traz consigo outros efeitos, como a iluminação e a reflectância dos objetos. Técnicas de<br />
correção topográficas também são utilizadas para amenizar esses problemas. Essas<br />
técnicas levam em conta, além do DTM, vários outros fatores, tais como a posição do<br />
sol no ato da captura da imagem e a altitude do sensor.<br />
Uma descrição detalhada dos procedimentos específicos, para a ortorretificação<br />
e para a correção topográfica, pode ser encontrada em [15, 17, 18 e 19].<br />
2.2<br />
Métodos computacionais<br />
Esta seção aborda os fundamentos e as técnicas de processamento de imagem,<br />
inteligência computacional e reconhecimento de padrões necessários para a<br />
compreensão do restante do trabalho.<br />
2.2.1<br />
Classificação de padrões<br />
O processo de classificação de padrões é o procedimento computacional capaz<br />
de atribuir a diferentes grupos ou classes alguns determinados padrões apresentados. Por<br />
exemplo, um procedimento que separe laranjas podres de laranjas sadias pode ser<br />
considerado um procedimento de classificação de padrões onde os padrões são os<br />
objetos analisados (laranjas). Os inúmeros fatores que tipicamente se usam para<br />
diferenciar uma laranja podre de uma sadia, por exemplo, o cheiro, a cor, a textura<br />
dentre outros são conhecidos como atributos dos padrões analisados.<br />
Os procedimentos de classificação podem ser divididos em dois grandes<br />
conjuntos. Primeiro pode-se definir um grupo de procedimentos que não necessita de<br />
dados de treinamento, ou seja, não é necessária a apresentação das classes dos de uma<br />
parte do conjunto de padrões (conjunto de treinamento) de cada uma das classes para
25<br />
que as mesmas sejam reconhecidas. Esses procedimentos normalmente trabalham<br />
dividindo o conjunto de padrões segundo os atributos apresentados ao sistema e são<br />
denominados “métodos de classificação não supervisionados”.<br />
Um outro conjunto de métodos e algoritmos trabalha de maneira supervisionada,<br />
ou seja, existe uma fase de ajuste de parâmetros dos procedimentos denominada de fase<br />
de treinamento onde as classes de cada padrão são apresentadas ao modelo. Assim como<br />
o ser humano, que tem que aprender alguma tarefa, esses métodos utilizam-se da fase de<br />
treinamento para “aprender” a como diferenciar as classes apresentadas ao sistema com<br />
base no conjunto de atributos disponíveis. Esses métodos são mais robustos em termos<br />
de desempenho de classificação e em tarefas especificas de classificação de imagens<br />
sensores remotos tem mostrado melhor desempenho segundo a literatura exposta no<br />
Capitulo 2.<br />
Nesse trabalho foi abordado um modelo de classificação supervisionada baseado<br />
em Redes Neurais Artificiais.<br />
Em um segundo momento é abordado métodos supervisionados baseados em<br />
lógica nebulosa (ou lógica nebulosa) nas tarefas de classificações de padrões. Esse tipo<br />
de procedimento depende da elaboração de regras de inferência por um especialista.<br />
Essas regras interagem sobre os atributos dos padrões analisados inferindo a classe de<br />
cada padrão.<br />
No final desse capítulo serão apresentadas resumidamente as teorias sobre<br />
sistemas neuro-fuzzy e algoritmos genéticos. Esses métodos serão utilizados mais a<br />
frente no modelo proposto, neste trabalho.<br />
2.2.1.1<br />
Redes neurais artificiais<br />
O cérebro humano pode ser visto como um processador de informações<br />
altamente complexo, não-linear e paralelo [20]. Por causa dessa capacidade de<br />
aprendizado e generalização o funcionamento dos neurônios tem sido estudado e com o<br />
objetivo de reproduzi-los em ambientes computacionais.<br />
O neurônio artificial é uma unidade de processamento de informação<br />
fundamental para a operação das chamadas “Redes Neurais Artificiais” [20].
26<br />
Bias (b k )<br />
x 1<br />
w k1<br />
x 2<br />
w k2<br />
Entrada<br />
x 3<br />
w k3<br />
Σ<br />
Junção<br />
aditiva<br />
v k<br />
φ(.)<br />
Função de<br />
ativação<br />
Saída<br />
y k<br />
x m<br />
w km<br />
Pesos<br />
sinápticos<br />
Figura 5 – Modelo de neurônio artificial não linear [20]<br />
O modelo de um neurônio artificial é apresentado na Figura 5. O neurônio<br />
artificial consiste de m entradas ponderadas pelos pesos w k1..m e então somadas numa<br />
junção aditiva. Esses pesos são conhecidos como pesos sinápticos e são responsáveis<br />
pela capacidade de modelar e aprender de uma rede neural. Uma função de ativação é<br />
colocada em seguida ao somador, essa função é dita como restritiva segundo [20], o que<br />
em linhas gerais significa que ela limita o intervalo permissivo de saída do neurônio a<br />
que se referencia. O modelo prevê ainda um ajuste denominado bias que tem o efeito de<br />
aumentar ou diminuir o valor aplicado à função de ativação [20].<br />
Em termos matemáticos pode-se definir a operação no neurônio k da Figura 5,<br />
que possui as entradas j (j=1,2,....m) através das seguintes equações:<br />
u<br />
k<br />
m<br />
= ∑ j =<br />
1<br />
w<br />
kj<br />
x<br />
j<br />
Eq.(1)<br />
v = u + b<br />
Eq.(2)<br />
k<br />
k<br />
k<br />
y<br />
( )<br />
= ϕ<br />
Eq.(3)<br />
k<br />
v k<br />
A função de ativação φ(.) é responsável pela definição da saída de um neurônio<br />
em termos de uma entrada v. Essas funções podem ser representadas de inúmeras<br />
maneiras. Mais comumente, e nesse trabalho, utilizam-se funções sigmóides (Figura 6).
27<br />
Basicamente o tipo de funções de ativação limita o comportamento no intervalo de<br />
saída. A função tangente hiperbólica sigmóide (tansig) por exemplo pode ter uma saída<br />
variando entre -1 e 1, enquanto a sigmóide logarítmica (logsig) tem uma saída sempre<br />
entre 0 e 1.<br />
1<br />
tansig<br />
1<br />
logsig<br />
0.5<br />
0.5<br />
0<br />
0<br />
-0.5<br />
-0.5<br />
-1<br />
-3 -2 -1 0 1 2 3<br />
-1<br />
-3 -2 -1 0 1 2 3<br />
(a)<br />
(b)<br />
Figura 6 – Funções de ativação: (a) tangente hiperbólica sigmóide (tansig) e (b) sigmóide<br />
logarítmica (logsig) a direita.<br />
Uma vez definida a característica de um neurônio pode-se definir a arquitetura<br />
de uma rede neural ligando neurônios entre si através dos pesos sinápticos. A<br />
configuração apresentada neste trabalho é a de uma rede neural de múltiplas camadas<br />
conhecida como “Perceptrons de múltiplas camadas” ou MLP (multilayer perceptrons).<br />
Essa configuração é ilustrada na Figura 7.<br />
Sinal de<br />
entrada<br />
Sinal de<br />
saída<br />
Camada<br />
de entrada<br />
Camada<br />
escondida<br />
Camada<br />
de saída<br />
Figura 7 – Arquitetura de uma rede neural do tipo MLP com uma camada oculta
28<br />
As redes MLPs consistem de um conjunto de unidades sensoriais, ou neurônios,<br />
arrumados em camadas, conforme o apresentado na Figura 7. Tem-se uma camada de<br />
entrada com nós não computacionais, uma ou mais camadas ocultas com nós<br />
computacionais e ainda uma camada de saída com nós também computacionais. Nesse<br />
trabalho exploram-se apenas redes neurais do tipo MLP com uma camada oculta. Os<br />
nós chamados computacionais realizam algum tipo de processamento, conforme o<br />
modelo do neurônio apresentado anteriormente. Os nós não computacionais são apenas<br />
entradas ou saídas de dados e não realizam qualquer processamento.<br />
Cada arco que liga um neurônio a outro em uma rede MLP possui um peso<br />
sináptico associado denotado por w ji . Esse peso pode ser entendido como um peso que<br />
associa à entrada do neurônio j a saída do neurônio i. Em uma rede neural do tipo MLP<br />
existe um grande número de pesos a serem definidos ou estimados. O algoritmo de<br />
retropropagação, ou BP (backpropagation), é um processo supervisionado de<br />
aprendizado baseado no gradiente descendente que estima os valores dos pesos<br />
sinápticos a partir de padrões de treinamento. Nesse algoritmo o erro de previsão se<br />
propaga da camada de saída para a camada oculta, procurando assim o melhor conjunto<br />
de valores para os pesos de toda a rede. Uma descrição detalhada do algoritmo de<br />
retropropagação é relativamente complexa e não foge ao escopo desse trabalho. Esse<br />
procedimento pode ser encontrado com mais detalhes de implementação em [20].<br />
Um outro ponto interessante utilizado nesse trabalho sobre as redes neurais diz<br />
respeito à relação entre saída da rede neural e a probabilidade a posteriori. Segundo<br />
Haykin em [20] um classificador MLP aproxima de fato as probabilidades das classes a<br />
posteriori, desde que o tamanho do conjunto de treinamento seja suficientemente<br />
grande, garantindo que o processo de aprendizado por retropropagação não caia em um<br />
mínimo local.<br />
2.2.1.2<br />
Lógica nebulosa<br />
A lógica nebulosa permite a expressão de forma clara e simples da incerteza e<br />
imprecisão inerentes às avaliações de um especialista, cuja experiência se deseja<br />
modelar num sistema de classificação baseado em conhecimento. Em outras palavras, a<br />
lógica nebulosa pode ser vista como uma maneira de expressar incerteza [21]. A lógica
29<br />
nebulosa permite representar valores de pertinência (grau de verdade) intermediários<br />
entre os valores de verdadeiro e falso da lógica clássica (bivalente).<br />
As variáveis de entrada em um sistema nebuloso são mapeadas em conjuntos<br />
nebulosos por meio de funções de pertinência. O mapeamento de uma entrada em um<br />
conjunto nebuloso gera um grau de pertinência dessa entrada ao conjunto nebuloso.<br />
Por meio de regras SE-ENTÃO o sistema é capaz de expressar condições de<br />
pertinência. Tais regras são formuladas da seguinte forma: SE (ANTECEDENTES)<br />
ENTÃO (CONSEQUENTE). Nessa formulação os ANTECEDENTES expressam as<br />
condições a serem satisfeitas que resultam em um desdobramento representado pelo<br />
CONSEQUENTE da regra.<br />
Através dos mecanismos da lógica nebulosa é possível a criação de sistemas de<br />
inferência nebulosa capazes de realizar tarefas complexas, como modelagem,<br />
classificação e previsão. Esse trabalho se concentra na elaboração de sistemas nebulosos<br />
voltados para a tarefa de classificação de padrões.<br />
2.2.1.3<br />
Sistema neuro-fuzzy<br />
O grande problema dos sistemas de classificação nebulosos está na quantidade<br />
de parâmetros livres a serem estimados para um funcionamento adequado do modelo.<br />
Esses parâmetros livres se encontram na formação das funções de pertinência dos<br />
antecedentes e dos conseqüentes. Em outras palavras para se criar uma regre nebulosa<br />
do tipo SE ALGO FOR ALTO ENTAO A SAIDA E BAIXA precisa definir-se que tipo<br />
de função e quais os parâmetros das funções de pertinência ALTO e BAIXO nesse<br />
contexto.<br />
Nesse contexto introduzem-se os sistemas adaptativos neuro-fuzzy. Unindo a<br />
flexibilidade dos sistemas fuzzy com a arquitetura de Redes Neurais. A idéia central por<br />
trás do algoritmo neuro-adaptativo de treinamento utilizado no ANFIS (adaptivenetwork-based<br />
fuzzy inference system) [22] é o aprendizado por meio de dados de<br />
treinamento por um algoritmo de retropropagação do erro [23] em conjunto com um<br />
método dos mínimos quadráticos. Esse método é muito semelhante ao utilizado para a<br />
aprendizagem em redes neurais artificiais.<br />
Os sistemas ANFIS possuem uma arquitetura em rede similar a arquitetura das<br />
redes neurais artificiais, que mapeiam um conjunto de entradas em uma saída. Esse
30<br />
mapeamento e feito através de funções de pertinência fuzzy. Os dados de entrada então<br />
são mapeados pelas funções de pertinência relacionadas a entrada e então por outras<br />
funções de pertinência associadas as saídas. Todas essas funções de pertinência<br />
possuem uma serie de parâmetros livres. A computação desses parâmetros e facilitada<br />
nos sistemas do tipo ANFIS pelo calculo do vetor de gradiente do erro relacionado a<br />
saída. Em outras palavras um sistema ANFIS computa os parâmetros das funções de<br />
pertinência nebulosa interativamente durante a fase de treinamento calculando a<br />
resposta obtida pelo sistema e a resposta esperada. E então pelo erro entre essas<br />
respostas o sistema automaticamente se adapta modificando os parâmetros das funções<br />
de pertinência fuzzy relacionadas com os antecedentes o os conseqüentes obtendo assim<br />
uma nova resposta para o sistema. Esse procedimento e executado com os dados de<br />
treinamento até que não se tenha mais diminuição significativa do erro relativo a saída<br />
esperada.<br />
Para testar a capacidade de generalização do sistema fuzzy é utilizado um<br />
conjunto de dados de validação. Esses dados tem o mesmo formato que os dados de<br />
treinamento e os de teste. Geralmente procura-se um sistema de inferência fuzzy capaz<br />
de mapear uma dada entrada em uma saída de forma eficiente. O modelo dos sistemas<br />
ANFIS é fixo, ou seja, depois de treinado o sistema não modifica mais os seus<br />
parâmetros. Dessa forma existe uma tendência de overfit aos dados de treinamento o<br />
que pode causar um desempenho ruim durante os dados de teste. Nesse caso os dados de<br />
validação são usados e aplicados ao sistema de inferência fuzzy a cada passo do<br />
treinamento. Esse resultado e monitorado e tipicamente quando o erro de validação<br />
aumenta o sistema de inferência pode ser considerado em sua etapa de máxima<br />
generalização e o treinamento para.<br />
Uma particularidade do sistema ANFIS e que se trata de um sistema fuzzy do<br />
tipo Takagi-Sugeno [24]. A principal conseqüência desse tipo de sistema e que somente<br />
é possível à representação de uma saída. Esse tipo de sistema foi desenvolvido<br />
inicialmente para previsão. Na pratica podemos ter em um sistema ANFIS inúmeras<br />
entradas, inúmeras regras porem apenas uma saída. Esse fato é altamente relevante<br />
nesse trabalho de classificação de padrões e define a arquitetura do classificador<br />
baseado em regras apresentado nesse trabalho.
31<br />
2.2.1.4<br />
Algoritmos Genéticos<br />
Algoritmo genético é um método de resolução de problemas de otimização<br />
baseado nos conceitos do processo biológico de evolução das espécies conhecido como<br />
a seleção natural. A teoria da seleção natural das espécies foi desenvolvido por C.<br />
Darwin muito tempo antes do descobrimento de mecanismos genéticos [25]. A hipótese<br />
inicial de Darwin supõe que qualidades ou características de dois ou mais indivíduos se<br />
unem ou se fundem em seus filhos formando indivíduos que de alguma forma herdam<br />
características, sejam qualidades ou defeitos de seus parentes mais próximos.<br />
Em algoritmos genéticos o vocabulário vem diretamente da genética natural.<br />
Indivíduos são soluções possíveis para um determinado problema. Esses indivíduos<br />
possuem um conjunto de características que pode ser denominado como o cromossomo<br />
do indivíduo. Cada característica individual de um cromossomo em um indivíduo é<br />
denominada gene [26], conforme a Figura 8.<br />
Genes<br />
Individuo<br />
. . .<br />
Característica 2<br />
Característica 1<br />
Característica n<br />
Figura 8 – Representação de um individuo e genes em algoritmos genéticos<br />
Um conjunto de indivíduos em uma mesma geração é denominado de população<br />
e pode ser entendido como um conjunto de soluções potenciais para um determinado<br />
problema proposto.<br />
Um processo evolucionário roda em uma população de cromossomos ou<br />
indivíduos correspondendo a uma procura de soluções sub-ótimas em um espaço de<br />
soluções potenciais [26]. Esse processo equilibra o interesse da busca de uma solução<br />
ótima e o interesse de exploração do espaço de soluções. Através das gerações a<br />
população evolui para uma solução ótima ou sub-ótima.
32<br />
Os algoritmos genéticos utilizam regras para a criação de indivíduos em uma<br />
próxima geração a partir de indivíduos de uma geração corrente. Essas regras podem ser<br />
divididas em métodos de seleção e operadores genéticos.<br />
O método de seleção indica a regra de escolha dos pais ou indivíduos que<br />
contribuirão para a criação da nova geração. Somente aos indivíduos selecionados são<br />
aplicados os operadores genéticos. Para que seja possível a avaliação dos indivíduos é<br />
necessário introduzir o conceito de função de avaliação. Essa função tem como entrada<br />
os genes de um indivíduo e indica a qualidade do indivíduo em uma população. Em<br />
outras palavras a função de avaliação é capaz de avaliar diferentes soluções para um<br />
problema e indicar qual é a melhor ou a menor, segundo algum critério utilizado.<br />
Os operadores genéticos mais comuns são mutação e o crossover. Na mutação<br />
um gene ou uma característica de um determinado indivíduo é alterado, em geral<br />
aleatoriamente, com o objetivo de gerar um novo indivíduo em uma nova população. O<br />
crossover por sua vez, é a mistura de características de dois ou mais indivíduos de uma<br />
geração para produzir um indivíduo na próxima geração com características misturadas.<br />
Existem vários tipos de crossover, nesse trabalho utiliza-se somente crossover de um<br />
ponto e mutações de maneira aleatória. O crossover de um ponto realiza a mistura de<br />
maneira simples do material genético dos indivíduos. Na Figura 9 é exemplificado o<br />
crossover de um ponto. O individuo A em verde é “misturado” com o individuo B em<br />
amarelo. Um ponto de corte nos dois indivíduos é definido, em geral aleatoriamente. A<br />
partir desse ponto de corte são construídos dois indivíduos filhos que herdam o material<br />
genético dos dois pais relacionados. Dessa maneira os indivíduos gerados carregam as<br />
características ou genes, dos seus pais para a próxima geração.<br />
Individuo A<br />
Ponto de<br />
crossover<br />
CROSSOVER<br />
Individuo B<br />
Indivíduos Filhos AB<br />
Figura 9 – demonstração do operador genético de crossover simples de um ponto.
33<br />
2.3<br />
Segmentação<br />
2.3.1 Histórico<br />
O processo de segmentação é um pré-requisito para a análise baseada em<br />
objetos.<br />
A tarefa de segmentação divide a imagem em objetos ou segmentos. O nível<br />
dessa divisão depende do que se pretende expressar no procedimento de classificação. A<br />
tarefa de segmentação pode ser considerado “boa”, ou “aceitável”, quando os objetos de<br />
interesse do problema estiverem isolados, o que permitirá em tese discriminar<br />
adequadamente as classes da legenda [27].<br />
As técnicas de segmentação procuram delimitar na imagem regiões com<br />
propriedades comuns. Podem-se dividir a maioria dos métodos de segmentação atuais<br />
em dois principais grupos de algoritmos: o primeiro são os métodos baseados em<br />
crescimento de regiões; e o segundo formado pelos métodos de agrupamento e divisões<br />
sucessivas de objetos [28].<br />
Na abordagem de dividir e agrupar, conhecida como “Split and Merge”, os<br />
algoritmos subdividem ou agrupam segmentos sucessivamente. A decisão se um objeto<br />
deve ser subdividido, ou dois objetos adjacentes devem ser agrupados, baseia-se na<br />
avaliação de uma função de custo. As diferentes funções de custo definem as variantes<br />
dos algoritmos do tipo dividir e agrupar.<br />
As técnicas do tipo crescimento de região ou “region growing” consideram<br />
como ponto de partida cada pixel como um objeto. Objetos adjacentes são agrupados<br />
formando objetos cada vez maiores. A cada passo do algoritmo a decisão de agrupar ou<br />
não objetos adjacentes leva em conta algum critério de homogeneidade do novo objeto<br />
que se formaria após o agrupamento. Os critérios de homogeneidade são específicos de<br />
cada algoritmo adotado.<br />
Existem outros métodos mais particulares de segmentação. Esses métodos não<br />
se baseiam especificamente nem em crescimento de regiões e nem em agrupamento e<br />
divisão de objetos. Dentre eles destacam-se os métodos baseados em morfologia<br />
matemática, como o watersheds.<br />
O método de segmentação alternativo baseado no divisor de águas (watersheds)<br />
é descrito sucintamente em [27]. Esse método utiliza a magnitude do gradiente da
34<br />
imagem no seu critério de segmentação [29]. Ainda em [30] Beucher e Lanteujoul<br />
utilizam o algoritmo de watersheds com sucesso para a detecção de fraturas em imagens<br />
de micrografias de aço e detecção de bolhas em radiografia. Em 1991 [31] Beucher<br />
aplica o algoritmo de watersheds para a segmentação de imagens de sensores remotos e<br />
trata de um problema particular desta classe de algoritmos conhecido como super<br />
segmentação. Em [28] o algoritmo de watersheds é utilizado especificamente para<br />
segmentação de imagens de alta resolução.<br />
Um método de segmentação não convencional, baseado nas caracteristicas<br />
morfológicas dos componentes conectados foi proposto em [32]. Esse método parte dos<br />
resíduos de duas operações morfológicas sucessivas de abertura (opening) e fechamento<br />
(closing) [27]. O método foi testado em imagens de alta resolução tanto em áreas de<br />
campo quanto em áreas urbanas, mostrando um ótimo desempenho comparado com<br />
outros métodos de segmentação mais comuns. Uma melhor descrição das formas foi<br />
alcançada e o método intrinsecamente reduz o efeito da super segmentação devido a<br />
detalhes de implementação. Porém nesse método o custo computacional é bastante<br />
elevado, conforme mostram os experimentos apresentados no artigo, principalmente se<br />
houver nas imagens áreas muito uniformes em termos espectrais. Nesses casos os<br />
algoritmos de watersheds tendem a ter um desempenho melhor.<br />
Vários algoritmos de segmentação são comparados em [33]. O estudo destacou<br />
dois softwares: o eCognition e o SPRING 4.0 4 . Ambos baseiam-se em crescimento de<br />
região, embora o SPRING ofereça também uma opção de segmentação por<br />
watersheads, um método que será abordado mais adiante nesta seção. Nesse trabalho<br />
também foram avaliados algoritmos de softwares como: Data Dissection Tools 5 ,<br />
CAESAR 3.1 6 , InfoPACK 1.0 7 e Image Segmentation (componente para o ERDAS<br />
Imagine) 8 .<br />
2.3.2 Segmentação baseada em crescimento de regiões<br />
Nesse trabalho utilizaremos um processo de segmentação baseado em<br />
crescimento de regiões desenvolvido por [34] e implementado comercialmente no<br />
4 INPE - http://www.dpi.inpe.br/spring<br />
5 INCITE, Stirling University – http://www.incite.org.uk/projects<br />
6 N.A. Software Ltd. – http://www.nasoftware.co.uk<br />
7 InfoSAR Ltd. - http://www.infosar.co.uk
35<br />
software eCognition [35]. O procedimento pode ser descrito como um algoritmo de<br />
aglomeração de objetos. Inicialmente cada pixel é tratado como único objeto. Através<br />
de passos interativos esses objetos são agrupados com os seus vizinhos formando<br />
objetos cada vez maiores. Em cada passo é agrupado somente um dos vizinhos do<br />
objeto analisado, a escolha de qual vizinho será agrupado segue o critério de<br />
homogeneidade local. Em termos práticos o objeto é unido com o seu vizinho que<br />
oferece menor incremento possível na homogeneidade do objeto resultante. O processo<br />
de crescimento do objeto para quando o incremento de homogeneidade devido à união<br />
dos vizinhos é maior que uma determinada função de custo. Essa função é provida para<br />
o algoritmo como um parâmetro de escala.<br />
O cálculo da homogeneidade local do objeto é realizado levando em conta n<br />
fatores espectrais e de forma do objeto. Em termos de forma dois parâmetros são<br />
analisados, a suavidade das bordas e a compactação do objeto gerado como um todo.<br />
Mais detalhes sobre esses cálculos podem ser obtido em [34]<br />
Esse processo de segmentação permite uma variação no tamanho dos segmentos<br />
gerados a partir de um controle sobre o parâmetro de escala. Sendo assim a sua<br />
expansão para um procedimento em múltiplas escalas é simples e intuitiva, tornando o<br />
algoritmo muito produtivo para o processamento de imagens de alta resolução.<br />
2.3.3<br />
Segmentação em múltiplas escalas<br />
A representação de objetos em múltiplas escalas é natural para o ser humano e<br />
crucial para todo o processo de reconhecimento, principalmente em imagens de alta<br />
resolução. Por exemplo, ao olhar um objeto como uma laranja muito de perto somente<br />
observa-se apenas a sua textura e não é possível a associar aquela superfície a uma<br />
casca de laranja. Ao se afastar um pouco do objeto analisado é possível definir que<br />
aquele objeto é de fato uma laranja.<br />
A idéia da segmentação multi-escala é agrupar objetos de uma determinada<br />
escala em objetos maiores em uma escala maior. Essa aglomeração é realizada<br />
respeitando os mesmo critérios do procedimento de segmentação inicial porém<br />
mudando o parâmetro de escala na análise.<br />
8 USDA Forest Service, Remote Sensing Application Center – http://www2.erdas.com/SupportSite/
36<br />
Desta forma os objetos da imagem, ou segmentos, estão unidos por uma relação<br />
hierárquica. Nessa relação temos vários níveis de segmentações elaboradas com<br />
parâmetros de escalas diferentes. Em linhas gerais cada objeto tem um super-objeto em<br />
um nível superior que o contém; e ainda contém inúmeros objetos em um nível abaixo<br />
do seu, os chamados sub-objetos.<br />
2.4 Parâmetros de textura<br />
Além de informações espectrais, a textura é uma característica muito importante<br />
para a discriminação das classes na tarefa de classificação de cobertura de solo.<br />
Os parâmetros de Haralick têm sidos amplamente utilizados na classificação de<br />
imagens de sensores remotos (por exemplo [36 , 45, 46 e 47]).<br />
Os parâmetros de Haralick se baseiam na computação da matriz de coocorrência<br />
de níveis de cinza da imagem (GLCM – “gray level cooccurrence matrix”) .<br />
A matriz GLCM representa a freqüência de ocorrência de pares de valores de tom de<br />
cinza em uma determinada relação espacial. A partir da matriz GLCM uma série de<br />
parâmetros estatísticos pode ser extraída. Destes somente os seguintes parâmetros ou<br />
índices foram analisados nesse trabalho:<br />
• Homogeneidade<br />
• Contraste<br />
• Dissimilaridade<br />
• Entropia<br />
• Segundo momento angular<br />
• Média<br />
• Desvio Padrão<br />
• Correlação<br />
A descrição detalhada dos cálculos dos parâmetros de Haralick pode ser<br />
encontrada em [37].
37<br />
3<br />
Estado da arte em classificação de imagens de alta resolução<br />
Com a recente disponibilidade de imagens de alta resolução produzidas por<br />
sensores orbitais como IKONOS e QUICKBIRD se tornou-se possível modelar com<br />
maior nível de detalhes características da cobertura do solo do que era possível com<br />
imagens de média ou baixa resolução. Imagens IKONOS, por exemplo, têm pixels de<br />
1m por 1m, no caso da banda pancromática. Essa resolução é o suficiente para<br />
visualizar com detalhes, por exemplo, o teto de uma casa, árvores, jardins e ruas.<br />
Graças à elevada resolução espacial é possível consolidar a informação contida<br />
em imagens de alta resolução com dados de um SIG que normalmente se encontraram<br />
disponíveis em escalas grandes, principalmente trabalhando a níveis locais.<br />
Nesse contexto uma série de trabalhos têm sido desenvolvidos utilizando<br />
diferentes técnicas automáticas de representação e interpretação em imagens de alta<br />
resolução. Essas técnicas envolvem não somente diferentes modelos de tratamento de<br />
dados, mas também englobam diferentes métodos de representação da informação<br />
relevante para a tarefa de interpretação.<br />
Esse capítulo aborda o estado da arte em classificação de imagens de alta<br />
resolução. O capítulo inicia com métodos baseados em pixel, e passa depois para uma<br />
abordagem mais generalista e mais moderna baseada em objetos ou segmentos. O<br />
procedimento de segmentação e as diferentes formas de representação de conhecimento<br />
são também considerados neste capítulo. Por último uma descrição dos métodos atuais<br />
de representação de conhecimento multitemporal é apresentada.<br />
3.1<br />
Métodos baseados em pixels<br />
Métodos automáticos de classificação baseados em pixels foram amplamente<br />
utilizados em procedimentos de classificação em média e baixa resolução e têm sido<br />
utilizados ainda em imagens de alta resolução. A tarefa de classificação de imagens de<br />
alta resolução pode ser considerada difícil, tendo em vista a elevada complexidade e
38<br />
composição dos tipos de cobertura do solo que podem ser discriminados nesse tipo de<br />
imagem, como se demonstra, por exemplo em [38].<br />
Várias abordagens foram realizadas utilizando apenas dados espectrais e<br />
classificadores como o de máxima probabilidade e distância euclidiana [39]. Em [40,<br />
41, 42, 56 e 57 diversos métodos de classificação baseados em lógica nebulosa, foram<br />
utilizados para a classificação de imagens de alta resolução. Tais métodos baseados<br />
somente na informação espectral alcançam resultados modestos, quando aplicados a<br />
imagens de alta resolução [42].<br />
O conhecimento estrutural e contextual foi considerado em [43] utilizando uma<br />
análise de vizinhança dos pixel. A informação numa vizinhança em torno de cada pixel<br />
foi usada para extrair dados sobre o relacionamento espacial entre os pixels, gerando<br />
desta forma um atributo de contexto. Esse método foi avaliado utilizando imagens<br />
IKONOS pancromáticas e fotos aéreas em conjunto com um classificador baseado em<br />
redes neurais. Os resultados demonstraram claramente os benefícios do uso dos<br />
atributos de contexto.<br />
Um novo método multi-escala foi proposto em [44] que combina imagens<br />
IKONOS pancromáticas e multiespectrais com fotografias aéreas. Neste trabalho o<br />
conjunto de dados é então tratado por classificadores de máxima probabilidade e<br />
classificadores baseados em arvore de regressão (CART). O resultado desse trabalho<br />
deu uma medida objetiva da importância da resolução espacial na tarefa de<br />
interpretação. O trabalho mostra ainda que a informação multi-escala pode ser utilizada<br />
com uma espécie de contexto no processo de classificação. Foi mostrado, por exemplo,<br />
que imagens com 1m de resolução favorecem a interpretação de alguns tipos de classes,<br />
por exemplo, sombreamento entre as árvores<br />
A utilização da informação de textura na classificação de imagens de sensores<br />
remotos também vem sendo bem explorada desde há muito tempo.<br />
Um [45] novo método de representação da textura foi proposto baseado no<br />
conceito de visões de um determinado padrão de textura. Basicamente o conceito<br />
aplicado é que uma determinada classe possui inúmeros padrões de textura e ainda que<br />
cada um desses padrões possui algumas visões. Essas visões foram obtidas com dados<br />
de treinamento e através de uma serie de parâmetros de textura. Foi desenvolvido então<br />
um algoritmo de classificação semelhante ao KNN, o K-View. Esse método em linhas<br />
gerais atribui o padrão analisado a classe que possui “visões” mais semelhantes. Esses<br />
métodos de extração de textura e de classificação foram aplicados a imagens de satélite
39<br />
de alta resolução resultando num incremento significativo da capacidade de<br />
discriminação de classes de cobertura de solo.<br />
Em [46] análise de textura foi aplicada em imagens IKONOS e QUICKBIRD<br />
para mapeamento de árvores, pomares e plantações de café em Uganda. Foram<br />
utilizados parâmetros de textura de Haralick, calculados com base na matriz de<br />
coocorrência de níveis de cinza ou GLCM (gray-level cooccurrence matrix). Os<br />
resultados relatados no trabalho foram muito positivos principalmente no que disse<br />
respeito ao reconhecimento de árvores e pomares. Porém o autor relata uma dificuldade<br />
para determinar a dimensão ideal da vizinhança em torno de cada pixel a ser usada no<br />
cálculo dos atributos de textura. Um outro trabalho [47] reafirma a importância da<br />
informação de textura no processo de classificação, e ressalta igualmente a necessidade<br />
de uma escolha adequada do tamanho dessas janelas de análise.<br />
Além dos estudos sobre atributos muito se tem investigado sobre diferentes<br />
modelos de classificadores para as aplicações em sensoriamento remoto.<br />
Uma comparação entre métodos estatísticos e redes neurais aplicados<br />
diretamente em classificação de imagens de sensores remotos é descrita em [48]<br />
utilizando múltiplas fontes de dados LANDSAT MMS e dados topográficos. Os<br />
experimentos mostraram que os modelos baseados em redes neurais têm taxas de<br />
reconhecimento potencialmente superiores aos métodos estatísticos convencionais, mas<br />
perdem em termos de desempenho computacional. Esse baixo desempenho se justifica<br />
pelo elevado número de padrões que se tem em imagens de alta resolução, o que onera<br />
principalmente a fase de treinamento da rede neural. Os experimentos também<br />
mostraram a importância de se condicionar os dados adequadamente quando se utilizam<br />
redes neurais. Pequenas mudanças no condicionamento dos dados podem alterar<br />
sensivelmente o resultado da classificação.<br />
Em [49] foi utilizado um método estatístico multivariado baseado em SVD<br />
(Ssingular Vvalue Ddecomposition) e análise de vetores chaves (key vector analysis)<br />
oferecendo uma solução alternativa a redes neurais artificiais para a classificação de<br />
imagens aéreas de alta resolução. A justificativa dada pelos autores para a procura de<br />
um método alternativo as redes neurais foi mais uma vez o baixo desempenho<br />
computacional das redes neurais, quase sempre devido à fase de treinamento, e a alta<br />
sensibilidade das redes neurais aos seus pesos iniciais, que são gerados de forma<br />
randômica, na maioria dos casos.
40<br />
Imagens de alta resolução espectral, obtidas a partir de sensor aerotransportado,<br />
AVIRIS, de 1991 foram analisadas em [50]. Esse tipo de imagem possui 224 canais, ou<br />
bandas espectrais, o que impossibilita, ou pelo menos torna difícil, uma análise<br />
estatística multivariada. A solução adotada pelo autor foi reduzir a dimensionalidade<br />
dos dados e aplicar em seguida um classificador não paramétrico. Foram utilizadas,<br />
mais uma vez, redes neurais artificiais como métodos não paramétricos de classificação.<br />
Para a redução de dimensionalidade foi utilizado um método chamado de DBFE<br />
(Ddecision Bboundary Ffeature Eextraction) [51][52][53]. A dimensionalidade foi<br />
reduzida de 224 para 35 e 36 bandas em dois experimentos realizados. Vários<br />
classificadores estatísticos foram comparados com as redes neurais artificiais para<br />
avaliar como cada um se comportava diante da redução de dimensionalidade dos dados.<br />
Classificadores baseados em redes neurais se mostraram superiores em termos de<br />
reconhecimento global. Os experimentos realizados mostraram ainda uma “singular”<br />
dificuldade do algoritmo de máxima verossimilhança nos casos em que determinadas<br />
classes possuem poucos padrões de treinamento, o que impossibilita uma boa estimação<br />
da matriz de covariância.<br />
3.2<br />
Classificação baseada em objetos<br />
Os métodos de interpretação e classificação baseados em pixels têm se<br />
mostrados insatisfatórios para imagens de alta resolução. Imagens de alta resolução<br />
classificadas por métodos baseados em pixel tendem a mostrar pixels isolados como<br />
uma classe claramente inserida em uma área que representa uma outra classe [54].<br />
Por outro lado surge a abordagem baseada em objetos que supõe uma préorganização<br />
dos pixels em grupos, denominados objetos ou segmentos. O processo de<br />
extração ou formulação de grupos ou segmentos é conhecido como segmentação. A<br />
análise por segmentos pode realmente simplificar a complexidade de informação<br />
contida em um pixel de uma imagem, especialmente em imagens de alta resolução,<br />
tanto espacial quanto radiométrica [55].<br />
Do ponto de vista da arquitetura do classificador a classificação de segmentos é<br />
idêntica à classificação baseada em pixels. A diferença principal é que o padrão é um<br />
segmento e não um pixel. Por esse motivo a maioria das técnicas para a classificação<br />
baseada em pixels, em princípio, funciona bem para a classificação de objetos. A maior
41<br />
diferença está nos atributos ou no conhecimento que se pode expressar utilizando uma<br />
abordagem por segmentos.<br />
Com o objetivo de investigar novas metodologias de classificação explorando<br />
dados de SIG para a cidade do <strong>Rio</strong> de Janeiro, Rego [56] e [57] adota imagens IKONOS<br />
tanto multiespectrais quanto pancromática. A partir desses dados o autor desenvolve<br />
uma metodologia de classificação baseada em atributos espectrais, contextuais e<br />
estruturais para imagens de alta resolução para a área de estudo. Ainda nesse trabalho<br />
foram utilizadas regras nebulosas para expressar o conhecimento impreciso do<br />
especialista. O autor alcança melhor desempenho através de métodos baseados em<br />
segmentos do que por meio de métodos baseados em pixels. Os resultados mostram<br />
ainda que a inclusão de conhecimento do especialista através de classificadores<br />
baseados em regras nebulosas foi capaz de aumentar significativamente a discriminação<br />
de classes que se confundiam no espaço de atributos puramente espectral e estrutural.<br />
Em [58] uma metodologia orientada a objetos foi aplicada para classificar<br />
imagens de sensores diferentes, KOMPSAT-1 e SPOT-5. A legenda continha 5 classes<br />
de cobertura do solo. O resultado da classificação automática foi comparado com a<br />
classificação visual da cena do KOMPSAT-1. Os resultados mostram que a abordagem<br />
baseada em objetos não só foi capaz de prover uma diferenciação mais rápida e precisa<br />
das classes básicas como foi capaz de, facilmente, se adaptar a outras imagens tomadas<br />
em datas diferentes em resoluções espaciais diferentes.<br />
Como objetivo de investigar o método de classificação orientado a objetos na<br />
discriminação de diferentes tipos de cobertura de solo em áreas urbanas utilizando<br />
imagens de alta resolução, em [59] utilizam-se imagens pancromáticas e multiespectrais<br />
IKONOS na cidade de Vienna. A validação baseou-se em dados oficiais, classificados<br />
manualmente a partir de ortofotos, por um especialista. Nos experimentos executados<br />
obteve-se um erro de 43%, em termos de número de objetos. Por outro lado se<br />
analisarmos a área dos objetos classificados corretamente, observamos que essa<br />
representa 72% da área total. Essa observação sugere que objetos com áreas menores<br />
estão sujeitos a mais erros em termos de classificação do que objetos com áreas<br />
maiores.<br />
Imagens SAR (Synthetic Aperture Radar) foram analisadas em [60] com o<br />
objetivo de desenvolver mapas urbanos de alta resolução. O trabalho foi realizado no<br />
eCognition incluindo a segmentação hierárquica em três níveis. Características<br />
radiométricas e polarimétricas foram utilizadas em conjunto com características
42<br />
estruturais como forma e tamanho. Para a validação dos resultados foram utilizados<br />
dados oficiais em uma escala compatível com dados SAR. Neste trabalho não foi<br />
possível separar algumas classes baseando-se somente nos dados polarimétricos e<br />
radiométricos provindos diretamente do SAR, porém quando agregados às<br />
características contextuais oriundas do processo de segmentação, como forma ou<br />
tamanho dos objetos, as mesmas classes foram distinguidas mais claramente.<br />
Em [38] foi utilizada uma abordagem “mista”, baseada em pixel e em objetos ao<br />
mesmo tempo. Inicialmente os pixels da imagem foram classificados utilizando tanto<br />
dados espectrais quanto contextuais a partir de um classificador baseado em regras<br />
nebulosas. A imagem então foi segmentada e as informações, tais como forma e outros<br />
atributos estruturais, foram então adicionadas ao conjunto de regras nebulosas,<br />
elaborando uma nova classificação. O desempenho melhorou quanto à taxa de<br />
reconhecimento global. Segundo os experimentos somente com a informação de pixels<br />
e as regras nebulosas o desempenho é de 10 a 20% maior se comparado a um<br />
classificador de máxima verossimilhança. Quando se introduz a análise baseada em<br />
objetos o desempenho final aumenta mais ainda, chegando a taxas de reconhecimento<br />
de até 86%.<br />
3.3<br />
Classificação Multitemporal<br />
A utilização de imagens multitemporais foi abordada em [61] de forma a<br />
representar múltiplas imagens de instantes de tempo distinos como uma série de<br />
camadas ou bandas em uma imagem multi-canais. A partir dessa representação,<br />
métodos tradicionais baseados em classificadores de máxima probabilidade e dados<br />
espectrais foram utilizados normalmente. A estratégia básica no método proposto<br />
baseia-se em uma classificação em dois estágios, no primeiro estágio realiza-se as<br />
classificações em cada instante de tempo individualmente para que no segundo estagio a<br />
decisão final seja tomada através da combinação dos resultados. O artigo propõe três<br />
modos de combinação do resultado multitemporal: no primeiro, chamado de adição de<br />
probabilidade ou LA (likelihood addition) a decisão é tomada para a classe que possui a<br />
soma do maior valor nos scores de classificação; o segundo método, denominado de<br />
maioria de probabilidade ou LM (likelihood majority), atribui a classificação final à<br />
classe com maior freqüência nas classificações anteriores; o terceiro e último método
43<br />
utilizado a decisão baseia-se na combinação de regras de Dempster’s onde a decisão é<br />
tomada onde a medida de aceitabilidade se mostra máxima.<br />
Em [62] o método anteriormente apresentado foi expandido com a utilização de<br />
matrizes de coocorrência como atributos espaciais e classificadores baseados em redes<br />
neurais artificiais. Nesse trabalho dois tipos de redes neurais foram utilizados, a com<br />
treinamento com retropropagação do erro e uma rede neural nebulosa. Dois modelos<br />
também foram apresentados: o primeiro baseado em uma rede neural única para a<br />
análise das matrizes de coocorrência de todas as imagens avaliadas; o segundo modelo<br />
utiliza uma série de redes neurais organizadas em dois estágios, onde cada rede neural<br />
no primeiro estágio realiza a classificação da matriz de coocorrência da imagem de cada<br />
um dos ano de análise, e então a rede no segundo estágio toma a decisão de<br />
classificação baseada nos resultados obtidos das redes do primeiro estagio. Os<br />
resultados obtidos mostram um grande incremento de desempenho da tarefa de<br />
classificação quando comparado com o método original apresentado em [61].<br />
Em [1] um método de segmentação baseado em conhecimento é proposto. Nesse<br />
método é utilizado para a segmentação dados de SIG, conhecimento específico do<br />
especialista e dados de série temporais. Nesse trabalho os autores concluem que<br />
sistemas baseados em conhecimento utilizados para a tarefa de segmentação oferecem<br />
segmentos mais bem delineados e por conseqüência uma classificação mais precisa.<br />
Quanto a avaliação multitemporal, o artigo indica que a segmentação usando uma série<br />
temporal tende a convergir para uma segmentação ótima conforme o número de<br />
imagens da série. Ainda nesse trabalho os autores enfrentam problemas sérios de erro de<br />
registro nas imagens de foto aéreas e propõe a utilização de imagens de satélite de alta<br />
resolução para resolução desses problemas.<br />
Os dados multiespectrais são tratados em [63] como um conjunto de dados<br />
multidimensionais assim como todas as bandas das imagens LANDSAT analisada. O<br />
método apresentado extrai atributos do conjunto de dados multidimensionais. A idéia<br />
principal é extrair atributos como uma combinação linear de componentes ortogonais de<br />
variação dos dados. É demonstrado que com a utilização de dados multitemporais o<br />
sistema foi capaz de reconhecer mais facilmente os objetos a serem classificados, ou<br />
seja, com menos número de atributos extraídos.<br />
Em [64] e [65] redes neurais artificiais são apresentadas como soluções<br />
vantajosas em termos de desempenho global de classificação se comparado com<br />
métodos estatísticos.
44<br />
Em [66] propõe-se um classificador que leva em conta relações estruturais e<br />
temporais analisando a interdependência temporal e espacial entre os pixels de uma<br />
imagem. O contexto espacial é utilizado para estimar a probabilidade a priori e o<br />
conhecimento multitemporal como a probabilidade de transição entre as classes em um<br />
determinado intervalo de tempo. O classificador apresentado é testado com imagens bi<br />
temporais LANDSAT e mostra um incremento significativo no desempenho da<br />
classificação se comparado com métodos tradicionais de máxima verossimilhança.<br />
Em [67] e [68] o conhecimento multitemporal foi empregado por meio de<br />
diagramas de transição de estado entre as classes da legenda em um determinado<br />
intervalo de tempo. Esses diagramas expressam a possibilidade de transição de uma<br />
classe para uma outra classe determinada. Os resultados de ambos os trabalhos mostram<br />
que houve um grande incremento no desempenho da classificação em relação à<br />
classificação sem informação multitemporal. Porém, em ambos os trabalhos houve<br />
dificuldade em modelar as possibilidades de transições entre as classes e foram<br />
definidos valores experimentais. Esta abordagem é estendida em [69] e [70] utilizando<br />
algoritmos genéticos para estimar os valores dos parâmetros de transição. Isso resultou<br />
numa melhora significativa no desempenho de classificação.
45<br />
4<br />
Modelo proposto<br />
4.1<br />
Introdução<br />
Este capítulo apresenta o modelo proposto no trabalho para interpretação de<br />
imagens de sensores remotos baseada em conhecimento.<br />
4.2<br />
Descrição geral do modelo<br />
O modelo proposto é orientado a objetos, o que envolve a segmentação prévia da<br />
imagem.<br />
Com a segmentação devidamente realizada parte-se para os procedimentos de<br />
classificação. O modelo de classificação divide-se em três fases, como mostra a Figura<br />
10.
46<br />
Imagem (t)<br />
Segmentação<br />
Segmentos (t)<br />
Fase 3 Fase 2 Fase 1<br />
Atributos de textura<br />
Classificação<br />
Fase 2 (t)<br />
Base de conhecimento<br />
multitemporal<br />
Classificação espectral<br />
Atributos espectrais<br />
Dados Estruturais, Contexto e SIG<br />
Classificação<br />
Fase 1 (t)<br />
Base de regras<br />
Classificação baseada em regras do especialista<br />
Classificação baseada em<br />
conhecimento multitemporal<br />
Classificação<br />
referência (t-∆t)<br />
Classificação<br />
Fase 3 (t)<br />
Classificação Final(t)<br />
Defuzzyficação<br />
Figura 10 – Modelo de interpretação baseado em conhecimento para imagens de alta<br />
resolução.<br />
Os dados de entrada para o modelo apresentado e a imagem a ser analisada<br />
obtida em um determinado instante de tempo t e a classificação de uma imagem da<br />
mesma área obtida em um instante de tempo anterior t-∆t.<br />
Na primeira fase do modelo realiza-se uma classificação supervisionada dos<br />
segmentos baseando-se na informação espectral e nos atributos de textura. A<br />
classificação produz para cada objeto um vetor com os graus de pertinência a cada uma<br />
das classes da legenda.<br />
Da segunda fase em diante utilizam-se modelos de conhecimento de um<br />
especialista. Computacionalmente esse conhecimento é modelado por meio de regras
47<br />
nebulosas. Agrega-se ao resultado produzido na primeira fase dados de SIG e outros<br />
atributos estruturais relacionados à forma e arranjo espacial dos segmentos..<br />
Na terceira e última fase aplica-se o conhecimento multitemporal. Este se baseia<br />
na classificação da área de estudo em um instante de tempo anterior t-∆t e utiliza<br />
estimativas de possibilidades de transições entre classes durante o intervalo de tempo<br />
∆t .<br />
Após a terceira fase é realizada a defuzzificação que gera o resultado final da<br />
classificação.<br />
Os resultados produzidos por uma fase são usados como entrada para a fase<br />
seguinte. A primeira fase prevê a utilização de algum método supervisionado<br />
absolutamente convencional. Nas seções seguintes descrevem-se as fases 2 e 3 do<br />
modelo.<br />
4.2.1<br />
Fase 1: Classificação automática supervisionada baseada em dados<br />
espectrais e textura<br />
Nessa Fase um classificador supervisionado é introduzido ao modelo para prover<br />
uma primeira classificação com base em dados espectrais e parâmetros de textura. Os<br />
padrões classificados constituem-se dos segmentos ou objetos representados pela<br />
segmentação da imagem original. A resposta espectral (nas bandas disponíveis) é<br />
medida como uma media no objeto.<br />
Esse classificador então e treinado por um conjunto de treinamento previamente<br />
selecionado. Uma vez treinado os dados de teste são classificados obtendo o resultado<br />
da classificação da primeira fase.<br />
4.2.2<br />
Fase 2: Classificação baseada em regras do especialista
48<br />
Figura 11 - diagrama detalhado do procedimento de interpretação na fase 2.<br />
A Figura 11 mostra a fase 2 do modelo proposto. Em linhas gerais a<br />
classificação nesta fase é feita por um conjunto de regras nebulosas elaboradas pelo<br />
especialista, que têm como entrada o resultado da classificação na fase 1, atributos de<br />
contexto, dados de SIG e atributos estruturais dos objetos. O conjunto de regras é<br />
especifico a imagem ou mesmo a região analisada, podendo assim ser considerado<br />
como uma entrada do procedimento. Esse conjunto de regras mapeia a entrada do<br />
sistema (todos os atributos disponíveis) as saídas (classes) coerentes.<br />
Entre os parâmetros que podem ser utilizados para a criação da base de regras<br />
destacam-se: os atributos de contexto; atributos estruturais, por exemplo,<br />
excentricidade, área, relação da área com o perímetro e dados gerais de SIG.<br />
O classificador baseado em regras nebulosas envolve uma série de funções de<br />
pertinência cuja forma é definida por um conjunto de parâmetros. Os valores adequados<br />
para estes parâmetros são freqüentemente definidos pelo método tradicional de<br />
tentativa-e-erro. Neste trabalho eles são estimados por um método automático de ajuste.<br />
4.2.3<br />
Fase 3: Representação de conhecimento multitemporal<br />
Na terceira fase do modelo proposto inclui-se o conhecimento multitemporal no<br />
processo de classificação automática. O conhecimento multitemporal é modelado<br />
conforme a proposta em [68], [69] e [70], isto é, através das possibilidades de transição
49<br />
entre classes em um determinado intervalo de tempo. Um diagrama de transição de<br />
estados, como o da Figura 12, representa pictoricamente o modelo de conhecimento<br />
multitemporal para um dado intervalo ∆t.<br />
b<br />
ω1<br />
ω4<br />
d<br />
e<br />
f<br />
a<br />
ω2<br />
ω3<br />
c<br />
g<br />
Figura 12 – Exemplo de diagrama de transição de estados para 4 classes<br />
Os nós ω 1 , ω 2 , ω 3 e ω 4 correspondem às classes da legenda e os arcos às<br />
mudanças de classes que podem ocorrer em um determinado intervalo de tempo ∆t.<br />
Associa-se a cada arco da Figura 12 um valor entre 0 e 1, representado na figura<br />
pelas letras a, b, c, d, e, f e g, que expressam as possibilidades de ocorrência da<br />
correspondente transição; zero indica transição impossível e 1 a transição com maiores<br />
chances de ocorrência.<br />
O diagrama de transição de estados define a chamada Matriz de Transição<br />
{ } n i , j<br />
Τ = τ , onde cada linha corresponde à classe do objeto no instante t-∆t e as<br />
ij = 1<br />
colunas às classes a que o mesmo objeto pode pertencer num instante posterior t. Os<br />
elementos da matriz são as respectivas possibilidades de transição τ ij . A matriz de<br />
transição relativa ao diagrama da Figura 12 é dada por:<br />
⎡b<br />
e f 0⎤<br />
⎢<br />
0 a g 0<br />
⎥<br />
Τ = ⎢<br />
⎥<br />
⎢0<br />
0 e 0⎥<br />
⎢<br />
⎥<br />
⎣0<br />
0 0 d ⎦<br />
Eq.(4)<br />
A classificação multitemporal admite conhecida a classificação ω i do segmento<br />
no instante anterior. Os valores de pertinências produzidos nesta terceira fase são dados<br />
pelo produto de cada elemento da i-ésima linha da matriz de transição pelo<br />
correspondente valor de pertinência produzido na fase 2. Se, por exemplo,
50<br />
2<br />
x<br />
1<br />
( x )<br />
= ,...,x n<br />
é o vetor com os valores de pertinência gerados na fase 2 em relação a<br />
cada uma das n classes, as pertinências da fase 3 em que se explora a informação<br />
multitemporal será dada por:<br />
3<br />
3 3<br />
3<br />
( τ x , τ x ,..., τ x ,)<br />
x = Eq.(5)<br />
i1<br />
1<br />
i2<br />
2<br />
in<br />
n<br />
Uma questão relevante a esta altura, diz respeito à estimativa dos valores de<br />
possibilidade de transição τ ij . Isto se faz com o auxílio de um especialista conhecedor da<br />
dinâmica das classes na área alvo. Ele indica as transições impossíveis, e, portanto com<br />
possibilidade nula, e para cada classe de partida a transição mais provável, que recebe<br />
possibilidade igual a 1.<br />
Resta estimar ainda as possibilidades de ocorrências das demais transições<br />
possíveis. Neste trabalho consideram-se duas abordagens. A primeira abordagem, que<br />
chamaremos de crisp, consiste em simplesmente atribuir valor 1 a todas as transições<br />
possíveis. Esta alternativa tem meramente o efeito de reduzir o espaço de busca na<br />
classificação.<br />
A segunda alternativa, que chamaremos nebulosa, admite valores entre 0 e 1<br />
para as possibilidades de transição. Estes valores podem ser estimados através de<br />
tentantivas-e-erros ou utilizando algum método de busca automático. No presente<br />
trabalho utiliza-se o mesmo procedimento adotado em [69], baseado em algoritmos<br />
genéticos.
51<br />
5<br />
Avaliação experimental<br />
Nesse capítulo são apresentados os procedimentos experimentais para validar o<br />
Modelo de Interpretação de Imagens proposto e apresentado no Capítulo 4.<br />
Na avaliação do procedimento automático de classificação/ interpretação<br />
proposto, foi escolhido como indicador de desempenho o erro médio de omissão. Esta<br />
escolha deveu-se a que este índice independe da distribuição inicial dos dados de teste.<br />
De fato, em nossa base de dados existe uma grande diferença entre o número de<br />
segmentos disponíveis em cada uma das classes da legenda. A classe Água, por<br />
exemplo, possui apenas quatro segmentos no ano de 2001, enquanto a classe Floresta é<br />
representada por mais de 700 segmentos no mesmo período. Nesse cenário a taxa de<br />
acerto global não indicaria um desempenho igual em todas as classes.<br />
5.1<br />
Descrição da área de estudo e preparação dos dados<br />
A área de estudo selecionada para esse trabalho compreende cerca de 49km 2 que<br />
inclui o Parque Estadual da Pedra Branca no Estado do <strong>Rio</strong> de Janeiro, Brasil. Esta área<br />
indica um dos últimos remanescentes florestais de Mata Atlântica situada no estado do<br />
<strong>Rio</strong> de Janeiro,<br />
A seção 5.1.1 apresenta a área de estudo assim como uma discussão sobre<br />
fatores sócios econômicos relacionados à expansão urbana e preservação de áreas<br />
nativas de Mata Atlântica. .<br />
Na seção 5.1.2 são apresentadas as imagens utilizadas nesse trabalho. Em<br />
seguida são descritos os procedimentos de preparação (seção 5.1.3) e correção dos<br />
dados e o processo de segmentação utilizado para a extração dos objetos a serem<br />
classificados (seção 5.1.4).<br />
As classes de cobertura de solo analisadas são detalhadamente descritas na seção<br />
5.1.5 e o procedimento de classificação visual realizado para a elaboração de dados de<br />
referência são apresentados na seção 5.1.6.
52<br />
5.1.1<br />
Parque Estadual da Pedra Branca<br />
A área do Parque Estadual da Pedra Branca foi escolhida para esse trabalho<br />
devido a sua grande importância para o estado do <strong>Rio</strong> de Janeiro em termos ecológicos<br />
e aos problemas acarretados pela sua proximidade com áreas urbanas altamente<br />
povoadas. Problemas como a degradação do solo e a expansão urbana desordenada em<br />
áreas internas ao parque vêm reduzindo drasticamente a área de Mata Atlântica nativa<br />
do Parque.<br />
Nesse contexto um monitoramento regular dessa área é muito importante para o<br />
planejamento de medidas de preservação, que uma vê aplicadas com sucesso poderão<br />
ser estendidas a outros fragmentos da Mata Atlântica.<br />
Figura 13 – Mapa representativo do Parque Estadual da Pedra Branca localizado no sul do<br />
Eestado do <strong>Rio</strong> de Janeiro.<br />
O Parque Estadual da Pedra Branca compreende uma área de 12.500 hectares<br />
coberta por vegetação típica da Mata Atlântica situada no maciço da Pedra Branca<br />
acima dos 100m de altitude, conforme representado na Figura 13. A área se situa entre<br />
as latitudes 22º53’ e 23º sul e 43º23’ e 43º32’ oeste. O Parque é cercado pelos bairros de<br />
Guaratiba a oeste, Bangu e Realengo ao norte, Jacarepaguá ao leste, Barra da Tijuca ao<br />
sudoeste e sul, Recreio dos Bandeirantes e Grumari ao sul e Campo Grande ao noroeste<br />
[57].
53<br />
Na área analisada a temperatura média anual é de 22ºC, chegando a picos de<br />
40ºC no verão, e abaixo de 18ºC no inverno. A densidade pluviométrica varia de 1.500<br />
a 2.500mm de chuvas, tendo o verão como a estação de maiores chuvas. As variações<br />
microclimáticas são resultado direto da proximidade da cidade com o mar, da influência<br />
da área urbana e do processo abusivo de desflorestamento [57].<br />
Na Figura 14 a imagem do satélite IKONOS na banda multiespectral do ano de<br />
2001 é apresentada com detalhe marcado em azul e reproduzido na Figura 15 e Figura<br />
16 em composições RGB e NRG respectivamente. Nessas imagens pode-se observar o<br />
alto índice de cobertura de vegetação remanescente na área do parque, assim como a<br />
expansão urbana sobre a área de vegetação.<br />
Figura 14 – Imagem IKONOS Multiespectral (4m de resolução) da área do Parque Estadual da<br />
Pedra Branca no ano de 2001. Em azul o recorte correspondente a Figura 15 e Figura 16
54<br />
mostrado apenas para exemplificar a riqueza de informação contida em imagens de alta<br />
resolução.<br />
Figura 15 – Detalhe da área marcada em azul na Figura 14. Bandas visíveis (RGB). Observase<br />
a expansão urbana e as áreas de vegetação.<br />
Figura 16 – Detalhe da área marcada em azul na Figura 14. Destaque na banda infravermelha.<br />
Composição (NRG) realçando a vegetação.
55<br />
Figura 17 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a área da represa<br />
facilmente observável a partir da imagem de satélite.<br />
Figura 18 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a vegetação<br />
densa típica da Mata Atlântica.
56<br />
Figura 19 – Foto do Parque Nacional da Pedra Branca; detalhe da expansão urbana sobre a<br />
área do parque.<br />
Nas Figura 17, Figura 18 e Figura 19 são apresentadas fotografias tomadas<br />
durante a visita à área de estudo realizada no início do ano de 2005. Essas fotografias,<br />
mesmo não tendo sido tomadas na mesma época que a imagem de satélite, permitem<br />
observar o alto índice de vegetação nativa e a expansão urbana acelerada em torno do<br />
Parque.<br />
5.1.2<br />
Imagens Utilizadas<br />
Foram utilizadas imagens de sensores remotos de alta resolução, obtidas em<br />
junho de 1999 e março de 2001 de uma área de aproximadamente 13 Km 2 . Essa área<br />
cobre uma grande parcela do Parque Estadual da Pedra Branca e também a sua<br />
vizinhança, composta de áreas urbanas e industriais.<br />
Os dados selecionados compreendem uma imagem IKONOS do ano de 2001 do<br />
sensor multiespectral, ou seja, com quatro bandas espectrais: vermelho, azul, verde e<br />
infravermelho. Essas imagens têm resolução espacial de 4m. As imagens utilizadas têm
57<br />
uma resolução radiométrica de 11 bits em cada banda espectral, como indicado na<br />
Figura 20.<br />
Vermelho<br />
Verde<br />
Azul<br />
Infravermelho próximo<br />
Quatro bandas espectrais<br />
11bits – 2048 níveis representados<br />
Figura 20 – Representação da imagem IKONOS multiespectral<br />
Foi utilizada ainda uma foto área do ano de 1999 com resolução original de<br />
aproximadamente 0,63 m por pixel e que foi reamostrada para uma resolução<br />
compatível com as imagens IKONOS. O procedimento de reamostragem foi efetuado<br />
no software ERDAS [71] e as imagens validadas visualmente.<br />
A foto aérea, apesar de possuir uma resolução espacial de menos de 1 mo, elas<br />
apresentam pelo menos três desvantagens principais com relação às imagens IKONOS<br />
multiespectrais. A primeira, e mais evidente, é que imagens aéreas são capturadas<br />
geralmente no espectro visível, e não têm a informação na região do infravermelho. A<br />
segunda desvantagem é que a resolução radiométrica de 8 bits é menor do que nas<br />
imagens IKONOS. O terceiro aspecto diz respeito à geometria de aquisição de imagens<br />
aéreas e o ângulo de visada das imagens analisadas; satélites estão a uma altitude muito<br />
maior do que aviões, o que diminui efeitos relacionados ao ângulo de captura dos<br />
sensores em relação ao solo.<br />
Os experimentos descritos neste trabalho não utilizam, contudo, em nenhum de<br />
seus passos automáticos diretamente a resposta espectral da imagem aérea, mas apenas.<br />
a classificação dessa imagem. As imagens aéreas foram analisadas somente na etapa de<br />
classificação visual para a elaboração de dados de referência.
58<br />
5.1.3<br />
Preparação dos dados<br />
No processo de preparação de dados a principal atividade foi a correção<br />
geométrica e topográfica das imagens. O processo de correção geométrica ou<br />
georeferenciamento consiste basicamente em registrar a imagem com base em um<br />
sistema de coordenada fixo, conforme descrito na seção 2.1.2 utilizando dados de<br />
altimetria.<br />
A imagem de referência utilizada foi foto aérea de 1999 por possuir uma<br />
resolução espacial mais elevada. Essa imagem já se encontrava corretamente<br />
referenciada e com as devidas correções topográficas.<br />
Figura 21 – Ilustração gerada com a foto aérea de 1999 e o DTM da área de estudo utilizado<br />
no processo de ortoretificação.
59<br />
5.1.4<br />
Segmentação<br />
A segmentação, conforme descrita na seção 2.3, é o processo de subdividir a ser<br />
analisada em objetos discretos. A segmentação pode levar em conta informações<br />
espectrais e relações de formas dos objetos gerados.<br />
O algoritmo utilizado para a segmentação nesse trabalho é do tipo crescimento<br />
de regiões, conforme implementado no software e-Cognition 4.0.<br />
A determinação do parâmetro de escala, assim como todos os outros parâmetros<br />
de segmentação é por si só um processo complexo. A dificuldade de definir uma<br />
segmentação “ideal” é um problema que ainda não foi resolvido no mundo do<br />
sensoriamento remoto e é muito dependente do tipo de análise a ser efetuada.<br />
Em [56] um trabalho foi realizado em uma parte da área de estudo descrita nesse<br />
trabalho. Esse procedimento de classificação baseou-se também em objetos obtidos pelo<br />
software eCognition. Nesse trabalho foram analisados visualmente por um especialista<br />
os resultados da segmentação produzida por diversos valores dos parâmetros do<br />
algoritmo de segmentação. Esses estudos foram realizados em uma área muito<br />
semelhante à desse trabalho, além de tratar de classes similares às classes consideradas<br />
nesta dissertação. Por isso foram utilizados no presente trabalho os mesmos valores dos<br />
parâmetros de segmentação sugeridos em [56].<br />
Foi utilizado então parâmetro de escala igual a 90 e fatores de cor/forma de 0.2 e<br />
suavidade/compactação de 0.5. Uma explicação mais detalhada sobre esses parâmetros<br />
encontra-se em [34] e [35].<br />
Para a realização de uma análise de contexto foi utilizada, assim como em [56],<br />
uma série de segmentações hierárquicas com diferentes valores de escala, seguindo o<br />
procedimento apresentado na seção 2.3.3..<br />
Na<br />
Figura 22 é apresentado um exemplo de uma área da imagem e a segmentação<br />
em múltiplas escalas. Observa-se o aumento do tamanho médio dos objetos gerados,<br />
conforme o aumento do fator de escala escolhido.
60<br />
a<br />
b<br />
c<br />
d<br />
Figura 22 – Comparação entre as segmentações em uma área da imagem selecionada; a)<br />
imagem, segmentação com parâmetro de escala b) 90, c) 60 e d) 30.<br />
5.1.5<br />
Definição das classes<br />
As classes da legenda são apresentadas na Tabela 1. Para cada classe são<br />
mostrados exemplos retirados das imagens IKONOS do ano de 2001. Esses exemplos<br />
sempre são apresentados na composição vermelho, verde e azul (ou RGB) e na<br />
composição infravermelho, vermelho e verde (ou NRG).
61<br />
CLASSE<br />
Água<br />
Características predominantes<br />
Inclui lagoas rios e canais<br />
Campo<br />
(RGB)<br />
(NRG)<br />
Áreas, quase em sua totalidade, origem antrópica, incluindo campos<br />
de capim-colonião, de outras gramíneas, de dicotiledôneas<br />
herbáceas, e macega ou ainda áreas de solo exposto, seja por<br />
ocorrência de terraplenagem, deslizamentos ou outras causas e as<br />
áreas de mineração - pedreiras, saibreiras. Inclui campos altos e<br />
campos baixos.<br />
Campo Baixo (RGB) – campo baixo<br />
Campo Baixo (NRG) – campo baixo<br />
Campo Alto (RGB) – campo alto<br />
Campo Alto (NRG) – campo alto
62<br />
CLASSE<br />
Campo Alagado<br />
Características predominantes<br />
Áreas com vegetação arbustivo-herbácea - nativa, secundária ou<br />
invasora - sobre solos encharcados, seja por deficiência de<br />
drenagem ou por afloramento de lençol freático.<br />
(RGB)<br />
(NRG)<br />
Floresta<br />
Floresta Ombrófila Densa - Mata Atlântica - pouco alterada ou não<br />
alterada, fitofisionomia nativa do Município, podendo também ser<br />
uma Floresta Alterada tardia que inclui diversas fitofisionomias<br />
associadas à alteração das florestas nativas, como raleamento por<br />
corte seletivo, ou pequenas áreas de desmatamento, além de<br />
associadas às diversas fases sucessionais que seguem a supressão<br />
total ou parcial da floresta nativa. Inclui também os bananais que<br />
ocupam diversos trechos das encostas.<br />
Floresta Alterada (RGB)<br />
Floresta Alterada (NRG)<br />
Floresta (RGB)<br />
Floresta (NRG)
63<br />
CLASSE<br />
Floresta Urbana<br />
Características predominantes<br />
Áreas com vegetação de campo e porte arbóreo nos grandes parques<br />
públicos da cidade ou em áreas predominantemente urbanas.<br />
Urbano<br />
(RGB)<br />
(NRG)<br />
Grupo heterogêneo de alvos espectrais característicos de áreas<br />
urbanas densas.<br />
Rocha<br />
(RGB)<br />
(NRG)<br />
Afloramentos de rocha de origem natural e costões rochosos.<br />
(RGB)<br />
(NRG)
64<br />
CLASSE<br />
Campo Urbano<br />
Características predominantes<br />
Áreas de campo nitidamente inseridas em contexto urbano.<br />
(RGB)<br />
(NRG)<br />
Tabela 1 – Características da legenda utilizada no processo de classificação.<br />
5.1.6<br />
Processo de classificação visual<br />
Como parte desse trabalho foi realizada em conjunto com alunos de graduação e<br />
pós-graduação do Departamento de Geografia da <strong>PUC</strong>-RJ a classificação visual das<br />
duas imagens utilizadas nesse trabalho.<br />
Esse procedimento teve dois propósitos. O primeiro foi gerar dados de<br />
treinamento e de referência para a análise de desempenho do modelo proposto. O<br />
segundo propósito foi levantar o conhecimento utilizado pelo especialista durante o<br />
procedimento de classificação visual.<br />
O processo de classificação visual das imagens foi realizado no software<br />
eCognition [35].<br />
Além das próprias imagens a serem classificadas foram utilizados pelo<br />
especialista dados de apoio como imagens pancromáticas com 1 m de resolução dos<br />
anos de 2001 e 2002, dados de SIG, além do conhecimento prévio da área de estudo.<br />
O processo de classificação visual das três imagens tomou cerca de quatro<br />
meses. Para reduzir o efeito da subjetividade foram geradas chaves de classificação
65<br />
contendo a descrição detalhada de cada classe da legenda e do raciocínio aplicado para<br />
reconhecê-las.<br />
Os resultados da classificação visual são apresentados na Tabela 2 e na Tabela 3<br />
em termos da área em metros quadrados, e número de objetos ou segmentos de cada<br />
classe.<br />
Classe<br />
Imagem de<br />
1999 (%)<br />
Imagem de<br />
2001 (%)<br />
Água 0,3% 0,2%<br />
Campo Alagado 0,7% 1,1%<br />
Campo 8,1% 10,5%<br />
Floresta alterada 2,4% 2,4%<br />
Floresta 72,1% 70,2%<br />
Urbano 5,1% 6,5%<br />
Rocha 3,1% 2,5%<br />
Campo Urbano 8,1% 6,5%<br />
Tabela 2 – Percentual de área na imagem classificada coberta por cada classe da legenda<br />
(imagens de 1999 e 2001 classificação visual)<br />
Classe<br />
Imagem de<br />
1999<br />
Imagem de<br />
2001<br />
Água 13 4<br />
Campo Alagado 11 9<br />
Campo 419 431<br />
Floresta alterada 196 169<br />
Floresta 771 795<br />
Urbano 345 402<br />
Rocha 96 68<br />
Campo Urbano 278 251<br />
Total 2129 2129<br />
Tabela 3 – Número de segmentos gerados por classe da legenda (imagens de 1999 e 2001,<br />
classificação visual)<br />
A<br />
Figura 23 apresenta, como exemplo, o resultado da classificação visual numa<br />
subárea da imagem IKONOS do ano de 2001. Analisando mais detalhadamente a<br />
classificação visual realizada pelo especialista nota-se que uma grande parte da área de<br />
estudo corresponde às classes Campo e Floresta. Esse fato é justificado pela área de<br />
estudo cobrir um Parque sob preservação ambiental, o que, de alguma forma, limita a<br />
expansão urbana nessa área.
Figura 23 - Classificação Visual da imagem IKONOS de 2001.<br />
66
67<br />
Classificação 2001<br />
Água<br />
Campo<br />
Alagado<br />
Classificação 1999<br />
Floresta<br />
Campo<br />
Urbana<br />
Floresta Urbano Rocha<br />
Campo<br />
Urbano<br />
Água 4 0 0 0 0 0 0 0<br />
Campo Alagado 0 5 0 0 0 0 0 4<br />
Campo 0 0 260 3 119 18 19 12<br />
Floresta Urbana 0 0 7 93 10 24 0 35<br />
Floresta 6 0 111 4 614 30 18 12<br />
Urbano 1 1 24 46 16 227 2 85<br />
Rocha 0 0 5 0 6 0 57 0<br />
Campo Urbano 2 5 12 50 6 46 0 130<br />
Tabela 4 – Alterações reais detectadas pela classificação visual entre os anos de 2001 e 1999,<br />
relativo ao numero de segmentos.<br />
Classificação 2001 (%)<br />
Água<br />
Campo<br />
Alagado<br />
Classificação 1999<br />
Floresta<br />
Campo<br />
Urbana<br />
Floresta Urbano Rocha<br />
Campo<br />
Urbano<br />
Água 30,8 0,0 0,0 0,0 0,0 0,0 0,0 0,0<br />
Campo Alagado 0,0 45,5 0,0 0,0 0,0 0,0 0,0 1,4<br />
Campo 0,0 0,0 62,1 1,5 15,4 5,2 19,8 4,3<br />
Floresta Urbana 0,0 0,0 1,7 47,4 1,3 7,0 0,0 12,6<br />
Floresta 46,2 0,0 26,5 2,0 79,6 8,7 18,8 4,3<br />
Urbano 7,7 9,1 5,7 23,5 2,1 65,8 2,1 30,6<br />
Rocha 0,0 0,0 1,2 0,0 0,8 0,0 59,4 0,0<br />
Campo Urbano 15,4 45,5 2,9 25,5 0,8 13,3 0,0 46,8<br />
Tabela 5 – Alterações reais detectadas pela classificação visual entre os anos de 1999 e 2001,<br />
percentual de mudança em relação ao ano de 1999.<br />
Analisando as classificações de 1999 e 2001 é possível montar a matriz de<br />
transição dos segmentos entre os períodos considerados. Essa matriz é apresentada na<br />
Tabela 4. Na diagonal dessa matriz estão destacados os segmentos que permanecem na<br />
mesma classe nos dois períodos analisados. Observa-se como uma característica<br />
importante a ser salientada a grande transição existente entre Floresta e Campo tanto de<br />
1999 para 2001 quanto de 2001 para 1999.<br />
Um outro importante ponto revelado pela matriz de transição é a perda de áreas<br />
floresta para áreas urbanas (edificações e campos urbanos), mostrando o avanço urbano<br />
sobre o Parque mesmo se tratando de uma área de preservação ambiental protegida por<br />
lei.
68<br />
5.2<br />
Fase 1 – Classificação Espectral e Textura<br />
Métodos convencionais de classificação baseados na resposta espectral pura e<br />
simples, ou mesmo quando se utilizam atributos de textura, não apresentam<br />
desempenho satisfatório em imagens de alta resolução. Um dos propósitos deste<br />
trabalho é avaliar a esperada superioridade de métodos mais sofisticados de<br />
classificação baseados em conhecimento. Afim de obter uma classificação espectral e de<br />
textura o mais eficiente possível foi adotado um método baseado em Redes Neurais<br />
Artificiais para classificação de padrões.<br />
Redes neurais artificiais vêem se mostrando eficientes em tarefas complexas de<br />
classificação de imagens de sensores remotos, segundo a literatura.<br />
Nesse trabalho utiliza-se um classificador baseado em redes neurais do tipo<br />
perceptrons de múltiplas camadas (multilayer perceptrons ou MLP) em conjunto com<br />
algoritmo de treinamento baseado em retro propagação do erro (Backpropagation ou<br />
simplesmente BP)<br />
5.2.1<br />
Dados utilizados<br />
A base de dados utilizada no classificador supervisionado baseado em redes<br />
neurais refere-se aos valores espectrais, ou seja, a resposta media espectral em cada um<br />
dos segmentos analisados; e ainda as medidas de textura obtidas a partir dos parâmetros<br />
de Haralick.<br />
Nesse trabalho os atributos para representar textura foram escolhidos<br />
empiricamente por análise visual. A escolha recaiu sobre parâmetros de Haralick, mais<br />
especificamente Homogeneidade, Dissimilaridade e Correlação média considerando<br />
todas as bandas da imagem. Os parâmetros foram calculados utilizando o software<br />
eCognition.<br />
Foram utilizados 50 segmentos por classe durante a fase de treinamento<br />
totalizando 400 segmentos no conjunto de treinamento. Em algumas classes foi<br />
necessário replicar os dados para que atingissem tal número. Foram selecionados
69<br />
também 50 padrões por classe para a validação. O demais padrões formaram o conjunto<br />
de teste..<br />
O classificador baseado em redes neurais foi configurado com 10 neurônios na<br />
camada oculta todos configurados com funções de transferência tangente hiperbólica. .<br />
Na camada de entrada tem-se 7 entradas relativas às quatro respostas espectrais e três<br />
parâmetros de textura selecionados. Já na camada de saída tem-se 8 neurônios que<br />
representam cada um uma das classes da legenda configurados com funções de<br />
transferência logarítmica. O algoritmo de treinamento utilizado atualiza os pesos e os<br />
valores dos bias da rede de acordo com o gradiente descendente por retropropagação,<br />
utilizando momento e uma taxa de aprendizado adaptativa.<br />
Inicialmente a taxa de aprendizado foi configurada com o valor de 0,01 e o<br />
treinamento e executado durante 1000 épocas no máximo.<br />
5.2.2<br />
Resultados<br />
Erro de omissão por classe<br />
100,00%<br />
90,00%<br />
80,00%<br />
70,00%<br />
60,00%<br />
50,00%<br />
40,00%<br />
30,00%<br />
20,00%<br />
10,00%<br />
0,00%<br />
Agua<br />
Campo<br />
Alagado<br />
Campo<br />
Floresta<br />
Urbana<br />
Floresta Urbano Rocha<br />
Campo<br />
Urbano<br />
Media<br />
Erro % 40,00% 52,50% 88,05% 66,67% 36,67% 29,75% 79,12% 94,16% 60,86%<br />
Gráfico 1 – Taxa de erro médio de omissão por classe após a classificação supervisionada com<br />
atributos espectrais e textura.<br />
Os resultados do classificador supervisionado baseado em redes neurais<br />
artificiais mostram um baixo desempenho na classificação de áreas de Rocha, Campo e<br />
Campo Urbano principalmente. Esse fato pode ser justificado devido à real confusão<br />
espectral e em termos de textura dessas classes. Na verdade a classe Campo Urbano não
70<br />
pode realmente ser diferenciada de Campo somente com dados espectrais, no caso, o<br />
que a caracteriza é a proximidade com a área urbana. No caso da Rocha acontece o<br />
mesmo já que espectralmente se confunde com o Campo. O que caracteriza a Rocha<br />
neste caso é a declividade,.<br />
No caso de classes com identificação mais imediata, como o Campo Alagado, o<br />
Urbano e até mesmo a Floresta, a classificação supervisionada obteve resultados<br />
razoáveis. Ainda no caso da Floresta Urbana ocorre o mesmo que com o Campo<br />
Urbano, isto é, não é possível a identificação sem a utilização da informação de<br />
proximidade com a classe Urbana.<br />
A taxa de erro global de classificação foi de 55,48%. Essa alta taxa de erro pode<br />
ser justificada pela dificuldade de separação em classes com muitos segmentos, como<br />
Floresta e Campo.<br />
5.3<br />
Fase 2 – Classificação estrutural baseada em regras<br />
Na segunda fase do modelo proposto, o conhecimento do especialista é<br />
acrescido ao procedimento de classificação usando para isso regras nebulosas. O<br />
objetivo é modelar o raciocínio do analista humano para melhorar o resultado de<br />
classificação baseada somente na informação espectral e textura apresentada na fase 1.<br />
Classificação FASE 1 (%)<br />
Água<br />
Classificação de referência<br />
Campo<br />
Floresta<br />
Campo<br />
Floresta Urbano Rocha<br />
Alagado<br />
Urbana<br />
Campo<br />
Urbano<br />
Água 60,0 20,0 13,8 11,2 15,2 10,9 26,5 11,3<br />
Campo Alagado 20,0 47,5 3,3 4,5 1,2 4,2 17,4 5,2<br />
Campo 0,0 0,0 12,0 15,2 7,2 1,4 5,0 6,3<br />
Floresta Urbana 0,0 10,0 22,7 33,3 7,5 4,9 13,2 18,4<br />
Floresta 10,0 2,5 32,3 15,0 63,3 2,1 9,4 4,9<br />
Urbano 0,0 5,0 5,3 10,1 2,4 70,2 5,0 45,4<br />
Rocha 10,0 7,5 7,3 5,1 2,2 2,6 20,9 2,7<br />
Campo Urbano 0,0 7,5 3,3 5,5 1,0 3,6 2,6 5,8<br />
Tabela 6 – Matriz de confusão da classificação espectral da imagem de 2001 após a primeira<br />
fase. Resultados apresentados em percentual relativo a imagem de referência.<br />
O resultado da classificação espectral na Fase 1 é apresentado em maiores detalhes pela<br />
matriz de confusão mostrada na<br />
Tabela 6. Nessa matriz são apresentados o percentual dos segmentos<br />
classificados em uma determinada classe (na horizontal) e pertencentes na referência
71<br />
(ou verdade de campo) a uma outra classe (na vertical). Assim, na diagonal dessa matriz<br />
são apresentados os acertos de classificação em cada uma das classes.<br />
O procedimento da Fase 2 tem então o objetivo de, através da utilização de<br />
outros dados como altimetria, forma e contexto, elaborar regras que sejam capazes de<br />
reduzir os erros de classificação e melhorar a classificação da primeira fase.<br />
Algumas confusões, marcadas na<br />
Tabela 6 em vermelho, foram escolhidas para o tratamento via regras de<br />
inferência com o objetivo de diminuir o erro de omissão em cada uma das classes. Estas<br />
confusões foram escolhidas por orientação de um fotointérprete, conhecedor da região,<br />
que considerou possível resolvê-las a partir de regras usando os dados disponíveis..<br />
Na seção 5.3.1 são descritos os dados e atributos utilizados para a elaboração das<br />
regras de inferência. A seguir são descritas as regras e a implementação dos sistemas<br />
nebulosos de classificação nas seções 5.3.2 e 5.3.3 respectivamente. Por último na seção<br />
5.3.4 são apresentados os resultados dos experimentos.<br />
5.3.1<br />
Atributos utilizados na classificação estrutural<br />
Os atributos de entrada para as regras podem ser divididos em dois conjuntos.<br />
O primeiro conjunto de atributos deriva do resultado da primeira fase, mais<br />
especificamente dos valores de pertinência de cada segmento produzidos pela rede<br />
neural.<br />
Os atributos do segundo grupo são calculados a partir da própria imagem ou de<br />
dados de SIG, como descrito abaixo:<br />
• NDVI – índice de vegetação - indica a quantidade de vegetação em uma<br />
determinada área. O seu cálculo está descrito na Eq.(6) onde NIR é o valor<br />
de intensidade da banda infravermelha da imagem e RED a intensidade da<br />
banda que representa espectralmente o vermelho;<br />
( NIR−<br />
RED)<br />
NDVI(<br />
i)<br />
=<br />
( NIR+<br />
RED)<br />
Eq.(6)
72<br />
• Contexto Urbano – indica o grau de ocupação urbana na área do segmento<br />
analisado. O contexto Urbano é avaliado considerando a proximidade do<br />
objeto analisado a objetos e áreas de ocupação urbana. Para isso foi utilizada<br />
a técnica de segmentação hierárquica em que cada segmentação em uma<br />
escala mais alta gera objetos maiores, que contém os objetos menores dos<br />
níveis abaixo deste - produzidos com fator de escala mais baixos. Maiores<br />
detalhes sobre segmentação em múltiplas escalas ou hierárquica são<br />
apressentados no capítulo 2.3.3 e também em [35].<br />
Através da segmentação hierárquica são gerados vários níveis ou camadas de<br />
segmentações em diferentes escalas. Essas segmentações são aqui<br />
denominadas segundo o fator de escala utilizado para obtê-la. Foram<br />
utilizados fatores 120, 180, 270 e 360. Um segmento representado na escala<br />
360, por exemplo, contém vários segmentos menores gerados na escala 120,<br />
180 e 270.<br />
Para medir o grau de ocupação urbana na escala 90, por exemplo, mede-se o<br />
percentual da área do objeto nessa escala que é coberto por objetos urbanos<br />
(definidos na fase 1) na escala 30. Da mesma forma para medir o grau de<br />
ocupação urbana na escala 180 mede-se o percentual de área coberta por área<br />
urbana na segmentação de escala 30.<br />
Quatro parâmetros foram medidos nas escalas anteriormente mencionadas e<br />
foram denominados como Contexto Urbano 120, Contexto Urbano 180,<br />
Contexto Urbano 270 e Contexto Urbano 360;<br />
• Contexto de Vegetação – indica o grau de vegetação em torno do objeto<br />
analisado em quatro escalas, assim como no contexto urbano. A extração do<br />
parâmetro contexto de vegetação segue o mesmo procedimento para medida<br />
do contexto urbano, considerando-se porém a área relativa coberta por<br />
vegetação em cada objeto. Os parâmetros gerados são denominamos da<br />
seguinte forma: Contexto de Vegetação 90, Contexto de Vegetação 180,<br />
Contexto de Vegetação 270 e Contexto de Vegetação 360;<br />
• Altura – é calculada pela média de altura no segmento analisado, baseandose<br />
no DTM (Digital Terrain Model ou Modelo Digital de Terreno);<br />
• Declividade – a declividade não era um dado diretamente disponível; foi<br />
utilizado em seu lugar o desvio padrão da altura dentro do objeto analisado.
73<br />
5.3.2<br />
Regras<br />
O conhecimento do especialista foi modelado no procedimento de interpretação<br />
automática através de regras nebulosas no formato SE(condição) ENTAO(conseqüente.<br />
O primeiro conjunto de regras atua apenas nos segmentos classificados como<br />
Campo na Fase 1. As regras nesse conjunto foram criadas para dirimir a confusão entre<br />
Rochas e Campo. A informação de altimetria e declividade, permite solucionar esse<br />
tipo de confusão para uma boa parte dos segmentos. A conhecimento no caso consiste<br />
em que Rochas normalmente têm uma declividade mais elevada, quando comparada<br />
com Campo. Na verdade na região analisada os Campos em geral são formados por<br />
acúmulo de matéria orgânica sobre as Rochas, e em áreas de alta declividade não é<br />
possível esse acúmulo, o que deixa as Rochas expostas.<br />
O segundo conjunto de regras atua nos objetos atribuídos à Classe Floresta<br />
Urbana na fase 1 com a finalidade de resolver a confusão com Campo, Floresta e<br />
Campo Urbano. Com relação à Floresta o critério discriminante é a proximidade a área<br />
Urbana ou a contexto urbano. Com relação ao Campo o índice de Vegetação (NDVI) foi<br />
utilizado critério de divisão. No caso do Campo Urbano o NDVI e o contexto urbano<br />
foramutilizados em conjunto.<br />
O terceiro conjunto de regras atua nos segmentos previamente classificados<br />
como Floresta objetivando os mesmos critérios da segunda regra.<br />
O quarto conjunto atua sobre a classe Urbano objetivando somente a confusão<br />
com Campo urbano e as variáveis de critério utilizadas foram o contexto urbano e o<br />
NDVI.<br />
O quinto conjunto de regras age sobre a classe Rocha visando a confusão com<br />
Campo, Campo Urbano e Urbano. Foi utilizado o NDVI, a declividade e o contexto<br />
urbano para a discretizacao.<br />
Finalmente o ultimo conjunto age sobre a classe Campo Urbano e na confusão<br />
com Floresta, Floresta Urbana, Campo e Urbano. Uma serie de variáveis são utilizadas<br />
entre eles o contexto urbano e o contexto de vegetação, a altimetria e o NDVI.<br />
Neste trabalho todas as regras nebulosas foram modeladas utilizando duas<br />
funções de pertinência por entrada. Esses conjuntos foram criados a partir de funções<br />
gaussianas.
74<br />
5.3.3<br />
Ajuste das funções de pertinência<br />
Resta agora definir o que é alto (a) ou baixo (a) para relevo, contexto, NDVI<br />
dentre outros parâmetros. Em outras palavras o formato das funções de pertinência<br />
nebulosa (membership functions) tem que ser escolhidos e ajustados. Como foram<br />
escolhidas funções de pertinência gaussianas, estes parâmetros são a média e o desvio<br />
padrão das gaussianas.<br />
Nesse trabalho a estimativa dos parâmetros das funções de pertinência nebulosas<br />
foi realizada utilizando um sistema neuro-fuzzy denominado ANFIS (seção 2.2.1.3). O<br />
sistema neuro-fuzzy ajusta os parâmetros relativos ao formato das funções de<br />
pertinência e aos pesos de cada regra no procedimento de classificação. Para isso é<br />
utilizado um conjunto de treinamento e um algoritmo de retropropagação do erro. Em<br />
nossos experimentos foi utilizado como treinamento uma parcela da imagem de 2001,<br />
no caso a mesma utilizada na primeira fase do experimento. Os restantes dos segmentos<br />
foram utilizados como um conjunto de teste.<br />
Toda a implementação do sistema de inferência nebulosa, assim como o<br />
procedimento de ajuste automático dos parâmetros, foi realizada no MATLAB na<br />
versão 7.0.4.<br />
Em termos de implementação foram utilizados sistemas neuro-fuzzy distintos<br />
para cada grupo de regras apresentado anteriormente. Dessa maneira a otimização dos<br />
parâmetros dos sistemas nebuloso se restringe a dados de atuação distintos, diminuindo<br />
o espaço de busca. Cada um desses sistemas pode então possuir duas saídas (0 e 1)<br />
indicando cada um dos conseqüentes.<br />
Os parâmetros dos sistemas neuro-fuzzy utilizados em todos os sistemas<br />
nebulosos apresentados estão descritos<br />
Configuração dos sistemas neuro-fuzzy (ANFIS)<br />
Numero de Épocas 100<br />
Tamanho do passo inicial 0,01<br />
Incremento e Decremento 10%<br />
Tabela 7 – Configuração dos sistemas neuro-fuzzy.
75<br />
O conjunto de treinamento utilizado e o mesmo da primeira fase porem sem a<br />
replicação dos dados feita para garantir o mesmo numero de padrões em cada uma das<br />
classes.<br />
5.3.4<br />
Resultados da classificação estrutural baseada em regras<br />
Erro médio de omissão após a inferência de regras da FASE 2<br />
FASE2<br />
FASE1<br />
100,0%<br />
80,0%<br />
60,0%<br />
40,0%<br />
20,0%<br />
0,0%<br />
Agua<br />
Campo<br />
Alagado<br />
Floresta<br />
Campo<br />
Urbana Floresta Urbano Rocha Campo<br />
Urbano<br />
Media<br />
FASE2 40,0% 52,5% 58,6% 59,5% 26,7% 35,8% 88,2% 73,6% 54,4%<br />
FASE1 40,0% 52,5% 88,0% 66,7% 36,7% 29,8% 79,1% 94,2% 60,9%<br />
Gráfico 2 – Erro de omissão médio por classe após a FASE 2. (resultado após 20 execuções)<br />
Os resultados apresentados no Gráfico 2 mostram claramente um incremento de<br />
desempenho, no que se diz respeito a diminuição do erro de classificação em cada<br />
classe, após a inclusão do conhecimento do especialista modelado por regras nebulosas.<br />
As classes afetadas pelo procedimento da Fase 2 claramente tiveram o seu erro<br />
de classificação ou omissão, reduzidos significativamente. A maior redução ocorre na<br />
classe Campo onde antes 88% dos segmentos eram classificados erroneamente, após a<br />
Fase 2 cerca de 58% são classificados erroneamente. Embora esse valor ainda seja alto,<br />
verifica-se que a inclusão do conhecimento através de regras nebulosas traz um<br />
melhoria importante de desempenho.<br />
O mesmo ocorre porém com menos intensidade, nas classes Floresta, Floresta<br />
Urbana e Campo Urbano. No caso destas duas classes que estão intimamente ligadas<br />
com a informação de contexto urbano (Floresta Urbana e Campo Urbano) as regras
76<br />
nebulosas baseadas em informação de contexto principalmente foram realmente capazes<br />
de identificar e separar os segmentos relativos às classes citadas.<br />
Em algumas classes como Urbano e Rocha o erro após a Fase 2 teve um ligeiro<br />
acréscimo, possivelmente porque não havia dados de treinamento suficientes para estes<br />
casos, ou ainda porque as regras elaboradas não são capazes de resolver as confusões<br />
entre as classes para estes casos.<br />
Observa-se pela Tabela 8 uma confusão grande entre Urbano e Campo Urbano e entre<br />
Rocha e Campo mesmo após a aplicação das regras.<br />
As classes não afetadas pelo procedimento da segunda fase continuam<br />
naturalmente com o mesmo erro de omissão.<br />
Classificação FASE 2 (%)<br />
Água<br />
Classificação de referência<br />
Campo Floresta<br />
Campo Floresta Urbano Rocha<br />
Alagado Urbana<br />
Campo<br />
Urbano<br />
Água 50,0 0,0 0,5 1,2 0,2 0,0 0,0 0,0<br />
Campo Alagado 0,0 50,0 4,7 6,0 2,0 4,5 23,5 2,4<br />
Campo 0,0 25,0 41,4 17,9 12,8 5,0 32,4 18,4<br />
Floresta Urbana 0,0 0,0 7,9 40,5 2,5 8,5 2,9 12,0<br />
Floresta 0,0 0,0 31,2 9,5 73,3 1,5 5,9 4,8<br />
Urbano 0,0 0,0 5,1 4,8 3,1 64,2 2,9 34,4<br />
Rocha 50,0 0,0 4,7 2,4 2,9 0,0 11,8 1,6<br />
Campo Urbano 0,0 25,0 4,7 17,9 3,1 16,4 20,6 26,4<br />
Tabela 8 – Matriz de confusão de uma classificação típica após a Fase 2. Resultado percentual<br />
relativo a referencia de uma interação.
77<br />
Taxa de erro global, comparação Fase 1 e Fase 2<br />
60,00%<br />
50,00%<br />
40,00%<br />
30,00%<br />
20,00%<br />
10,00%<br />
0,00%<br />
Taxa global de erro<br />
FASE2 44,32%<br />
FASE1 55,48%<br />
Gráfico 3 – Erro de classificação global após a FASE 2. (resultado após 20 execuções)<br />
O erro global de classificação teve um decréscimo significativo após a inclusão<br />
das regras da segunda fase. Esse decréscimo está sem duvida ligado principalmente ao<br />
incremento na taxa de reconhecimento na classe Floresta que representa uma grande<br />
proporção dos segmentos .<br />
5.4<br />
Fase 3 – Classificação multitemporal<br />
A terceira Fase da classificação inclui o conhecimento multitemporal no<br />
processo de interpretação, conforme o apresentado em seções anteriores. Os<br />
experimentos realizados para esta fase compreendem 4 tarefas:<br />
1. Construção do diagrama de transição,<br />
2. Preparação dos dados,<br />
3. No caso de conhecimento temporal nebuloso, estimativa das<br />
possibilidades de transição, e<br />
4. Avaliação de desempenho.
78<br />
A primeira tarefa consiste em representar o conhecimento multitemporal através<br />
de um diagrama que indica as transições de classes possíveis em um determinado<br />
intervalo de tempo.<br />
O diagrama de transição para esse trabalho foi elaborado por um especialista<br />
conhecedor da área de teste. Devido ao grande número de classes da legenda nesse<br />
trabalho, as transições são apresentadas na Tabela 9, onde a primeira coluna<br />
corresponde à classe em um instante anterior ao analisado (t-∆t), a segunda coluna ao<br />
rótulo do arco da transição e a terceira coluna à classe no instante analisado (t). Essa<br />
tabela foi elaborada durante entrevistas com o especialista em classificação de imagens<br />
de sensores remotos e com amplo conhecimento da área de estudo e de sua dinâmica ao<br />
longo do tempo.
79<br />
Classe<br />
em t-1<br />
Água<br />
Campo<br />
Alagado<br />
Campo<br />
Floresta<br />
Urbana<br />
Floresta<br />
Transição Classe em t Causas<br />
τ1 Água -<br />
τ2 Campo Alagado Aterramento natural, secagem de rios e<br />
mananciais.<br />
τ3 Campo Aterramento natural, secagem de rios e<br />
mananciais.<br />
τ4 Urbano Aterramento urbano para construção<br />
τ5 Campo Urbano Aterramento urbano para construção<br />
τ6 Campo Alagado -<br />
τ7 Campo Aterramento natural, secagem de rios e<br />
mananciais.<br />
τ8 Urbano Aterramento não natural seguido de construção.<br />
τ9 Campo Urbano Aterramento não natural.<br />
τ10 Campo -<br />
τ11 Campo Alagado Alagamento<br />
τ12 Floresta Crescimento de espécies arbóreas<br />
τ13 Urbano Crescimento urbano<br />
τ14 Campo Urbano Crescimento urbano ao redor da área<br />
τ15 Floresta Urbana Crescimento urbano ao redor da área e ainda<br />
crescimento de vegetação arbórea na área.<br />
τ16 Rocha Desmatamento ou deslizamento de área de campo<br />
sobre rocha<br />
τ17 Urbano Crescimento urbano<br />
τ18 Campo Urbano Derrubada de árvores em áreas urbanas<br />
τ19 Floresta Urbana -<br />
τ20 Campo Desmatamento<br />
τ21 Floresta -<br />
τ22 Urbano Desmatamento com crescimento urbano<br />
τ23 Campo Urbano Desmatamento com crescimento urbano ao redor<br />
da área<br />
τ24 Floresta Urbana Crescimento urbano ao redor da área<br />
τ25 Urbano -<br />
Urbano τ26 Campo urbano Desocupação urbana ou demolição para<br />
construção o que causa uma resposta característica<br />
de campo<br />
τ27 Floresta Urbana Desocupação urbana com replantio de espécies<br />
Rocha<br />
arbóreas<br />
τ28 Campo Urbano Desocupação urbana<br />
τ29 Campo Acumulo de matéria orgânica causa crescimento<br />
de vegetação sobre rochas.
80<br />
Classe<br />
em t-1<br />
Campo<br />
Urbano<br />
Transição Classe em t Causas<br />
τ30 Rocha -<br />
τ31 Urbano Crescimento urbano<br />
τ32 Campo Urbano -<br />
τ33 Floresta Urbana Crescimento de vegetação arbórea em áreas de<br />
campo urbano<br />
Tabela 9 – Transições entre classes para a área de teste.<br />
A partir da Tabela 9 é possível montar a matriz de transição crisp, que indica<br />
transições possíveis e impossíveis com “1” e “0” respectivamente, como mostrado a<br />
seguir.<br />
Τ<br />
crisp<br />
=<br />
⎡1<br />
⎢<br />
⎢<br />
0<br />
⎢0<br />
⎢<br />
⎢0<br />
⎢0<br />
⎢<br />
⎢0<br />
⎢0<br />
⎢<br />
⎢⎣<br />
0<br />
1<br />
1<br />
1<br />
0<br />
0<br />
0<br />
0<br />
0<br />
1<br />
1<br />
1<br />
0<br />
1<br />
0<br />
1<br />
0<br />
0<br />
0<br />
1<br />
1<br />
1<br />
0<br />
0<br />
1<br />
0<br />
0<br />
1<br />
0<br />
1<br />
0<br />
0<br />
0<br />
1<br />
1<br />
1<br />
1<br />
1<br />
1<br />
1<br />
1<br />
0<br />
0<br />
1<br />
0<br />
0<br />
0<br />
1<br />
0<br />
1⎤<br />
1<br />
⎥<br />
⎥<br />
1⎥<br />
⎥<br />
1⎥<br />
1⎥<br />
⎥<br />
1⎥<br />
1⎥<br />
⎥<br />
1⎥⎦<br />
Semelhantemente, a matriz de transição nebulosa toma a seguinte forma:<br />
Τ<br />
nebuloso<br />
⎡τ<br />
1<br />
⎢<br />
⎢<br />
0<br />
⎢ 0<br />
⎢<br />
⎢ 0<br />
=<br />
⎢ 0<br />
⎢<br />
⎢ 0<br />
⎢ 0<br />
⎢<br />
⎢⎣<br />
0<br />
τ 2<br />
τ 6<br />
τ10<br />
0<br />
0<br />
0<br />
0<br />
0<br />
τ 3<br />
τ 7<br />
τ11<br />
0<br />
τ 20<br />
0<br />
τ 27<br />
0<br />
0<br />
0<br />
τ12<br />
τ17<br />
τ 21<br />
0<br />
0<br />
τ 31<br />
0<br />
0<br />
τ13<br />
0<br />
τ 22<br />
0<br />
0<br />
0<br />
τ 4<br />
τ8<br />
τ14<br />
τ18<br />
τ 23<br />
τ 25<br />
τ 28<br />
τ 32<br />
0<br />
0<br />
τ15<br />
0<br />
0<br />
0<br />
τ 29<br />
0<br />
τ 5 ⎤<br />
τ 9<br />
⎥<br />
⎥<br />
τ16⎥<br />
⎥<br />
τ19⎥<br />
τ 24⎥<br />
⎥<br />
τ 26⎥<br />
τ 30⎥<br />
⎥<br />
τ 33⎥⎦<br />
Onde os parâmetros não nulos são números reais no intervalo (0,1].<br />
As linhas correspondem ao instante anterior (t-∆t) e as colunas ao instante
81<br />
analisado (t). A ordem das classes, tanto nas linhas quanto nas colunas, segue a ordem<br />
de classificação definida pelas classes para todo o processo (Água, Campo Alagado,<br />
Campo, Floresta Urbana, Floresta, Urbano, Rocha e Campo Urbano).<br />
Tratando-se do conhecimento multitemporal crisp pode-se passar diretamente<br />
para a tarefa 4 da avaliação. Já o conhecimento multitemporal nebuloso requer que<br />
antes se estimem os valores das possibilidades de transição.<br />
Esta tarefa de estimação dos valores de probabilidade utilizou o mesmo conjunto<br />
de treinamento de dados anteriormente selecionado e utilizado durante a Fase 1 e Fase<br />
2.<br />
O especialista da área identificou para cada classe da legenda a transição mais<br />
freqüente que recebeu o valor de possibilidade igual a 1. Isso fez com que matriz de<br />
transição tivesse valor 1 em toda a sua diagonal. Restaram então 25 valores de transição<br />
para serem estimados. Um algoritmo genético (GA) é então aplicado sobre os dados de<br />
1999 e 2001 visando minimizar o erro médio de omissão, usando como referência a<br />
classificação visual da imagem de 2001 e os dados de treinamento anteriormente<br />
selecionados. A configuração do GA utilizado nesse trabalho esta descrito na Tabela 10.<br />
Configuração do sistema de otimização baseado em algoritmos genéticos<br />
Cromossomo<br />
27 genes ou parâmetros a serem estimados<br />
Números reais entre 0 e 1<br />
Função de avaliação<br />
Minimizar o erro médio de omissão entre as classes<br />
Tamanho da população<br />
100 ( população inicial randômica)<br />
Numero de gerações 100<br />
Substituição por geração 80%<br />
Operações de cruzamento<br />
Crossover simples de um ponto<br />
Crossover aritmético<br />
Operações de mutação<br />
Mutação simples<br />
Creep Pequeno (0,2)<br />
Creep Grande (0,8)<br />
Tabela 10 – Configuração dos sistemas neuro-fuzzy.<br />
Os valores de possibilidade de transição estimados a partir dos dados de<br />
treinamento foram então aplicados aos dados de teste e o resultado final apresentado<br />
nesse capitulo.
82<br />
5.4.1<br />
Resultados do classificador multitemporal<br />
Uma série de experimentos foi realizada para avaliar a contribuição do<br />
conhecimento multitemporal e nebuloso, conforme mostrado nas seções a seguir.<br />
5.4.1.1<br />
Contribuição do conhecimento multitemporal crisp<br />
Erro médio de omissão apos a inclusao o conhecimento multitemporal<br />
crisp<br />
100,0%<br />
90,0%<br />
80,0%<br />
70,0%<br />
60,0%<br />
50,0%<br />
40,0%<br />
30,0%<br />
20,0%<br />
10,0%<br />
0,0%<br />
Agua<br />
Campo<br />
Alagado<br />
Floresta<br />
Campo<br />
Urbana Floresta Urbano Rocha Campo<br />
Urbano<br />
Media<br />
FASE1 40,0% 52,5% 88,0% 66,7% 36,7% 29,8% 79,1% 94,2% 60,9%<br />
FASE2 40,0% 52,5% 58,6% 59,5% 26,7% 35,8% 88,2% 73,6% 54,4%<br />
FASE3 - CRISP 40,00% 50,00% 60,00% 35,71% 29,21% 33,83% 73,53% 71,20% 49,19%<br />
Gráfico 4 – Erro de classificação global após a inclusão de conhecimento multitemporal de<br />
maneira CRISP. (resultado após 20 execuções)<br />
Os resultados da inclusão do conhecimento multitemporal crisp mostram um<br />
aumento significativo de desempenho, ou seja, a diminuição do erro de omissão médio<br />
em cerca de cinco pontos percentuais. Algumas classes, como Floresta Urbana e Rocha<br />
foram mais afetadas. Essas classes claramente se beneficiam de informação<br />
multitemporal. No caso da Rocha, ela tende a não se alterar ao longo do tempo e no<br />
caso de Floresta Urbana, que compreende parques e jardins, ocorre o mesmo.<br />
Na média, no entanto, o erro de omissão cai significativamente após a inclusão<br />
do conhecimento multitemporal, mesmo usando a modelo crisp.
83<br />
5.4.1.2<br />
Contribuição do conhecimento multitemporal nebuloso<br />
No segundo experimento aplicou-se o conhecimento multitemporal nebuloso. A<br />
Tabela 11 mostra os valores da matriz de transição obtida pelo algoritmo genético com<br />
base nos dados de treinamento.<br />
t<br />
t-∆t<br />
Água Campo<br />
Campo<br />
Urbano<br />
Floresta<br />
Urbana Floresta Urbano Rocha<br />
Campo<br />
Urbano<br />
Água 1,00 0,33 0,49 0,00 0,00 0,16 0,00 0,18<br />
Campo Urbano 0,00 1,00 0,13 0,00 0,00 0,21 0,00 0,76<br />
Campo 0,00 0,11 1,00 0,29 0,29 0,49 0,58 0,39<br />
Floresta Urbana 0,00 0,00 0,00 1,00 0,00 0,50 0,00 0,69<br />
Floresta 0,00 0,00 0,49 0,77 1,00 0,19 0,00 0,41<br />
Urbano 0,00 0,00 0,00 0,69 0,00 1,00 0,00 0,50<br />
Rocha 0,00 0,00 0,16 0,00 0,00 0,25 1,00 0,30<br />
Campo Urbano 0,00 0,00 0,00 0,76 0,00 0,28 0,00 1,00<br />
Tabela 11 – Matriz de transição nebulosa. Valores em zero indicam transições impossíveis.<br />
A função objetivo do algoritmo genético, conforme citado anteriormente, é a<br />
taxa média de acerto entre as classes. No Gráfico 5 é apresentado um exemplo retirado<br />
dos experimentos realizados que retrata a evolução do algoritmo genético durante a sua<br />
evolução. Observa-se um incremento significativo na função de avaliação a cada<br />
geração.
84<br />
0.77<br />
GRÁFICO DE DESEMPENHO<br />
0.765<br />
0.76<br />
Avaliação<br />
0.755<br />
0.75<br />
0.745<br />
0.74<br />
0 10 20 30 40 50 60 70 80 90 100<br />
Geração<br />
Gráfico 5 – Evolução do algoritmo genético durante a sua evolução.<br />
Erro médio de omissão apos a inclusao do conhecimento multitemporal<br />
nebuloso<br />
100,0%<br />
90,0%<br />
80,0%<br />
70,0%<br />
60,0%<br />
50,0%<br />
40,0%<br />
30,0%<br />
20,0%<br />
10,0%<br />
0,0%<br />
Agua<br />
Campo<br />
Alagado<br />
Floresta<br />
Campo<br />
Urbana Floresta Urbano Rocha Campo<br />
Urbano<br />
Media<br />
FASE1 40,0% 52,5% 88,0% 66,7% 36,7% 29,8% 79,1% 94,2% 60,9%<br />
FASE2 40,0% 52,5% 58,6% 59,5% 26,7% 35,8% 88,2% 73,6% 54,4%<br />
FASE3 - CRISP 40,0% 50,0% 60,0% 35,7% 29,2% 33,8% 73,5% 71,2% 49,2%<br />
FASE3 - NEBULOSA 40,0% 50,0% 44,7% 29,8% 35,5% 39,8% 44,1% 60,8% 43,1%<br />
Gráfico 6 – Avaliação do erro de omissão após a inclusão da informação multitemporal<br />
nebulosa.<br />
Observa-se pelo Gráfico 6 que após a inclusão da informação multitemporal<br />
nebulosa o erro médio de omissão entre as classes tem um declínio significativo. A<br />
maior parte das classes apresenta uma queda significativa no seu erro de omissão.
85<br />
Se comparado com a Fase 1 a inclusão do conhecimento multitemporal pode<br />
oferecer uma queda de quase 17% em termos de erro de omissão. E em algumas classes<br />
como Rocha essa queda pode chegar a cerca de 35%.<br />
Nas classes Floresta e Urbano porém ocorre um ligeiro acréscimo no erro de<br />
omissão. Esse fato pode estar relacionado com a escolha pelo especialista das transições<br />
possíveis.<br />
Taxa de erro global, comparação Fase 1, Fase 2 e Fase 3<br />
60,00%<br />
50,00%<br />
40,00%<br />
30,00%<br />
20,00%<br />
10,00%<br />
0,00%<br />
Taxa global de erro<br />
FASE1 55,48%<br />
FASE2 44,32%<br />
FASE3 - NEBULOSA 40,81%<br />
Gráfico 7 – Taxa de erro global após a classificação por inclusão de dados multitemporais<br />
nebulosos.<br />
O Gráfico 7 mostra que apesar de todo o procedimento ser focado na diminuição<br />
da taxa média de erro entre as classes, indicadores como a taxa global de acerto também<br />
se comportam de maneira favorável.
86<br />
5.5<br />
Conclusões<br />
Os experimentos realizados e descritos neste capítulo levaram algumas<br />
observações e conclusões que cabem ressaltar ao final desta seção.<br />
Em primeiro lugar se confirmou a tese de que métodos convencionais de<br />
classificação baseados apenas na informação espectral, trazem resultados insatisfatórios<br />
quando aplicados a imagens de alta resolução. De fato, ao se introduzir conhecimento<br />
prévio no processo de classificação obteve-se um aumento importante de desempenho<br />
da classificação.<br />
Nos experimentos realizados o conhecimento multitemporal se mostrou mais<br />
efetivo do que o conhecimento monotemporal. Sem dúvida o modelo de conhecimento<br />
monotemporalcriado neste trabalho é passível de ser aperfeiçoado, e os experimentos<br />
não permitem avaliar todo o potencial do método de classificação estrutural.<br />
Outro aspecto diz respeito à dificuldade para a aquisição de conhecimento. A<br />
modelagem de conhecimento através de regras se faz a partir séries de entrevistas com o<br />
analista, num processo longo e trabalhoso, além de estar sujeito à imprecisão inerente à<br />
subjetividade do processo de interpretação das imagens.<br />
O conhecimento multitemporal, na forma em que foi apresentado neste trabalho,<br />
é, ao contrário, fácil de se obter junto ao analista, já que se resume a discriminar entre<br />
transições de classe possíveis e impossíveis.<br />
Um outro comentário se refere ao volume de dados necessários para o ajuste dos<br />
parâmetros do modelo. O modelo de conhecimento requer uma imagem e a<br />
correspondente classificação de referência. O modelo multitemporal nebuloso requer<br />
além destas, ainda a classificação de uma imagem anterior da mesma área. O método<br />
multitemporal crisp, não requer uma classificação anterior, já que não se estimam os<br />
valores de possibilidade de transição, mas tem desempenho inferior ao do modelo<br />
nebuloso.<br />
Finalmente cabe mencionar que o método multitemporal nebuloso, admite que<br />
os valores de possibilidade de transição é estável ao longo do tempo. Esta é uma<br />
hipótese que não foi questionada neste trabalho e que não necessariamente se aplica a<br />
todos os problemas de interpretação de imagens de sensores remotos.
87<br />
6<br />
Comentários finais<br />
O objetivo desse trabalho foi avaliar a contribuição de diversas formas de<br />
conhecimento em um sistema automático de classificação aplicado a imagens de<br />
sensores remotos de alta resolução. O conhecimento empregado foi dividido em três<br />
modalidades expressas em três fases do processo de classificação. Na primeira houve o<br />
emprego de classificação espectral; na segunda a inclusão de informações de contexto e<br />
estruturais em conjunto com o conhecimento do especialista modelado por regras<br />
nebulosas, e na terceira fase a inclusão de conhecimento multitemporal por meio de<br />
diagramas de transição de classes.<br />
A inclusão do conhecimento específico, através de regras elaboradas pelo<br />
especialista, ofereceu um ganho importante na taxa global de acerto. O modelo neurofuzzy<br />
para otimização dos parâmetros dessas regras mostrou-se eficiente.<br />
A inclusão de conhecimento multitemporal trouxe também um aumento do<br />
desempenho da classificação. O ganho de desempenho obtido pela inclusão do<br />
conhecimento multitemporal foi, contudo, maior do que o ganho obtido pela inclusão<br />
do conhecimento monotemporal.<br />
Cabe relevar que essa análise está condicionada à área de estudo selecionada. A<br />
área do Parque da Pedra Branca sofre poucas alterações em um intervalo de tempo<br />
reduzido uma vez que é uma área de preservação ambiental. Com isso é uma área<br />
pouco suscetível a mudanças bruscas nas características de cobertura do solo, fato esse<br />
que sem dúvida aumenta o impacto do conhecimento multitemporal.<br />
Os resultados mostram que o melhor desempenho foi alcançado quando foi<br />
utilizado o conhecimento prévio envolvendo relativo a variáveis espectrais e contextuais<br />
em conjunto com o conhecimento multitemporal.<br />
É importante ressaltar que todos os procedimentos aqui abordados visam a<br />
elaboração de um modelo de classificação para a área de estudo analisada. Outras áreas<br />
podem vir a utilizar o mesmo método de modelagem, porém as regras, como as da fase<br />
2 ou o diagrama de transição da fase 3, são paraticulares para uma determinada área de<br />
estudo.
88<br />
Vários trabalhos podem ser desenvolvidos sobre a mesma temática seguindo a<br />
linha aqui proposta. Provavelmente o desempenho na primeira fase não aumentaria<br />
muito qualquer que fosse a informação incluída no classificador espectral<br />
supervisionado. Isso pode ser justificado pela complexidade das classes da legenda e do<br />
uso de imagens de alta resolução.<br />
Finalmente é importante mencionar que não foi um objetivo central deste<br />
trabalho construir um modelo de conhecimento contextual/espacial elaborado. É,<br />
portanto, razoável admitir que os ganhos de desempenho obtidos nesta etapa podem ser<br />
significativamente mais elevados do que o alcançado em nossos experimentos, desde de<br />
se crie um conjunto de regras mais elababorado.
89<br />
Referências<br />
1 CORR, D.G.; TAILOR, A.M.; CROSS, A.; MASON, D.C.; PETROU, M.; HOGG,<br />
D.C.; LAWRENCE. D.H. Progress In Automatic Analysis of Multitemporal<br />
Remotely-Sensed Data. In: IGARSS 1988 - International Geoscience And Remote<br />
Sensing Symposium, Edinburgh, Scotland, sep. 13-16 1988. Proceedings of<br />
IGARSS 1988, p. 1175-1178, 1988.<br />
2 BÜCKNER, J.; STAHLHUT, O.; PAHL, M.; LIEDTKE, C.-E. A Knowledge Based<br />
Automatic Image Data Analyzer for Remote Sensing Data. In: ICSC CONGRESS<br />
ON COMPUTATIONAL INTELLIGENCE METHODS AND APPLICATIONS<br />
2001 - CIMA 2001, 2001, Bangor, Wales, Reino Unido. Proceedings (CD ROM)<br />
of The Congress on Computational Intelligence Methods and Applications<br />
2001 – CIMA 2001. International Computing Sciences Conventions – University<br />
of Wales in Bangor, U.K, 2001.<br />
3 LIEDTKE, C.-E.; BÜCKNER, J.; GRAU, O.; GROWE, S.; TÖNJES, R. AIDA: A<br />
System for the Knowledge Based Interpretation of Remote Sensing Data, In:<br />
THIRD INTERNATIONAL AIRBORNE REMOTE SENSING CONFERENCE<br />
AN EXHIBITION, 1999, Copenhagen, Dinamarca, Proceedings of the Third<br />
International Airborne Remote Sensing Conference and Exhibition,<br />
Environmental Research Institute of Michigan, AGU, 1997.<br />
4 NIEMANN, H.; SAGERER G.; SCHRODER, S.; KUMMERT, F. ERNEST:A<br />
Semantic Network System for Pattern Understanding. IEEE Transactions on<br />
Pattern Analysis and Machine Intelligence, v. 12, n. 9, set 1990.<br />
5 CLEMENT, V.; GIRAUDON, G.; HOUZELLE, S.; SANDAKLY F. Interpretation of<br />
Remotely Sensed Images in a Context of Mutisensor Fusion Using a Multispecialist<br />
Architecture. IEEE Transactions on Geoscience and Remote Sensing, v. 31, n. 4,<br />
p. 779-791, jul 1993.<br />
6 MATSUYAMA, T.; HWANG, V. Advances in computer vision and machine<br />
intelligence. SIGMA, a knowledge-based aerial image understanding system. New<br />
York: Plenum, 1990. ISBN: 030643301X<br />
7 MCKEOWN, D. M.; HARVEY, W.A.; MCDERMOTT, J. Rule Based interpretation<br />
of aerial imagery. IEEE Transactions on Pattern Analysis and Machine<br />
Intelligence, v. 7, v. 5, p. 570-585, 1985.<br />
8 THOMAS W.W.; CARVALHO, A.M.V.; AMORIM, A.M.A.; GARISON, J.;<br />
ARBELÁZ, A.L. Plant endemism in two forests in southern Bahia, Brazil.<br />
Biodiversity and Conservation 7, p. 311-322, CIFOR/UNESCO, 1998.<br />
9 SIPS, P. The Atlantic Forest of South Bahia, Brazil: Hotspot within a Hotspot.<br />
European Tropical Research Network. n. 29, p. 41- 43, 1999. Disponivel em:<br />
<br />
10 MORI, S. A.; BOOM, B.M.; PRANCE, G.T. Distribution and conservation of easter<br />
Brazilian coastal forest tree species. Brittonia, 33, p. 233-245, 1981.
90<br />
11 <strong>Rio</strong> de Janeiro (Estado) Secretaria Municipal de Meio Ambiente. Relatório Técnico,<br />
SMAC. 2000. Mapeamento e caracterização de usos das terras e cobertura vegetal<br />
no município do <strong>Rio</strong> de Janeiro entre os anos de 1984 e 1999. <strong>Rio</strong> de Janeiro, 2000.<br />
12 ANTUNES, A. F. Classificação de ambiente ciliar baseada em orientação a<br />
objetos em imagens de alta resolução. Curitiba, 2003. Tese ( Pós Graduação em<br />
Ciências Geodésicas 0) - Universidade Federal do Paraná.<br />
13 CAMPBEL, J.B. Introduction to Remote Sensing. 3.ed. New York: Guilford<br />
Publications, 2002. 621p. ISBN 1572306408<br />
14 RST - The Remote Sensing Tutorial. Disponível em:<br />
Acesso em: 01 jul. 2005.<br />
15 LILLESEND, T.M.; KIEFER, R.W. Remote Sensing and Image Interpretation.<br />
4 th ed., New York: Wiley , 1999. ISBN: 0471255157<br />
16 SPACE IMAGING WEB SITE. Informações sobre o sensor IKONOS. Disponível<br />
em: < http://www.spaceimaging.com/ >. Acesso em: 20 jul. 2005.<br />
17 CIVCO, D.L. Topographic normalization of Landsat Thematic Mapper digital<br />
imagery, Photogrammetric Engineering and Remote Sensing, v. 55, n. 9, p.<br />
1303-1309, 1989.<br />
18 MATHER, P.M. Computer processing of remotely sensed images. John Wiley and<br />
Sons Ltd. 1987. ISBN: 0471906484.<br />
19 RICHARDS, J.A.; JIA, X. Remote Sensing Digital Image Analysis : An<br />
Introduction, 4 th ed, Springer, 2005. ISBN: 3540251286.<br />
20 HAYKIN, S. Redes Neurais: Princípios e práticas. 2. ed. Porto Alegre: Bookman,<br />
2001. ISBN: 85-7307-718-2.<br />
21 ELKAN, C.; BERENJI, H.R.; CHANDRASEKARAN, B.; SILVA, C.J.S.;<br />
ATTIKIOUZEL, Y.; DUBOIS, D.; PRADE, H.; SMETS, P.; FREKSA, C.;<br />
GARCIA, O.N.; KLIR, G.J.; Bo YUAN; MAMDANI, E.H.; PELLETIER, F.J.;<br />
RUSPINI, E.H.; TURKSEN, B.; VADIEE, N.; JAMSHIDI, M.; Pei-Zhuang<br />
WANG; Sie-Keng TAN; Shaohua TAN; YAGER, R.R.; ZADEH, L.A. The<br />
paradoxical success of fuzzy logic. IEEE Expert, v.9, n. 4, p.3-49, ago. 1994.<br />
22 JANG, J.-S. R., ANFIS: Adaptive-Network-based Fuzzy Inference Systems. IEEE<br />
Transactions on Systems, Man, and Cybernetics, v. 23, n. 3, p. 665-685, mai.<br />
1993.<br />
23 CHEN, Mu-Song. A comparative study of learning methods in tuning parameters of<br />
fuzzy membership functions. In: 1999 IEEE International Conference on Systems,<br />
Man, and Cybernetics, 12-15 Oct. 1999. IEEE SMC '99 Conference Proceedings,<br />
v. 3, p.40-44, oct. 1999.<br />
24 SUGENO, M., Industrial applications of fuzzy control, Elsevier Science Pub. Co.,<br />
1985.<br />
25 SVIREZHEV, Yu.M.; PASSEKOV, V.P. Fundamentals of Mathematical<br />
Evolutionary Genetics, Londres: Kluwer Academic Publisher, Mathematics and<br />
Its Applications (Soviet Series), v. 22, 1989.<br />
26 MICHALEWICZ, Z., Genetic Algorithms + Data Structures = Evolution<br />
Programs, 3 rd ed., Springer, 1998. ISBN: 3540606769.
91<br />
27 GONZALEZ, R.C., WOODS, R.E. Digital Image Processing. 2. ed. New Jersey:<br />
Prentice Hall, 2001. ISBN 0-201-18075-8<br />
28 MOHAN, B.K.; KADAM, S.U.; RAO E.P. Segmentation of High Resolution<br />
Imagery. Map Asia 2003, GISdevelopment.NET. Disponível em:<br />
<br />
29 PESARESI, M.; BENEDIKTSSON, J.A. A New Approach for the Morphological<br />
Segmentation of High-Resolution Satellite Imagery. IEEE Transactions on<br />
Geosciences and Remote Sensing, v. 29 , n. 2 , p. 309 – 320, fev. 2001.<br />
30 BEUCHER, S.; LANTEUJOUL, C. Use of watersheds in contour detection. In:<br />
International Workshop on Image Processing, real-time edge and motion<br />
detection/estimation, Rennes, France, Sept. 17-21 1979. Proceedings of<br />
International Workshop on Image Processing, real-time edge and motion<br />
etection/estimation, sept. 1979.<br />
31 BEUCHER, S. The watersheds transformation applied to image segmentation. In:<br />
1Oth Pfefferkorn Conf. on Signal and Image Processing in Microscopy and<br />
Microanalysis, Cambridge, UK, Sept. 16-19 1991. Scanning Microscopy<br />
International 6, p. 299-314.<br />
32 PESARESI, M.; BENEDIKTSSON, J.A. A New Approach for the Morphological<br />
Segmentation of High-Resolution Satellite Imagery. IEEE Transactions on<br />
Geosciences and Remote Sensing, v. 29 , n. 2 , p. 309 – 320, Feb. 2001.<br />
33 MEINEL G., NEUBERT M. A comparison of segmentation programs for high<br />
resolution remote sensing. In: XXth Congress of the International Society for<br />
Photogrammetry and Remote Sensing, Istanbul. International Archives of<br />
Photogrammetry and Remote Sensing, v. 35, Part B, p. 1097-1105, 2004.<br />
34 BAATZ, M.; SCHÄPE, A. Multiresolution Segmentation: an optimization approach<br />
for high quality multi-scale image segmentation. In: Angewandte Geographische<br />
Informationsverarbeitung XII, eds. Strobl, J., Blaschke, T.& Griesebner, G.<br />
Wichmann-Verlag: Heidelberg. Proceedings of Angewandte Geographische<br />
Informationsverarbeitung XII, p. 12-23, 2000. Disponível em:<br />
<br />
35 DEFINIENS e-Cognition Professional, version 4.0: multiscale image interpretation<br />
software. DEFINIENS IMAGING, 2004. Manual disponível em:<br />
.<br />
36 BARALDI, A.; PARMIGGIANI, F. An Investigation of the Textural Characteristics<br />
Associated with Gray Level Cooccurrence Matrix Statistical Parameters. IEEE<br />
Transactions on Geoscience and Remote Sensing, v. 33, n. 2, p. 293 – 303, Mar.<br />
1995.<br />
37 HARALICK, R.M.; SHANMUGAM, K.; DINSTEIN, J. Textural features for image<br />
classification. IEEE Transactions on System, Man and Cybernetics, v. 3, n. 6, p.<br />
610-621, Nov. 1973.<br />
38 MASUOKA P.M. Use of IKONOS and LANDSAT for malaria control in the<br />
Republic of Korea. Remote Sensing of Environment 88, p. 187–194, 2003.<br />
39 JENSEN, J.R.; Introductory Digital Image Processing: A Remote Sensing<br />
Perspective, 2nd ed. Upper Saddle River, NJ: Prentice-Hall, 1996.
92<br />
40 SHACKLFORD, A.K.; DAVIS, C.H. A Hierarchical FUZZY Classification<br />
Approach for High-Resolution Multispectral Data Over Urban Areas, IEEE<br />
Transactions on Geosciences and Remote Sensing, v. 41, p.2354-2363, Sept.<br />
2003.<br />
41 MELGANI, F.; Al HASHEMY, B.A.R.; TAHA, S.M.R. An explicit FUZZY<br />
supervised classification method for multispectral remote sensing images, IEEE<br />
Transactions on Geosciences and Remote Sensing, v. 38, p.287-295, Jan. 2000.<br />
42 SHACKLFORD, A.K., DAVIS, C.H. A fuzzy classification approach for highresolution<br />
multispectral data over urban areas, In: IGARSS 2002 - International<br />
Geoscience And Remote Sensing Symposium, Toronto, ON, Canada, June 24-28,<br />
2002. Proceedings of IGARSS 2002, v. 2, p. 1621-1623, Jun. 2002.<br />
43 BINAGHI, E.; GALLO, I.; PEPE, M. A cognitive Pyramid for Contextual<br />
Classification of Remote Sensing Images, IEEE Transactions on Geosciences<br />
and Remote Sensing, v. 41, p.2906-2922, Dec. 2003.<br />
44 SUGUMARAN, R.; PAVULURI, M.K. The Use of High-Resolution Imagery for<br />
Identification of Urban Climax Forest Species Using Traditional and Rule-Based<br />
Classification Approach, IEEE Transactions on Geosciences and Remote<br />
Sensing, v. 41, p.1933-1939, Sept. 2003.<br />
45 SHISONG Y.; CHIH-CHENG, H. Texture classification in remotely sensed images,<br />
In: IEEE Southeast Conference. 5 – 7 April 2002, Columbia, SC. Proceedings of<br />
IEEE Southeast p. 62 – 66, Apr. 2002.<br />
46 LELONG, C.C.D.; THONG-CHANE, A. Application of textural analysis on very<br />
high resolution panchromatic images to map coffee orchards in Uganda, In:<br />
IGARSS 2003 - International Geoscience And Remote Sensing Symposium, July<br />
21-25 2003. Proceedings of IGARSS 2003, v. 2, p. 1007 – 1009, 2003.<br />
47 PESARESI, M. Textural classification of very high-resolution satellite imagery:<br />
Empirical estimation of the interaction between window size and detection<br />
accuracy in urban environment, In: ICIP99 - International Conference on Image<br />
Processing, Kobe, 24-28 Oct. 1999. Proceedings of ICIP99, Kobe , v. 1, p. 114 –<br />
118, Oct. 1999.tober 1999, Vol.1, 25AP3.3, pp.114-118<br />
48 BENEDIKTSSON, J.A.; SWAIN, P.H.; ERSOY, O.K. Neural Network Approaches<br />
Versus Statistical Methods In Classification Of Multisource Remote Sensing data.<br />
IEEE Transactions on Geosciences and Remote Sensing, v. 28 , n. 4 , p. 540 –<br />
552, jul. 2003.<br />
49 HERRIES, G.M.; SELIGE, T.M. Characterization of agricultural land using signal<br />
processing and cognitive learning techniques. In: IGARSS 1997 - International<br />
Geoscience And Remote Sensing Symposium, Toronto, ON, Canada, August 3-8,<br />
1997. Proceedings of IGARSS 1997, v. 2, p. 1032 – 1034, Ago. 1997.<br />
50 BENEDIKSSON, J.A.; SVENSSON, J.R.; AMASON, K. Classification and feature<br />
extraction of AVIRIS data. IEEE Transactions on Geosciences and Remote<br />
Sensing, v. 33 , n. 5 , p. 1194 – 1205, Sept. 1995.<br />
51 LEE, C.; LANDGREBE, D.A. Feature extraction based on decision boundaries.<br />
IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 15, n. 4 ,<br />
pp. 388 – 400, Apr. 1993.
93<br />
52 LEE, C.; LANDGREBE, D.A. Decision boundary feature extraction for neural<br />
networks. IEEE Transactions on Neural Networks, v. 8 , n. 1, p. 75 – 83, Jan.<br />
1997.<br />
53 LEE, C.; LANDGREBE, D.A. Decision boundary feature extraction for<br />
nonparametric classification. IEEE Transactions on Systems, Man and<br />
Cybernetics, v. 23 , n. 2 , p. 433 – 444, Mar./Apr. 1993.<br />
54 BLASCHKE, T.; STROBL. J. What is wrong with pixel Some recent developments<br />
Interfacing remote sensing and GIS. GeoBIT/GIS 6, p. 12-17, 2001.<br />
55 SMITH, G.M.; HOFFMANN, A. 2001: An Object based Approach to Urban Feature<br />
Mapping, In: 2 nd International Symposium Remote Sensing of Urban Areas,<br />
Regensburg, Germany, 22-23 June, 2001. Proceedings of Symposium on Remote<br />
Sensing of Urban Areas, Jun. 2001.<br />
56 REGO, L.F.G.; KOCH, B. Automatic classification of land cover with high<br />
resolution data of the <strong>Rio</strong> de Janeiro City Brazil, In: 2 nd GRSS/ISPRS Joint<br />
Workshop on Remote Sensing and Data Fusion over Urban Areas, Berlin,<br />
Germany, 22-23 Mai. 2003. Proceedings of 2 nd GRSS/ISPRS Joint Workshop on<br />
Remote Sensing and Data Fusion over Urban Areas, p. 172 – 176, Mai. 2003.<br />
57 REGO, L.F.G. Automatic land-cover Classification Derived from High-Resolution<br />
IKONOS Satellite Image in the Urban Atlantic Forest in <strong>Rio</strong> de Janeiro, Brazil, by<br />
Means of an Objects-Oriented Approach, Ph.D. Thesis, Universitat Freiburg<br />
(Germany)<br />
58 KRESSLER, F.P.; KIM Y.S.; STEINNOCHER, K.T. Object-oriented land cover<br />
classification of panchromatic KOMPSAT-1 and SPOT-5 data. In: IGARSS 2003 -<br />
International Geoscience And Remote Sensing Symposium, Jul. 21-25 2003.<br />
Proceedings of IGARSS 2003, v. 6, p.3471 – 3473, 2003.<br />
59 KRESSLER, F.P.; BAUER, T.B.; STEINNOCHER, K.T. Object-oriented per-parcel<br />
land use classification of very high resolution images. In: IEEE/ISPRS Joint<br />
Workshop on Remote Sensing and Data Fusion over Urban Areas, nov. 8-9 2001.<br />
Proceedings of IEEE/ISPRS Joint Workshop on Remote Sensing and Data<br />
Fusion over Urban Areas, p.164 – 167, Nov. 2001.<br />
60 CORR, D.G.; WALKER, A.; BENZ, U.; LINGENFELDER, I.; RODRIGUES, A.<br />
Classification of urban SAR imagery using object oriented techniques. In: IGARSS<br />
2003 - International Geoscience And Remote Sensing Symposium, July 21-25<br />
2003. Proceedings of IGARSS 2003, v. 1, p. 188 - 190, 2003.<br />
61 HONG, S.; FUKUE, K.; SHIMODA, H.; SAKATA, T. Multitemporal Satellite<br />
Images for Land Cover Classification. In: IGARSS 1991 - International<br />
Geoscience And Remote Sensing Symposium. Proceedings of IGARSS 1991, p.<br />
1831-1834, 1991.<br />
62 KUSHARDONO, D.; FUKUE, K.; SHIMODA, H.; SAKATA, T. Comparison of<br />
Multi-Temporal Image Classification Methods. In: IGARSS 1995 - International<br />
Geoscience And Remote Sensing Symposium, Jul. 10-14 1995. Proceedings of<br />
IGARSS 1995, v. 2, p. 1282-1284, 1991.<br />
63 FUJIMURA, S.; KIYASU, S. Classification of Terrain Objects using Hyper-<br />
Dimensional (Multi-Temporal Multi-Spectral) Images Through Purpose-Oriented
94<br />
Feature Extraction. In: IGARSS 1999 - International Geoscience And Remote<br />
Sensing Symposium, Jun 28-Jul 02 1999. Proceedings of IGARSS 1999,v. 2, p.<br />
1192-1194, 1988.<br />
64 KAMATA, S.-I.; NIJIMI, M.; KAWAGUCHI, E. A multi-temporal classification of<br />
multi-spectral images using a neural network. In: 12th IAPR International<br />
Conference on Pattern Recognition, out. 9-13 1994. Proceedings of the 12th IAPR<br />
International, v. 2, p. 470 – 472, 1999.<br />
65 KAMATA, S.-I; KAWAGUCHI, E. A Neural Net Classifier for Multi-Temporal<br />
LANDSAT Images Using Spatial and Spectral Information. In: International Joint<br />
Conference on Neural Networks, 1993. Proceedings of 1993 International Joint<br />
Conference on Neural Networks, p. 2199-2202, 1993.<br />
66 JEON, B.; LANDGREBE, D.A. Classification with spatio-temporal interpixel class<br />
dependency contexts. IEEE Transactions on Geosciences and Remote<br />
Sensing, v. 30, n. 4, p. 663 – 672, Jul. 1992.<br />
67 MÜLLER, S.; MOTA, G.L.A.; LIEDTKE, C.-E. Multitemporal Interpretation of<br />
Remote Sensing Data. In: XXth ISPRS Congress, Jul. 12-23 2004 Istanbul, Turkey.<br />
Proceedings of ISPRS. v. 35, part B4, p. 1244-1248, 2004.<br />
68 MOTA, G.L.A. Knowledge-based Interpretation of Multitemporal Low<br />
Resolution Satellite Images. <strong>Rio</strong> de Janeiro, 2004. 206p. Ph.D Electrical<br />
Engineering Thesis - Pontifical Catholic University of <strong>Rio</strong> de Janeiro, <strong>Rio</strong> de<br />
Janeiro, Brazil.<br />
69 CAMPOS, V.O.; FEITOSA, R.Q.; MOTA, G. L.A.; PACHECO, M A.C.;<br />
COUTINHO, H.L.C. Um Método para Modelagem do Conhecimento<br />
Multitemporal no Processo de Classificação Automática de Imagens de Sensores<br />
Remotos. In: XII SBSR – Simpósio Brasileiro de Sensoriamento Remoto, Goiânia,<br />
GO, Brazil, Abr. 16-21 2005. Revista Brasileira de Cartografia, No 57/01, 2005.<br />
p. 28-35. ISSN 1808-0936. Disponível em:<br />
. Acesso em 23 de maio<br />
de 2005.<br />
70 CAMPOS, V. O.; FEITOSA, R. Q.; MOTA, G. L. A.; PACHECO, M A.C.;<br />
COUTINHO, H. L. C; Um método para modelagem de conhecimento<br />
multitemporal no processo de classificação automática de imagens de sensores<br />
remotos. In: Simpósio Brasileiro de Sensoriamento Remoto, 12. (SBSR), 16-21<br />
Abr. 2005, Goiânia. Anais XII Simpósio Brasileiro de Sensoriamento Remoto,<br />
São José dos Campos: INPE, 2005a. Artigos, p. 4021-4028. CD-ROM.<br />
71 LEICA GEOSYSTEMS, ERDAS Imagine, version 8.7: geographic imaging<br />
software. [S.I.] Leica Geosystems GIS & Mapping, 2003.