12.07.2015 Views

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>WVC</strong>'<strong>2007</strong> - <strong>III</strong> Workshop de Visão Computacional, 22 a 24 de Outu<strong>br</strong>o de <strong>2007</strong>, São José do Rio Preto, SP.Redução de Dimensões Baseada emRedes Neurais Perceptron MulticamadaSoledad Espezúa Llerena, Carlos Dias MacielE<strong>sc</strong>ola de Engenharia de São Carlos – Universidade de São Paulo, Brasil.sespezua@<strong>sel</strong>.<strong>ee<strong>sc</strong></strong>.<strong>usp</strong>.<strong>br</strong>, maciel@<strong>sel</strong>.<strong>ee<strong>sc</strong></strong>.<strong>usp</strong>.<strong>br</strong>ResumoNeste trabalho, é apresentada uma alternativa aoclássico método estatístico Multidimensional Scaling(MDS) para reduzir dimensionalidade de dadosmultivariados. A alternativa proposta usa duas redesneurais gêmeas com arquitetura PerceptronMulticamada (PMC) conectadas em paralelo, com o fimde alcançar o mapeamento dos dados de um espaço dealta dimensionalidade para outro espaço de baixadimensionalidade (3-2D). Este modelo aprende a partirde um conjunto de vetores de características de entradae saídas desejadas em forma de matriz de distância oudissimilaridade entre pares de dados. O modelo foitestado em dados sintéticos e em dados de umconhecido exemplo de mapeamento de cores, obtendoseresultados aceitáveis. Foi observado que inclusivecom uma medida destorcida dos vetores de entrada arede neural proposta consegue encontrar uma boarepresentação num espaço baixo dimensional.Palavras Chave: Perceptron Multicamada,Multidimensional Scaling.1. IntroduçãoCom o continuo incremento do poder computacional ea tecnologia de armazenamento atual, é possível coletar,analisar e armazenar grandes quantidades de dados. Astécnicas de redução dimensional constituem umaferramenta importante para os usuários, no processo deextração e compressão de informação de bancos dedados com grandes quantidades de registros e atributos.Muitos métodos têm sido propostos para tratar aredução de dimensionalidade de dados multivariados.Por exemplo, têm-se técnicas estatísticas como análisede componentes principais (PCA) e e<strong>sc</strong>alonamentomultidimensional (MDS) [6]; técnicas de inteligênciaartificial baseadas em redes neurais [1] como mapasauto-organizados (SOM-maps), redes Auto-associativasFeedForward (AFN), as quais realizam a reduçãodimensional mediante a extração da atividade dosneurônios desde a camada interna, CurvilinearComponents Analysis (CCA) [2] que foi proposta comouma melhora aos SOM-maps, NeuroScale [3] que é umaAFN modificada para incorporar informação subjetivaassociada. Posteriormente se propuseram outras técnica<strong>sc</strong>omo Generative Topographic Mapping (GTM) [4] [5]que é um modelo probabilístico que tem sido usadocomo uma alternativa aos SOM-maps para so<strong>br</strong>epor asprincipais desvantagens encontradas nesse modelo.Em técnicas como MDS o número de dimensões édeterminado de uma forma semelhante àquela utilizadana análise fatorial [7], com o erro de aproximação(stress) desempenhando o papel da variância explicada.À medida que se aumenta o número de dimensões, osdados representam melhor a matriz de distânciadesejada e o valor de stress diminui.A disposição dos dados (mapa) pode ser alcançadapor vários métodos; primeiro é necessário que os dadosmultivariados sejam transformados em medidas deproximidade (matriz de distância) usando algumamétrica de distância para logo se encontrar a disposiçãode pontos num espaço de coordenadas reduzidomediante o uso de uma técnica de redução dimensional.Neste trabalho é apresentado um método para realizarredução dimensional com redes neurais artificiais,baseado no método proposto por Kenji Suzuki [8] paramapeamento de faces. O método desenvolvido usa umarranjo de duas redes neurais com arquiteturaPerceptron Multicamada (PMC) conectadas emparalelo, as quais aprendem o mapeamento não linear,entre os vetores de características de entrada (com altadimensionalidade) e a representação dos dados em baixadimensão, tendo como sinal de aprendizagem a matrizde dissimilaridade desejada. O treinamento da rede ébaseado no algoritmo Backpropagation com aconsideração de que o sinal de erro para o treinamento éobtido a partir da diferença entre a distância euclidianacalculada nas saídas das 2 redes e a dissimilaridadedesejada. Depois do treinamento, novos dados podemser apresentados e avaliados, aproveitando a capacidadede generalização da rede.Este trabalho está organizado da seguinte forma, aparte 2 apresenta uma definição de nosso problema, aparte 3 segue com a solução do problema com redesneurais, a parte 4 mostra os resultados computacionais edi<strong>sc</strong>ussões para dois bancos de dados sintéticos e umconhecido banco de dados para percepção de cores;finalmente na parte 5 são apresentadas ás conclusões.2. Definição do problemaFormalmente o problema pode ser definido como:dado um conjunto de p vetores de características deentrada X = { x1 ,..., xp }, definidos em um espaço m-dimensionalmR, onde um padrão α é representado*O presente trabalho foi auxiliado pela CAPES. Agencia deGoverno Brasileiro para o desenvolvimento de recursoshumanos.139

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!