12.07.2015 Views

Recognition of Brazilian Currency Notes via Feature Point Extraction

Recognition of Brazilian Currency Notes via Feature Point Extraction

Recognition of Brazilian Currency Notes via Feature Point Extraction

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

correspondências entre as imagens. Winter e Brown [16]evidenciam que, em um cenário típico, um detector depontos de interesse é usado para selecionar pontosreconhecíveis em uma imagem e um descritor é usadopara caracterizar a região ao redor destes pontos. A saídadeste algoritmo é um vetor numérico invariante àstransformações mais comuns na imagem e que pode sercomparado com outros descritores em um banco de dadospara obter a correlação através de alguma métrica. Decerta forma, esse é o método mais simples de combinardois conjuntos de recursos implementados para fazercomparação no primeiro vetor de descritores para cadacaracterística no segundo vetor de descritores.C. Arquitetura do sistema de captação.Como descrito anteriormente, a estratégia aqui propostaconsiste em captar o frame recebido pela câmera e extrairos ponto de interesse contidos neste frame (usando oalgoritmo ORB). Cada ponto de interesse consiste emuma posição central em coordenadas e um vetorque descreve a vizinhança deste ponto. Os pontos deinteresse extraídos do frame serão comparados comaqueles arquivados em disco para a identificação decorrespondência entre os descritores.O resultado desta etapa consiste em uma estrutura dedados que indicará a correspondência entre os pontos deinteresse contidos no frame e no arquivo.Um algoritmo foi usado para calcular acorrespondência entre os dois descritores em questão.Cada ponto de interesse passa por um teste para verificarse este corresponde às exigências da equação aquiproposta:Assumindo queé o valor da distância dospontos de interesse entre duas vizinhanças na posiçãoda imagem capturada pelo frame e consiste em umvalor limite pré-determinado. Para cada ponto deinteresse avaliado no frame, é calculado no momento ovalor. Caso ele seja menor ou igual a umlimite especifico, um ponto em comum entre a descriçãoda nota em arquivo e o frame é associado à região, casocontrário ele é descartado.O algoritmo para fazer a comparação dos descritoresmostrou-se eficiente. Os testes afirmam que aaproximação dos resultados encontrados entre o frame eos descritores provou ser muito boa em aplicações maispráticas, visto que ORB é invariante a rotação, além doalgoritmo de força bruta executar de forma eficiente abusca por correspondência entre as imagens.Algoritmo 1 – Algoritmo para determinar um bom pontode interesse.ForIfEnd forEnd ifIV. EXPERIMENTOS E RESULTADOSCom o objetivo de testar a pertinência da proposta, osistema desenvolvido foi empregado em doisexperimentos: o primeiro, que utilizava a versão doalgoritmo em desktop, e o segundo, com a versão doalgoritmo portada para o sistema Android.Em ambos os experimentos, foram testadas quinzenotas de cada valor, sendo elas: 2, 5, 10, 20, 50 e 100reais. Tais notas estavam sujeitas a rasuras, amassados eoutros tipos de imperfeições, proporcionando assim umabateria de testes diversificada e realista.Ambos os experimentos foram realizados emambientes com iluminação diversa, durante uma tarde euma noite nos laboratórios e corredores de umaInstituição de Ensino Superior.No primeiro teste, com o sistema em desktop,empregamos um microcomputador com sistemaoperacional Windows 7, 4GB de memória RAM eprocessador Intel Core I5.Os voluntários (pessoas de ambos os sexos, a maioriagraduandos ou pr<strong>of</strong>essores da Instituição na qual seprocederam os experimentos) eram convidados,aleatoriamente, a exibir para o sistema alguma nota queportavam em suas carteiras. O experimento durou até queo numero mínimo de 15 notas de cada valor fosseavaliado. A cada exibição, o sistema emitia um avisosonoro sobre o valor da nota apresentada.Após mostrar arbitrariamente a nota para o sistema, ovoluntário era convidado a exibir, também, o outro ladoda nota que segurava, sem qualquer restrição quanto àorientação ou premissas que pudessem facilitar aidentificação das mesmas. As tabelas 1 e 2 resumem osresultados da primeira bateria de testes.Os testes com o algoritmo executando no computadorpessoal demonstraram que o verso da nota obteve menormargem de erro, sendo, portanto, mais facilmentedetectado pelo sistema. O tempo para ser detectadotambém era menor quando comparado com a frente dasnotas que foram detectadas corretamente, como se podeperceber no resumo apresentado pela tabela 5.Este cenário pode ser atribuído ao fato de que o versodas notas possui variação mais acentuada de bordas(característica relevante para o sistema de identificaçãode pontos de interesse usando o algoritmo ORB). Como


os algoritmos de detecção de ponto de interesse, emgeral, trabalham com estas regiões para a determinaçãoda posição de seus pontos, uma região rica em bordasdistinguíveis das demais tende a ser mais facilmenteidentificada.Em contrapartida, houve menor percentual de acertosquando os testes foram realizados com a frente da nota.Percebe-se que a semelhança entre a parte da frente detodas as notas (mesma tipografia), variando apenas a core numeração, caracteriza-se como um desafio para atécnica proposta.Uma abordagem futura pode incluir outros processosde identificação, que leve em conta característicasauxiliares como a cor ou o reconhecimento numéricopara o incremento da robustez do sistema. O equívocodos testes com a frente da cédula ocorria de modo que acédula de 2 reais era, algumas vezes, detectada como 20 evice-versa, sendo que o mesmo ocorria entre as cédulasde 5 e 50 e de 10 e 100.preocupar com qualquer adequação da cédula nomomento de exibição ao sistema, além de não sernecessário o retreinamento de nosso sistema decorrentede alterações de iluminação do ambiente oucaracterísticas de hardware.A fim de se verificar a consistência do sistema no quese refere ao ambiente final ao qual se propõe, foiprocedida a segunda bateria de testes, na qual a versãopara Android foi empregada. Para este experiment<strong>of</strong>oram utilizados os mesmos métodos da primeira bateriade testes, com um smartphone Galaxy Ace com câmerade 5 megapixels, processador de 800 MHz e 279 MB deRAM. A versão do Android empregada foi a 2.3.4. Astabelas 3 e 4 resumem os resultados observados.TABELA 3 – RESULTADOS DA AVALIAÇÃO DA FRENTE DAS NOTAS DEREAL PELO SISTEMA EM ANDROID.TABELA 1 – RESULTADOS DA AVALIAÇÃO DO VERSO DAS NOTAS DEREAL PELO SISTEMA EM DESKTOP.TABELA 4 – RESULTADOS DA AVALIAÇÃO DO VERSO DAS NOTAS DEREAL PELO SISTEMA EM ANDROID.TABELA 2 – RESULTADO DA AVALIAÇÃO DA FRENTE DAS NOTAS DEREAL PELO SISTEMA EM DESKTOP.Ainda que o valor de acerto médio da frente da cédulatenha sido menor, quando observamos o valor médioconsiderando os dois lados das cédulas, segundo osvalores demonstrados nas tabelas 1 e 2, vemos que osistema responde corretamente em 89,33% dos casos,índice comparável ao alcançado no trabalho de [5], noqual o sistema proposto reconhece, em média, 93,9%.Cabe sublinhar que o ambiente de testes é diferente entreo trabalho aqui proposto e o desenvolvido pelo trabalho[5]. Em nossa proposta, o usuário não precisa seHá de se destacar que, ainda que os resultados nodispositivo móvel tenham sido mais efetivos, o tempopara processamento e resposta também s<strong>of</strong>reramacréscimo nesta plataforma, com se observa na tabela 5.Uma hipótese para os resultados mais expressivos naplataforma móvel é a de que o algoritmo empregado paraextração e descrição dos pontos de interesse tenha sidootimizado para tal cenário, impressão que encontrarespaldo no artigo original da técnica [10]. Ainda assim,mais experimentos de cunho comparativo devem serrealizados para a confirmação desta hipótese.Considerando os resultados alcançados pela versãopara dispositivo móvel do sistema, percebe-se que aproposta alcançou a média de 98,8% de reconhecimentocorreto das cédulas apresentadas, patamar que ultrapassaos índices do trabalho de referencia [5].


TABELA 5 – TEMPO MÉDIO DE PROCESSAMENTO DO ALGORITMO NASPLATAFORMAS DESKTOP E EM DISPOSITIVO MÓVEL.V. CONCLUSÕES E TRABALHOS FUTUROSPercebe-se que os resultados alcançados pela propostademonstram a adequação do emprego do algoritmo nodesenvolvimento de sistemas para o reconhecimento denotas de real. Cabe salientar que o trabalho aqui propostonão tem qualquer intenção de verificar a veracidade danota apresentada ao sistema, mas sim interpretar o valorda cédula, informando-o ao usuário em formato de áudio.Ainda que a maioria dos trabalhos correlatosestudados empreguem RNA, verificou-se que o uso dealgoritmo para detecção de pontos de interesse seapresenta relevante ao contexto, com a vantagem deentregar ao usuário final um sistema livre da necessidadede calibrações ou retreinamentos característicos dossistemas baseados em RNA.A necessidade de diminuição do tempo médio paraexibição do resultado na versão para o dispositivo móvelpode se apresentar como um mote para pesquisasorientadas à otimização dos algoritmos empregados.Neste contexto, propõe-se o emprego de outros métodospara a correspondência entre os pontos de interesse, quenão sejam baseados em busca exaustiva.Mediante os resultados alcançados, vislumbra-se umleque de possibilidades sobre o desenvolvimento detrabalhos futuros decorrentes desta proposta. A principalquestão, porém, que o trabalho deixou de tratar, foi aexequibilidade do sistema junto ao usuário final de maiorinteresse (deficientes visuais), sendo esta uma tarefadeterminante para a continuidade do projeto.Cabe ressaltar, por fim, que o emprego da técnica depontos de interesse apresenta diversas vantagens quandocomparada com a opção de RNA para o contexto no qualse propõe este trabalho, uma vez que possibilita aosistema ser invariante à iluminação, rotação e escala,diminuindo a quantidade de arquivos a seremcomparados em disco para a correspondência entre asimagens e sem a necessidade de treinamento de redes oucontrole do ambiente no qual o algoritmo será executado.[3] PINHANEZ, C. et al. The KidsRoom: A Perceptually-BasedInteractive and Immersive Story Environment. M.I.T MediaLaboratory Perceptual Computing Section Technical Report, 1999.[4] ALTHAFIRI, E; SARFRAZ M; ALFARRAS, M. Bahraini Paper<strong>Currency</strong> <strong>Recognition</strong>. Journal <strong>of</strong> Advanced Computer Science andTechnology Research Vol.2 No.2, June 2012.[5] CAMPOS, D; MACHADO, A.. Um Sistema de Identificação deCédulas monetárias para Indivíduos Portadores de DeficiênciaVisual. Instituto de Informática - Pontifícia Universidade Católica deMinas Gerais. 2009.[6] HASSANPOUR, H; YASERI, A; ARDESHIRI, G. <strong>Feature</strong><strong>Extraction</strong> For Paper <strong>Currency</strong> <strong>Recognition</strong>. IEEE TransactionsOn Signal Processing and it’s Applications, 2007.[7] SINGH, B; BADONI, P; VERMA, K. Computer Vision based<strong>Currency</strong> Classification System International Journal <strong>of</strong> ComputerApplications, Vol.6, No,4, February 2011.[8] SHARMA, B; KAUR, A; VIPAN. <strong>Recognition</strong> <strong>of</strong> Indian Paper<strong>Currency</strong> based on LBP. International Journal <strong>of</strong> ComputerApplications, Vol. 59 no.1, December 2012.[9] OJALA, T; PIETIKINEN, M; MENP T. MultiresolutionGrayscale and Rotation Invariant Texture Classification withLocal Binary Patterns. IEEE PAMI, Vol. 24, No. 7, July 2002.[10] RUBLEE, E; REBAUD, V; KONOLIGE, K; BRADSKI, G. ORB:An Efficient Alternative to SIFT or SURF. Willow Garage,Menlo Park, California. 2011.[11] BAY, H; TUYTELAARS, T; GOOL, L. V. SURF: Speeded UpRobust <strong>Feature</strong>s. ETH Zurich. 2008.[12] E. Rosten and T. Drummond. Machine learning forhigh-speed corner detection. European Conferenceon Computer Vision. 2006.[13] CALONDER, M; LEPETIT, V; STRECHA, C; FUA, P. BRIEF:Binary Robust Independent Elementary <strong>Feature</strong>s. ECCV. 2010.[14] Lowe, David G. Object recognition from local scale-invariantfeatures. Proceedings <strong>of</strong> the International Conference on ComputerVision. 2. pp. 1150–1157. 1999.[15] Open Source Computer Vision. Disponível em: Acesso em: mar. 2013.[16] WINTER, S; BROWN, M. Learning Local Image Descriptors. In:Proceedings <strong>of</strong> CVPR, pg. 1-8, 2007.REFERÊNCIAS[1] STEPHANIDIS, C. Adaptative Techniques for Universal Access.in: User Modeling and User-Adapted Interaction. p. 159-179. 2001.[2] IBGE, Instituto Brasileiro de Geografia e Estatística. CensoDemográfico 2010. Disponível em: Acesso em: set. 2012

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!