12.07.2015 Views

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>WVC</strong>'<strong>2007</strong> - <strong>III</strong> Workshop de Visão Computacional, 22 a 24 de Outu<strong>br</strong>o de <strong>2007</strong>, São José do Rio Preto, SP.identifica o respectivo nó. Esta tarefa é implementadano módulo chamado caracterização dos nós e suarelação com os demais módulos está esquematizada naFigura 1. Navegação baseada em marcos estáamplamente difundida na literatura da área e pesquisasenvolvendo tal técnica têm obtido bons resultados [5, 6,7 e 8].Figura 3. Imagem omnidirecional não pré-processadaFigura 4. Imagem panorâmica obtida a partir de umaimagem omni4. Estrutura da rede neural hierárquicaFigura 1. Diagrama funcional do sistema demapeamento3.1. Sistema de visão omnidirecional do robômóvel do LACENesta Seção apresentamos o sistema de visãoomnidirecional embarcado no robô móvel do LACEutilizado para captura de cenas do ambiente explorado.A Figura 2 ilustra o procedimento de captura eprocessamento da imagem.As imagens omnidirecionais são capturadas poruma câmera com seu foco alinhado a um espelhocônico. Tais imagens são retificadas no módulo de visãoomnidirecional, transformando-a numa imagempanorâmica da cena. Esta é então pré-processada,sofrendo um processo de binarização e detecção debordas. Esta é a imagem disponibilizada ao sistema demapeamento de<strong>sc</strong>rito neste trabalho. As Figuras 3e4ilustram exemplos de imagens omnidirecional epanorâmica, respectivamente.Nesta Seção de<strong>sc</strong>reve-se a estrutura da rede neuralutilizada pelo módulo de classificação. A rede propostaé estruturada hierarquicamente em duas camadas(Figura 5), razão e intuição, e têm a função declassificar os locais explorados pelo robô dentre quatroclasses pré-definidas: corredor, intersecção, sala eporta. Para realizar esta tarefa, a rede recebe comodados de entrada as leituras de sensores de ultra-som eas imagens panorâmicas disponibilizadas pelo sistemade visão embarcado no robô.A rede razão recebe os valores lidos pelos sensoresde ultra-som, os quais medem as distâncias do robô emrelação a objetos. Já a rede intuição recebe comoentrada uma imagem de 50X6 pixels.Os sonares localizados nas laterais do robô semovimentam na horizontal enquanto realizam asleituras das distâncias. Dessa forma, eles fornecem umvetor de números reais, onde cada número representa adistância do robô em relação a um objeto, calculadasegundo o ângulo formado entre a respectiva direção deleitura e a posição central de leitura.As leituras do sensor dianteiro são executadasseguindo o mesmo procedimento, exceto pelo fato deque o mesmo se movimenta também na vertical,resultando numa matriz de números reais. Isto se faznecessário para garantir que o robô detecte a altura doespaço livre à sua frente, evitando possíveis colisões.Cada neurônio da camada de entrada da primeirarede recebe a leitura de uma das posições dos vetores eda matriz. Sendo assim, esta camada tem tantosneurônios quanto o número de leituras efetuadas pelostrês sensores. Este número é fixo durante a execução doprocedimento, podendo, entretanto, ser alterado.Figura 2 – Esquema do sistema de visão do robômóvel do LACE71

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!