12.07.2015 Views

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>WVC</strong>'<strong>2007</strong> - <strong>III</strong> Workshop de Visão Computacional, 22 a 24 de Outu<strong>br</strong>o de <strong>2007</strong>, São José do Rio Preto, SP.cretizados utilizando o algoritmo de quantização de vetoresLBG (Vector Quantization LBG) [12] e utilizado comosímbolos de observações para dois HMMs, um correspondendoao comportamento de ataque e o outro correspondendoao não-ataque. Um total de 20 seqüências de imagensforam utilizadas para treinar e 10 para avaliar o módulode classificação baseado em HMMs. Todos os experimentosforam realizados em um computador com um processadorP4 2.8GHz, 512MB de RAM e Fedora Core 5.Os experimentos foram conduzidos a fim de encontrara configuração do HMM que alcança a maior taxa declassificação correta no problema de classificação do comportamentode bote. Três parâmetros foram avaliados: onúmero de estados ocultos, o número de iterações do algoritmoBaum-Welch e o procedimento de inicializaçãodurante a fase de aprendizagem. O número de estados eiterações variou de 2 a 20, e de 100 a 1000, respectivamente.Dois procedimentos de inicialização foram avaliados:o procedimento sugerido em [10], que assume umadistribuição de probabilidade uniforme para todas as matrizese uma aproximação baseada em K-Means [8]. Paraa aproximação baseada em K-Means, as matrizes A e πforam calculadas como em [10], entretanto, a matriz B éinicializada de maneira diferente. Primeiro, o conjunto detreinamento é clusterizado utilizando o K-Means, sendo Konúmero de estados do HMM. Então, utilizando o mapeamentodos estados para o conjunto de treinamento geradopelo procedimento de clusterização, a matriz B pode ser estimadapor uma técnica simples de contagem.Figura 4. Número de Estados X ClassificaçãoCorreta.Figura 5. Número de Estados X Tempo deExecução (milisegundos) .6. Resultado e AnáliseOs resultados são apresentados nas Figuras 4, 5, 6,e 7. Na Figura 4 o gráfico relata o número de estadosdos HMMs pela porcentagem de classificação correta.A partir de 6 estados, a média de classificação corretase manteve na faixa de 78% a 80%. Com 10 estadosos HMMs alcançaram a melhor média de classificação correta,alcançando 82.1% com um tempo de execução de515.41 milisegundos. A variação entre o número de estadose o tempo de execução é mostrada na Figura 5.O gráfico mostra uma curva de cre<strong>sc</strong>imento polinomialem relação ao número de estados. Com isso, é possívelassociar o resultado do gráfico com a complexidade do algoritmoForward-Backward (O(N 2 T ), sendo N onúmerode estados e T o tamanho da observação) acre<strong>sc</strong>ido de alguma<strong>sc</strong>onstates, como o número de iterações (valor fixo) etamanho da seqüência das observações.Ográfico da Figura 6, relata o número de iterações utilizadono algoritmo Baum-Welch e a taxa de classificaçãocorreta, indicando que este parâmetro não possui um grandeefeito no desempenho, que é sempre mantido em torno de81%.Finalmente, na Figura 7 é apresentado um comparativoentre os dois tipos de inicialização. O gráfico mostraa relação entre o número de estados e a porcentagem declassificação correta. A inicialização baseada no algoritmoK-Means obteve melhores resultados com um número pequenode estados, enquanto que, a inicialização aleatóriaobteve melhores resultados com um número maior de estados.Para um número grande de estados, o K-Means atribuíapoucas amostras a alguns estados, conseqüentemente, asprobabilidades correspondentes a esses estados eram muitopequenas ou nulas. Concluindo assim que esses estadoseram desnecessários e apenas confundiam a classificaçãocorreta. A melhor porcentagem de acerto foi alcançada coma inicialização baseada no algoritmo K-Means, alcançandouma porcentagem de classificação de 84% para um HMMcom 4 estados.7. Conclusão e Trabalhos FuturosEste artigo mostrou uma aplicação dos modelos ocultosde Markov no reconhecimento de comportamentos deserpentes. Os experimentos mostraram que a inicialização328

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!