12.07.2015 Views

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>WVC</strong>'<strong>2007</strong> - <strong>III</strong> Workshop de Visão Computacional, 22 a 24 de Outu<strong>br</strong>o de <strong>2007</strong>, São José do Rio Preto, SP.Conjunto Frutas Folhas Céu Total20% 1110 5602 35 674730% 1278 5997 117 739250% 1349 6283 225 785770% 1363 6297 261 7921100% 1364 6297 275 7936Tabela 1. Número de vetores em cada classepara o caso RGB.Conjunto Frutas Folhas Céu Total20% 566 5405 31 600230% 1155 6029 89 727350% 1331 6277 209 781770% 1363 6297 255 7915100% 1364 6297 275 7936Tabela 2. Número de vetores em cada classeparaocasoHSV.Com o objetivo de avaliar a relação entre quantidadede dimensões e a taxa de classificações corretas,esta técnica foi adotada. Deste modo também, evita-sea “maldição da dimensionalidade”, a qual prejudica diretamenteos classificadores [6].Neste trabalho, a PCA foi feita em cada um dos conjuntosde treinamento e as matrizes de transformaçãoencontradas foram usadas para transformar os conjuntosde treinamento e de teste.6. Classificador baseado no perceptronmulticamadasClassificadores construídos com redes neurais artificiais(RNA) toleram ruídos, são rápidos, devido ao seubaixo custo computacional, e podem aprender superfíciesde decisão não-lineares [7]. O perceptron multicamadas(PMC) é uma das arquiteturas de RNA quepode ser usada como classificador de padrões, entretanto,o algoritmo padrão de treinamento, o backpropagation,é lento, ou seja, precisa de muitas iteraçõespara convergir. O treino do PMC pode ser mais rápidocom o algoritmo iRprop, um algoritmo adaptativode de<strong>sc</strong>ida de gradiente que é acurado, robusto erápido [8].Neste trabalho, cada tipo de vetor de característicasé classificado por um PMC com topologia específica,onde o número de entradas coincide com com o númerode dimensões dos vetores de características. Então,são construídos PMC para cada conjunto de treinamento,onde estes PMC suportam vetores de característicasde duas até 20 dimensões, o que resulta em 190PMC. Todos os PMC têm 10 neurônios na camada e<strong>sc</strong>ondidae três neurônios na camada de saída, tal quecada um destes representa uma das classes.Todos os PMC são treinados três vezes. O treinamentotermina quando o erro quadrático médio (EQM)émenorque0, 0001 ou o número de iterações é maiorque 200.000. Antes de cada treinamento, os vetores sãoembaralhados. A função de ativação dos neurônios éatangente hiperbólica, com parâmetro igual a 0, 9. Ospesos sinápticos são inicializados com valores aleatórios.Os demais parâmetros têm os valores padrão dabiblioteca Fann.As redes, obtidas após o treinamento, são usadaspara classificar os vetores do conjunto de teste. Cadavetor é apresentado para a rede e éatribuído para aclasse correspondente ao neurônio de saída que retornáo maior valor. A taxa de acertos de cada classificadoré calculada comparando-se os dados obtidos destecom os dados obtidos na classificação manual dos segmentos.Dentre os três treinamentos de cada uma dasredes, o que apresenta maior taxa de acertos é e<strong>sc</strong>olhido.7. Classificador baseado no teorema deBayesA abordagem estatística utiliza o teorema de Bayespara calcular o valor da probabilidade de um determinadovetor de características pertencer a uma classe.Isto possibilita a atribuição criteriosa a uma classe,quando a fdp e a probabilidade a priori modelam adequadamenteo conjunto de treinamento. Caso a fdp e aprobabilidade a priori não sejam conhecidas, estas devemser estimadas a partir do conjunto de treinamento.A fdp pode ser obtida através de técnicas paramétricasou não-paramétricas. As técnicas paramétricassão utilizadas quando é conhecida a fdp que originouo conjunto de treinamento, mas os parâmetros destanão são conhecidos e devem ser estimados. As técnicasnão-paramétricas são necessárias quando não existe conhecimentosuficiente que possa ser utilizado para determinara fdp ou quando a densidade do conjunto detreinamento assume uma função não conhecida, comoé o caso deste trabalho.As técnicas não-paramétricas podem ser baseadasem janelas ou em vizinhos mais próximos. Uma das dificuldadesé encontrar um tamanho de janela adequadopara todo o domínio do conjunto de treinamento. Osmétodos de vizinhos mais próximos não sofrem desteproblema, entretanto a quantidade de vizinhos tambémdeve ser determinada manualmente. Os dados aserem avaliados na estimativa de um ponto da fdp po-194

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!