12.07.2015 Views

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

III WVC 2007 - Iris.sel.eesc.sc.usp.br - USP

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>WVC</strong>'<strong>2007</strong> - <strong>III</strong> Workshop de Visão Computacional, 22 a 24 de Outu<strong>br</strong>o de <strong>2007</strong>, São José do Rio Preto, SP.ilustrada, usando uma ferramenta de visualização dos momentos,as propriedades extraídas de uma imagem contendouma serpente previamente segmentada e binarizada.Figura 1. Aplicação dos momentos de imagem.4. Modelos de Markov OcultosOs modelos ocultos de Markov (HMMs) são utilizadospara modelar um par de processos estocásticos complementares.O primeiro processo é representado por um conjuntode estados não observáveis, também chamados de estadosinternos ou ocultos. No caso especial de HMMs deprimeira ordem, o estado atual do sistema depende apenasdo estado anterior, e a distribuição de probabilidades quemodela a transição entre os estados é geralmente representadaatravés de uma matriz de transição A = {a ij }, coma ij = P (q t+1 = S j |q t = S i ) 1 ≤ i, j ≤ N (7)onde N éonúmero de estados, q t é o estado atual do sistemae S = {S 1 ,S 2 ,S 3 , ..., S N } é o conjunto de estadosocultos do modelo.O segundo processo estocástico modela a probabilidadede observação de alguns valores pré-determinados(os valores ou símbolos observados) dado que o sistemaestá em um estado específico (oculto). A seqüênciade T observações é representada por um conjuntoO = O 1 ,O 2 ,O 3 , ..., O T , onde cada elemento O t éummem<strong>br</strong>o do conjunto de símbolos V = v 1 ,v 2 , ..., v M .A probabilidade de emissão ou observação de qualquersímbolo dado um estado oculto j é definida por umamatriz B = {b j (k)}, comb j (k) =P (O t = v k |q t = S j ) 1 ≤ j ≤ N, 1 ≤ k ≤ M(8)A probabilidade inicial de cada estado é representada porum conjunto π = {π i }, comπ i = P (q 1 = S i ) 1 ≤ i ≤ N, comN∑π i =1 (9)i=1Para a utilização dos HMMs em aplicações do mundoreal, é necessário a resolução de três problemas básicos.A resolução desses problemas, conhecidos como problemade avaliação, decodificação e aprendizagem, foram extensivamentede<strong>sc</strong>ritas em diversos trabalhos na literatura [10,14, 1]. Neste trabalho, são necessários e de<strong>sc</strong>ritos apenas osproblemas de avaliação e aprendizagem.4.1. Problema de AvaliaçãoDado uma seqüência de observações O eumHMMλ =(A, B, π), o problema de avaliação é calcular P (O|λ). Umprocedimento que resolve este problema eficientemente,baseado em programação dinâmica, é conhecido como algoritmoForward-Backward. Este procedimento define umavariável α t (j) (a variável forward) que representa a probabilidadede uma seqüência de observações parciais (dotempo 0 até t) dado um estado S j (no tempo t) e o modeloλ. Avariável é atualizada incrementalmente usando oprocedimento recursivo defindo pelas Equações 10 e 11 atéque toda seqüência de observações seja alcançada e P (O|λ)pode ser facilmente calculada usando a Equação 12.α 1 (j) =π j b j (O 1 ), 1 ≤ j ≤ N. (10)[ N]∑α t+1 (j) = α t (i)a ij b j (O t+1 ), 1 ≤ t ≤ T − 1.i=1P (O|λ) =(11)N∑α T (j) (12)j=1Para calcular a variável backward β t (i), representando aprobabilidade de observações parciais de t +1até T dadoo estado S i no tempo t e um modelo λ, um procedimentosimilar é seguido, mas de uma maneira reversa. O procedimentoé resumido nas Equações 13, 14 e 15.β t (i) =β T (i) =1, 1 ≤ i ≤ N. (13)N∑a ij b j (O t+1 )β t+1 (j),t= T −1, ..., 1 1 ≤ i ≤ N.j=1P (O|λ) =(14)N∑π i b i (O 1 )β 1 (i) (15)i=1326

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!