15.11.2013 Views

Análisis sintáctico conducido por un diccionario de patrones de ...

Análisis sintáctico conducido por un diccionario de patrones de ...

Análisis sintáctico conducido por un diccionario de patrones de ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Métodos estadísticos: <strong>un</strong>a herramienta para búsqueda <strong>de</strong> regularida<strong>de</strong>s<br />

símbolos observada ocurra como resultado <strong>de</strong> <strong>un</strong> mo<strong>de</strong>lo dado. En el problema <strong>de</strong><br />

estimación se observa <strong>un</strong>a secuencia <strong>de</strong> símbolos producidos <strong>por</strong> el mo<strong>de</strong>lo HMM. La<br />

tarea es estimar la secuencia más probable <strong>de</strong> estados que el mo<strong>de</strong>lo realiza para<br />

producir esa secuencia <strong>de</strong> símbolos. Durante el entrenamiento, los parámetros<br />

iniciales <strong>de</strong>l mo<strong>de</strong>lo se ajustan para maximizar la probabilidad <strong>de</strong> <strong>un</strong>a secuencia<br />

observada <strong>de</strong> símbolos. Esto permitirá que el mo<strong>de</strong>lo prediga secuencias futuras <strong>de</strong><br />

símbolos.<br />

La solución a la ecuación <strong>de</strong> la probabilidad <strong>de</strong> que sea la marca t1 dada la<br />

marca previa t0 dada la probabilidad <strong>de</strong> que la palabra1 tenga la marca t1 tiene al<br />

menos dos algoritmos conocidos: Viterbi y backward-forward.<br />

Este mo<strong>de</strong>lo ha sido muy empleado en reconocimiento <strong>de</strong> voz, <strong>un</strong> tutorial<br />

extenso en este tema se encuentra en [Rabiner, 89]. Técnicas estadísticas basadas en<br />

HMM están bien establecidas [Holmes, 88] para esa área. En el área <strong>de</strong> análisis<br />

<strong>sintáctico</strong>, [Collins, 99] usó bigrams, es <strong>de</strong>cir, probabilida<strong>de</strong>s <strong>de</strong> <strong>de</strong>pen<strong>de</strong>ncias entre<br />

pares <strong>de</strong> palabras, como estadísticas para mejorar el análisis <strong>sintáctico</strong>, emplea el<br />

núcleo-h <strong>de</strong>l constituyente asociado a otro núcleo-h <strong>de</strong>pendiente.<br />

En las llamadas gramáticas <strong>de</strong> Markov [Charniak, 97] se almacenan las<br />

probabilida<strong>de</strong>s que permiten inventar reglas <strong>de</strong> improviso. Por ejemplo, al inventar<br />

reglas <strong>de</strong> NP se <strong>de</strong>be conocer la probabilidad <strong>de</strong> que <strong>un</strong> NP empiece con <strong>un</strong><br />

<strong>de</strong>terminante (<strong>un</strong>a probabilidad alta) o con <strong>un</strong>a preposición (<strong>un</strong>a probabilidad baja).<br />

Similarmente, al estar creando <strong>un</strong>a frase nominal y con <strong>un</strong>a entrada <strong>de</strong> <strong>de</strong>terminante<br />

se <strong>de</strong>be saber cual es la probabilidad <strong>de</strong> que el siguiente constituyente sea <strong>un</strong> adjetivo<br />

(<strong>un</strong>a probabilidad alta) u otro <strong>de</strong>terminante (<strong>un</strong>a probabilidad baja). Sin embrago,<br />

estas estadísticas se obtienen <strong>de</strong> los llamados bancos <strong>de</strong> árboles (tree-bank, en inglés),<br />

es <strong>de</strong>cir, corpus analizados y marcados sintácticamente cuya labor manual es intensiva<br />

en extremo. También hay que consi<strong>de</strong>rar que tienen errores y son limitados.<br />

INFORMACIÓN MUTUA ENTRE PALABRAS DE UNA SECUENCIA<br />

A continuación se <strong>de</strong>scribe la llamada información mutua en el contexto<br />

establecido <strong>de</strong> la teoría <strong>de</strong> la información. Consi<strong>de</strong>rando h e i como los eventos que<br />

ocurren <strong>de</strong>ntro <strong>de</strong> secuencias <strong>de</strong> eventos, en <strong>un</strong> contexto lingüístico, h podría ser <strong>un</strong>a<br />

palabra <strong>de</strong> entrada a <strong>un</strong> canal ruidoso mientras que i es <strong>un</strong>a palabra <strong>de</strong> salida <strong>de</strong>l<br />

canal. h e i <strong>de</strong>ben ser miembros <strong>de</strong> la misma secuencia. Por ejemplo, dos palabras que<br />

ocurren en <strong>un</strong>a colocación idiomática.<br />

[Sharman, 89] <strong>de</strong>scribe cómo la información mutua, <strong>de</strong>notada I(h, i) muestra<br />

qué información se provee <strong>de</strong>l evento h <strong>por</strong> la ocurrencia <strong>de</strong> i. P(h | i) es la<br />

probabilidad <strong>de</strong>l evento h habiendo ocurrido cuando se sabe que el evento i ha<br />

ocurrido, llamada la probabilidad a posteriori; y P(h) es la probabilidad <strong>de</strong>l evento h<br />

habiendo ocurrido cuando no se sabe si i ha ocurrido, llamada la probabilidad a<br />

priori. La relación entre la probabilidad a posteriori <strong>de</strong> h y la probabilidad a priori <strong>de</strong><br />

113

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!