08.05.2013 Views

Representación del conocimiento textual mediante técnicas lógico ...

Representación del conocimiento textual mediante técnicas lógico ...

Representación del conocimiento textual mediante técnicas lógico ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

112 5. Evaluación <strong>del</strong> recurso <strong>lógico</strong>-conceptual para la representación formal <strong>del</strong> texto<br />

los que se va a evaluar la validez que aporta la incorporación <strong>del</strong> recurso<br />

son: Vinculación o Implicación Textual, Recuperación de Información<br />

y Búsqueda de Repuestas. A continuación se matiza el porqué de la<br />

elección de esta muestra de sistemas de PLN.<br />

La elección de la vinculación o implicación <strong>textual</strong> en esta muestra es<br />

debido a que, como se justifica más a<strong>del</strong>ante, la vinculación <strong>textual</strong><br />

resume las necesidades principales de inferencia semántica de otros sistemas<br />

<strong>del</strong> PLN como la Búsqueda de Respuestas, la Recuperación de<br />

Información, la Extracción de Información y la Generación Automática<br />

de Resúmenes. Estas necesidades de inferencia semántica requieren de<br />

una representación formal <strong>del</strong> texto. Por ello y, dado este contexto, en<br />

la evaluación de la Vinculación Textual se están evaluando también,<br />

indirectamente, las necesidades de representación formal <strong>del</strong> texto de<br />

todo este subconjunto de sistemas de PLN.<br />

De un modo más complementario a lo matizado en el párrafo anterior,<br />

la elección de la Recuperación de Información y de la Búsqueda de Respuestas<br />

se ha efectuado porque estos dos tipos de sistemas, tanto a nivel<br />

cuantitativo como a nivel cualitativo, han centrado uno de los mayores<br />

esfuerzos de la última década de las investigaciones en el área de PLN,<br />

tal y como demuestran la multitud de proyectos de investigación surgidos<br />

en el seno de los diferentes grupos de investigación en el área de<br />

PLN en esta última década.<br />

Más concretamente, para la evaluación <strong>del</strong> recurso se han seleccionado<br />

las tareas Cross-Language Speech Retrieval (CL-SR), Answer Validation<br />

Exercise (AVE) y Multiple Language Question Answering (QA-<br />

CLEF), todas ellas pertenecientes a las campañas de evaluación <strong>del</strong><br />

CLEF. Además, la tarea Recognising Textual Entailment (RTE) en el<br />

marco de la campaña de evaluación PASCAL RTE también ha sido<br />

considerada en el escenario de la evaluación <strong>del</strong> recurso. Por último,<br />

también se efectúa una evaluación ad-hoc de la clasificación de preguntas<br />

médicas según la taxonomía genérica planteada en el estudio<br />

realizado por Ely et al. (2000).<br />

En las siguientes secciones <strong>del</strong> capítulo, en lo que respecta a la especificación<br />

de cada una de las tareas de evaluación efectuadas al recurso,<br />

se especifica la relación de cada una de ellas con los diferentes matices<br />

planteados en el capítulo. No obstante, la tabla 5.1 introduce la relación<br />

existente entre cada una de estas tareas y cada uno de los matices.<br />

Las siguientes secciones <strong>del</strong> capítulo especifican con detalle la aplicación<br />

de cada una de estas tareas desarrolladas en el marco de la evaluación<br />

<strong>del</strong> recurso presentado en el trabajo de investigación. Finalmente se

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!