13.12.2012 Aufrufe

DAGA 2010 - Deutsche Gesellschaft für Akustik eV

DAGA 2010 - Deutsche Gesellschaft für Akustik eV

DAGA 2010 - Deutsche Gesellschaft für Akustik eV

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Programm <strong>DAGA</strong> <strong>2010</strong> 69<br />

text at the input could be obtained synchronized audio-visual speech at<br />

the output.<br />

Di. 16:35 Grashof C 20 Auditorisch-visuelle Sprache<br />

LIPPS - Eine dialogbasierte, audio-visuelle Trainingshilfe <strong>für</strong> das<br />

Absehen zum Einsatz mit Schwerhörigen<br />

H.-H. Bothe und H. Gebert<br />

Technical University of Denmark<br />

Menschen mit abnehmender Hörfähigkeit sind zunehmend auf alternative<br />

Kommunikationskanäle angewiesen. Das Absehen der sichtbaren Artikulationsbewegungen<br />

eines Gesprächspartners stellt dann eine Möglichkeit<br />

dar, verbale Äusserungen zu verstehen. Das bewusste Trainieren<br />

des Absehens kann auch als Erlernen einer visuellen Sprache betrachtet<br />

werden. In diesem Sinne stellt das vorgestellte Projekt den Entwurf<br />

und Aufbau eines Sprachlabors <strong>für</strong> das Absehen dar, welches dem Lehrer<br />

eine effektive audio-visuelle Hilfe zur Ergänzung seines Unterrichts<br />

bieten kann.<br />

Dazu wurde ein Softwarepaket entworfen, das im Wesentlichen aus einer<br />

3D-Gesichtsanimation mit synchronisierter Sprachvollsynthese, einer<br />

natürlichsprachigen Dialogeinheit mit sprecherabhängigem Spracherkenner<br />

sowie einem Lehrer-Schüler-Trainingsmodul besteht. Der<br />

modulare Aufbau mit zentralem Eventmanager erlaubt die Kombination<br />

verschiedener Einzelmodule.<br />

In der hier vorgeschlagenen Version des Trainingsmoduls findet ein hierarchisch<br />

strukturierter Aufbau Anwendung, der zunächst wichtige Einzelwörter<br />

und kurze Phrasen darstellt, um dann über einfache gesteuerte<br />

Dialoge zu einer relativ freien Konversation zu kommen; die vom<br />

Lehrer vorgeschlagenen Wörter oder Äusserungen werden dabei systematisch<br />

in die Dialogführung eingebaut. Dieses Vorgehen erscheint den<br />

Absehschülern durch seine Interaktivität wesentlich interessanter als die<br />

sequentielle Präsentation vorgefertigter Videofilme.<br />

In unserem Beitrag werden die aktuelle Version der Trainingshilfe sowie<br />

erste Ergebnisse im Einsatz mit schwerhörigen und normalhörenden<br />

Schülern vorgestellt.<br />

Di. 17:00 Grashof C 20 Auditorisch-visuelle Sprache<br />

SSI/ModelUI - A Tool for the Acquisition and Annotation of Human<br />

Generated Signals<br />

J. Wagner, E. André, M. Kugler und D. Leberle<br />

University of Augsburg<br />

The modelling and simulation of human behaviour during conversations<br />

with other humans is crucial for more natural human-computer interaction.<br />

This requires the analysis of human generated data recorded in such<br />

situations. Since humans express their feeling and intensions through a<br />

large number of channels, e.g. speech, mimic or posture, these corpora<br />

must include various types of signals. The synchronized recording and

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!