26.11.2012 Aufrufe

Jahresbericht informatik 2009 - KIT – Fakultät für Informatik

Jahresbericht informatik 2009 - KIT – Fakultät für Informatik

Jahresbericht informatik 2009 - KIT – Fakultät für Informatik

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Die Institute der <strong>Fakultät</strong> und ihre Forschungsvorhaben<br />

Videokameras aufgezeichnet und die Erkennungsrate auf beiden Datensätzen miteinander<br />

verglichen. Darüberhinaus wurde das Erkennungssystem in einer Weise umgesetzt, die<br />

Live-Erkennung ermöglicht.<br />

In einem weiteren Arbeitsbereich werden bewegungsbasierte Benutzerschnittstellen <strong>für</strong><br />

"Wearable Computing" Systeme entwickelt. Diese Systeme sollen Benutzer bei Alltagsund<br />

Arbeitsaufgaben unterstützen und dabei möglichst wenig Aufmerksamkeit und physische<br />

Beanspruchung auf sich ziehen. Zu diesem Zweck wurde ein Datenhandschuh mit<br />

Bewegungssensoren entwickelt, der ein freies Schreiben in der Luft ermöglicht, vergleichbar<br />

dem Schreiben auf einer imaginären Tafel. Dies erlaubt eine komplexe Interaktion<br />

mit mobilen Computersystemen, ohne die Notwendigkeit, spezifische Geräte in der Hand<br />

zu halten. Die Bewegungen werden mit Beschleunigungs- und Drehratensensoren erfasst.<br />

Für die Schrifterkennung werden Hidden-Markov-Modelle (HMMs) eingesetzt. Es wurde<br />

ein Datenkorpus mit Schriftdaten unterschiedlicher Schreiber erstellt. Auf diesen Daten<br />

wurde eine schreiberunabhängige Erkennungsrate von 81,9% <strong>für</strong> die Erkennung von<br />

Einzelbuchstaben und eine schreiberabhängige Erkennungsrate von 97,5% <strong>für</strong> die<br />

Erkennung ganzer Worte erreicht. Auf Basis dieser Ergebnisse wurde ein Live-<br />

Demonstrationssystem implementiert.<br />

Empathisches Verhalten des Roboters in der Interaktion mit Menschen<br />

(D. Heger, T. Schultz)<br />

Ziel des Teilprojektes "Lernen von Handlungswissen, Episoden und Kontext" des SFB 588<br />

("Humanoide Roboter") ist die Analyse und Beschreibung situativer<br />

Benutzereigenschaften, die es dem Roboter ermöglichen, in der Interaktion mit Menschen<br />

soziales Verhalten zu erlernen. Hierzu werden typische Formen der Mensch-Roboter-<br />

Interaktion im Hinblick auf soziale Verhaltenskomponenten beobachtet und aufgezeichnet.<br />

Gegenstand der Analyse sind insbesondere die Tätigkeit eines Benutzers sowie dessen<br />

kognitive Belastung und dessen emotionaler Zusand. Am CSL wurde in diesem Rahmen<br />

ein System entwickelt, das auf Basis von Elektroenzephalografie (EEG) eine quasi-kontinuierliche<br />

Erkennung der kognitiven Belastung des Menschen ermöglicht. Entsprechend<br />

dem erkannten kognitiven Belastungszustand der Menschen in seiner Umgebung, kann ein<br />

Roboter so ein Verhalten auf angemessene und natürliche Weise adaptieren. In<br />

Experimenten unter kontrollierten Bedingungen wurden mit einem benutzerspezifisch trainierten<br />

System Erkennungsraten über 90 % erreicht. In Mensch-Roboter-<br />

Interaktionsszenarien, in denen der Roboter seine Dialogstrategie auf Basis der erkannten<br />

kognitiven Belastung seines Benutzers auswählte, konnten erste empathische<br />

Verhaltensweisen demonstriert werden. Laufende Forschungsarbeiten beschäftigen sich mit<br />

der Integration weiterer Biosignale des Menschen (z. B. Puls, Hautleitfähigkeit,<br />

Atemaktivität) zur Verbesserung der Robustheit des Systems. Darüber hinaus befinden sich<br />

derzeit Systeme in der Entwicklung, die affektive Zustände und Persönlichkeit eines<br />

Menschen anhand multimodaler Biosignale erkennen können. Hierbei liegt ein besonderer<br />

Fokus auf der multimodalen Merkmalsextraktion und Merkmalsfusion, um eine robutste<br />

256

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!