PDF Version - Universität Osnabrück
PDF Version - Universität Osnabrück
PDF Version - Universität Osnabrück
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
3.3. BEOBACHTUNGEN UND INTERPRETATIONEN 37<br />
sollte nicht erzwungen werden. Schließlich ist es jeder Versuchsperson selber überlassen,<br />
mit welcher Information und auf welche Art und Weise eine Mission möglichst erfolgreich<br />
abgeschlossen wird. Im Mittelpunkt steht ja die Beobachtung, wie die Versuchsperson die<br />
Mission zu erfüllen versucht, was Vorteile und was Nachteile bringen kann und wie erfolgreich<br />
sie dabei ist.<br />
Eventuell spielt es aber einer Rolle, dass die bestmögliche, realisierte Kamerasteuerung erst<br />
bei dem 3D-Roboter geübt werden konnte. Vorher gab es keiner Kameraroutinen und keine<br />
Möglichkeit, ohne Sichtkontakt die Ausrichtung der Kameras wieder in eine Grundstellung<br />
zu bringen. Somit haben sich die Novizen von Anfang an wenig auf die Kameras verlassen<br />
und sie letztendlich nur noch für das Auffinden von Opfern gebraucht. Bei den Experten<br />
dagegen werden die Kameras häufiger gebraucht, um Abstände besser abschätzen zu<br />
können und um eine Kollision festzustellen, die durch keinen anderen Sensor feststellbar<br />
wäre 11 .<br />
Ein weiterer Punkt ist, dass in der GUI nicht immer die rechte Kamera auch die rechte<br />
Kamera auf dem Roboter sein muss. Es ist zufällig, welcher USB-Anschluss nun rechts<br />
oder links dargestellt wird. Sind die Kameras in der GUI vertauscht, ist dies eine massive<br />
Verkomplizierung der Wahrnehmung des Operators. Durch den geringen Gebrauch der<br />
Kameras von den Novizen, fiel dies aber bei ihnen kaum negativ auf.<br />
Bezüglich der Kamera gab es einige Anregungen. Sie sollten z.B. über einen Zoom verfügen.<br />
Eine Kamera wäre auch ausreichend, wenn sie einen 180 Grad Überblick (oder am besten<br />
einen Rundumblick) gewährleisten würde. Viele Versuchspersonen meinten auch, dass die<br />
Kamerabilder nicht unbedingt nebeneinander in der GUI dargestellt werden müssen. Die<br />
linke Kamera könnte also auch durchaus auf der linken Seite der GUI dargestellt werden,<br />
und die rechte auf der rechten Seite. Sie machten aber auch die Einschränkung, dass, wenn<br />
die Ausrichtungen der Kameras überlappen, dann die Bilder in der GUI auch nebeneinander<br />
dargestellt werden sollten.<br />
Dass die Ergebnisse der Haut- und Bewegungsdetektoralgorithmen in den Kamerabildern<br />
dargestellt werden, fand nicht großen Anklang und störte die meisten. Der Operator soll<br />
durch die eingelagerten Ergebnisse der Detektionsalgorithmen Hilfestellung bekommen. An<br />
sich ist das eine sehr gute Idee, wenn die Algorithmen verlässlich funktionieren. Kann sich<br />
der Operator nicht auf die Algorithmen verlassen, belasten die aufblinkenden Farbfelder<br />
den Operator und kehren damit den eigentlich hilfreichen Effekt um. Solange diese Algorithmen<br />
also nicht sinnvoll und korrekt funktionieren, sollten sie nicht dargestellt werden,<br />
um die Kamerabilder nicht mit ” irrelevanter Information überfluten“.<br />
Die Kameras sind für die Erfüllung der Mission sehr wichtig. Sie kommen zwar nur relativ<br />
selten zum Einsatz, wenn, dann reicht der Informationsgehalt aus, um Opfer zu erkennen.<br />
Leider können für das Re-Design nur bedingt Änderungen vorgenommen werden.<br />
11 Ein Beispiel wäre eine Kollision mit einem Fenster, das durch keinen Scan wahrgenommen wird. Nur anhand<br />
des Suchens mit der Kamera konnte der Operator erkennen, dass ein Rahmen vorhanden war und somit das<br />
seltsame Verhalten des Roboters durch eine Kollision mit einem Fenster ausgelöst sein musste.<br />
HRI für Rettungsroboter