Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
48 2.8 Abgrenzung von anderen Arbeiten<br />
der Hindernisse und des eingesetzten Serviceroboters. Als Trainingsdaten dienen Aufnahmen aus virtuellen<br />
Kameras und Positionsdaten des Manipulators. Für das Lernen von zielführenden Verhalten<br />
werden objektspezifische Pfade anhand einer Vorgabe automatisch generiert und entlang der Pfade<br />
die Trainingsdaten gesammelt (algorithmisches Teach-In). Kollisionsvermeidende Verhalten sowie<br />
der Koordinationsmechanismus setzen zum Training Reinforcement Learning-Techniken [SB98]<br />
ein (stochastisches Teach-In). Die erlernten Algorithmen werden dann auf den realen Serviceroboter<br />
transferiert und eingesetzt. Durch den Einsatz der virtuellen Umgebung ist die Automatisierung des<br />
Trainingvorgangs von bildgestützten Verhalten möglich, ohne die ständige Überwachung des Systems<br />
und ohne Gefährdung der realen Hardware. Besonders das Reinforcement Learning, das unter anderem<br />
in frühen Trainingsphasen Kollisionen mit Hindernissen nicht abfängt, kann problemlos in der<br />
virtuellen Umgebung ablaufen. Zugleich können dieselben Situationen zur Wiederholung des Trainings<br />
oder zur Evaluierung der Ergebnisse reproduziert werden.<br />
2.8 Abgrenzung von anderen Arbeiten<br />
Das vorgestellte Konzept unterscheidet sich in einer Reihe von Aspekten von den in der Literatur beschriebenen<br />
Verfahren. Die bildgestützte Zielführung basiert, ähnlich wie in [BP98], auf einer Struktur<br />
von RBF-Netzen. Sie hat jedoch nicht nur die Aufgabe, die Position des Objektes sondern auch<br />
dessen Orientierung zu bestimmen. Weiterhin berechnet sie einen objektspezifischen Pfad zur Greifposition<br />
am Objekt, was sie von anderen Arbeiten in dem Visual Servoing Bereich unterscheidet.<br />
Dadurch erlaubt sie die Implementierung von unterschiedlichen, objektspezifischen Greifstrategien<br />
und schließlich ein effizientes Greifen und Manipulieren von Objekten.<br />
Unterschiedlich zu den Verfahren in [IBT + 02], in [FSZ00] und in [PRG + 03] berücksichtigt die hier<br />
implementierte Hindernisvermeidung sowohl den Greifer als auch die Segmente des Manipulators.<br />
Dabei werden zwei unterschiedliche Kamerakonfigurationen verwendet: die eye-in-hand Kamera liefert<br />
die Daten für die Hindernisvermeidung des Greifers und die eye-to-hand Kamera der mobilen<br />
Plattform akquiriert die Daten für Hindernisvermeidung der Manipulatorsegmente. Systeme, die in<br />
der Literatur referenziert sind, benutzen nur eine Kamerakonfiguration und zwar die eye-to-hand Kameras<br />
der Plattform. Verhalten, die die Hindernisvermeidung über die Greiferkamera implementieren,<br />
sind bei anderen Systemen nicht vorhanden. Da bei der Greiferkamera keine Verdeckung der Szene<br />
im Bild durch die Manipulatorsegmente vorkommt, ist eine robuste Hindernisvermeidung für den<br />
kompletten Roboterarm möglich.<br />
Bis auf die Ansätze von Wösch et al. [WN01] und Hashimoto [HNI01], wenden hybride Architekturen,<br />
wie z.B. MissionLab [MA99], keine Verhaltenskoordinierung bei einem Manipulator an; bestenfalls<br />
erlauben sie dem Programmierer den Koordinationsmechanismus für den Roboterarm selbst<br />
zu realisieren. In dieser Arbeit wird ein einheitliches Konzept zur Koordination der bildgestützten<br />
Verhalten des Roboterarms präsentiert, erlernt und mit einer pick-and-place Aufgabe evaluiert. Dabei<br />
handelt es sich nicht um eine einfache Interpolation der Verhaltensausgaben, wie in [WN01], sondern<br />
um eine gewichtete Summierung anhand des gegenwärtigen Sensorkontexts, die besonders in<br />
kritischen Bereichen den Roboterarm effektiv vor Kollisionen schützt. Weiterhin ist in den BBNs<br />
die Unsicherheit der oft verrauschten Merkmale modelliert und im Gewichtungsprozess berücksichtigt.<br />
Der Koordinationsmechanismus ist, unterschiedlich zu dem Verfahren in [HNI01], leicht um<br />
neue Verhalten erweiterbar und erfordert kein aufwendiges Experimentieren zum Setzen der Parameter,<br />
die in einer virtuellen Umgebung erlernt werden. Außerdem wird hier die Hindernisvermeidung