09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

48 2.8 Abgrenzung von anderen Arbeiten<br />

der Hindernisse und des eingesetzten Serviceroboters. Als Trainingsdaten dienen Aufnahmen aus virtuellen<br />

Kameras und Positionsdaten des Manipulators. Für das Lernen von zielführenden Verhalten<br />

werden objektspezifische Pfade anhand einer Vorgabe automatisch generiert und entlang der Pfade<br />

die Trainingsdaten gesammelt (algorithmisches Teach-In). Kollisionsvermeidende Verhalten sowie<br />

der Koordinationsmechanismus setzen zum Training Reinforcement Learning-Techniken [SB98]<br />

ein (stochastisches Teach-In). Die erlernten Algorithmen werden dann auf den realen Serviceroboter<br />

transferiert und eingesetzt. Durch den Einsatz der virtuellen Umgebung ist die Automatisierung des<br />

Trainingvorgangs von bildgestützten Verhalten möglich, ohne die ständige Überwachung des Systems<br />

und ohne Gefährdung der realen Hardware. Besonders das Reinforcement Learning, das unter anderem<br />

in frühen Trainingsphasen Kollisionen mit Hindernissen nicht abfängt, kann problemlos in der<br />

virtuellen Umgebung ablaufen. Zugleich können dieselben Situationen zur Wiederholung des Trainings<br />

oder zur Evaluierung der Ergebnisse reproduziert werden.<br />

2.8 Abgrenzung von anderen Arbeiten<br />

Das vorgestellte Konzept unterscheidet sich in einer Reihe von Aspekten von den in der Literatur beschriebenen<br />

Verfahren. Die bildgestützte Zielführung basiert, ähnlich wie in [BP98], auf einer Struktur<br />

von RBF-Netzen. Sie hat jedoch nicht nur die Aufgabe, die Position des Objektes sondern auch<br />

dessen Orientierung zu bestimmen. Weiterhin berechnet sie einen objektspezifischen Pfad zur Greifposition<br />

am Objekt, was sie von anderen Arbeiten in dem Visual Servoing Bereich unterscheidet.<br />

Dadurch erlaubt sie die Implementierung von unterschiedlichen, objektspezifischen Greifstrategien<br />

und schließlich ein effizientes Greifen und Manipulieren von Objekten.<br />

Unterschiedlich zu den Verfahren in [IBT + 02], in [FSZ00] und in [PRG + 03] berücksichtigt die hier<br />

implementierte Hindernisvermeidung sowohl den Greifer als auch die Segmente des Manipulators.<br />

Dabei werden zwei unterschiedliche Kamerakonfigurationen verwendet: die eye-in-hand Kamera liefert<br />

die Daten für die Hindernisvermeidung des Greifers und die eye-to-hand Kamera der mobilen<br />

Plattform akquiriert die Daten für Hindernisvermeidung der Manipulatorsegmente. Systeme, die in<br />

der Literatur referenziert sind, benutzen nur eine Kamerakonfiguration und zwar die eye-to-hand Kameras<br />

der Plattform. Verhalten, die die Hindernisvermeidung über die Greiferkamera implementieren,<br />

sind bei anderen Systemen nicht vorhanden. Da bei der Greiferkamera keine Verdeckung der Szene<br />

im Bild durch die Manipulatorsegmente vorkommt, ist eine robuste Hindernisvermeidung für den<br />

kompletten Roboterarm möglich.<br />

Bis auf die Ansätze von Wösch et al. [WN01] und Hashimoto [HNI01], wenden hybride Architekturen,<br />

wie z.B. MissionLab [MA99], keine Verhaltenskoordinierung bei einem Manipulator an; bestenfalls<br />

erlauben sie dem Programmierer den Koordinationsmechanismus für den Roboterarm selbst<br />

zu realisieren. In dieser Arbeit wird ein einheitliches Konzept zur Koordination der bildgestützten<br />

Verhalten des Roboterarms präsentiert, erlernt und mit einer pick-and-place Aufgabe evaluiert. Dabei<br />

handelt es sich nicht um eine einfache Interpolation der Verhaltensausgaben, wie in [WN01], sondern<br />

um eine gewichtete Summierung anhand des gegenwärtigen Sensorkontexts, die besonders in<br />

kritischen Bereichen den Roboterarm effektiv vor Kollisionen schützt. Weiterhin ist in den BBNs<br />

die Unsicherheit der oft verrauschten Merkmale modelliert und im Gewichtungsprozess berücksichtigt.<br />

Der Koordinationsmechanismus ist, unterschiedlich zu dem Verfahren in [HNI01], leicht um<br />

neue Verhalten erweiterbar und erfordert kein aufwendiges Experimentieren zum Setzen der Parameter,<br />

die in einer virtuellen Umgebung erlernt werden. Außerdem wird hier die Hindernisvermeidung

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!