Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
46 2.7 Ein Konzept zur mobilen Manipulation<br />
fe von Differenzialgleichungen 25 ermittelt. Das System kann dadurch die Ausgaben von mehreren<br />
Verhalten fusionieren. Allerdings ist es mit neuen Verhalten nur bedingt erweiterbar und die Gewichtungsparameter<br />
müssen durch aufwendiges Experimentieren bestimmt werden. Die Architektur<br />
verfügt nicht über eine deliberative Planungsebene, die bei einem mobilen Manipulator notwendig ist,<br />
um komplexe Aufgaben auszuführen. In den vorgestellten Experimenten ist die Hindernisvermeidung<br />
erst nach dem Greifen aktiviert.<br />
2.7 Ein Konzept zur mobilen Manipulation<br />
Das in dieser Arbeit vorgestellte Konzept zur mobilen Manipulation versucht die Defizite von existierenden<br />
Systemen im Bereich der Hindernisvermeidung, der Verhaltenskoordination und dem Erlernen<br />
von Bildgestützten zu vermeiden, um dadurch einen robusten Einsatz in einer teilweise bekannten<br />
Umgebung zu ermöglichen. Zwei Ansätze werden hier verfolgt: einerseits ist eine erweiterte drei-<br />
Ebenen Architektur 26 implementiert, um ein schnelles, situationsabhängiges Verhalten des mobilen<br />
Manipulators zu erlangen (Abbildung 2.24). Anderseits werden die bildgestützten Komponenten der<br />
reaktiven und der vermittelnden Ebene in einer virtuellen Umgebung erlernt und anschließend auf<br />
den mobilen Manipulator übertragen.<br />
Beim Roboterarm beinhaltet die unterste, reaktive Ebene die elementaren Verhalten, die die Kameras<br />
mit dem Manipulator verbinden. Dadurch kann der Roboter sofort auf Änderungen der Umgebung<br />
reagieren und seine Bewegung an die neue Situation anpassen. Die Verhalten setzen die Information<br />
der Roboterkameras ein, um den Manipulator bildgestützt zum Ziel zu führen, das Objekt im Sichtfeld<br />
der Greiferkamera zu halten und den Greifer und die Manipulator-Segmente vor Kollisionen zu<br />
schützen. Sie sind entweder explizit programmiert oder mit neuronalen Netzen erlernt. Im letzteren<br />
Fall werden lokale Approximatoren verwendet 27 , um die Abbildung der gewünschten Änderung der<br />
Bildmerkmale auf entsprechende Roboterbewegungen zu realisieren. In dieser Ebene wird auch ein<br />
Routenplaner als Verhalten eingesetzt, um besonders zu Beginn einer Greifbewegung eine grobe Bewegungsrichtung<br />
vorzugeben und dadurch den Manipulator vor Deadlocks zu bewahren und Konflikte<br />
aufzulösen. Der Routenplaner beschränkt seine Planung auf eine begrenzte Region des Arbeitsraums<br />
um die aktuelle Gelenkstellung des Roboterarms und die Position des Zielobjektes.<br />
Die vermittelnde Ebene implementiert den Verhaltensaktivierungs- und Verhaltenskoordinationsmechanismus.<br />
Die Verhaltensaktivierung wählt nach dem Arbitration-Prinzip mit einem endlichen Zustandsakzeptor<br />
(Finite State Acceptor, FSA) die Gruppen von parallel auszuführenden Fertigkeiten<br />
aus und aktiviert sie. Der Koordinationsmechanismus basiert auf dem Superposition Command<br />
Fusion-Prinzip und ist mit Bayesian Belief Netzwerken (BBN) [Cha91], [Hec95] realisiert, die die<br />
Anwendbarkeit der Verhalten bestimmen und die Ausgaben der aktiven Verhalten zum Roboter miteinander<br />
interpolieren. Der Einsatz der BBN erlaubt das Lernen der Anwendbarkeit der Verhalten in<br />
verschiedenen Situationen, sowie die Modellierung der Fehlerwahrscheinlichkeit bei der Merkmalsextraktion<br />
aus den Bilddaten und erhöht dadurch die Robustheit des Koordinationsmechanismus.<br />
Auf der mobilen Plattform kommt für die reaktive und die vermittelnde Ebene der Ansatz von Pauly<br />
[Pau98] zum Einsatz.<br />
25Der genaue Vorgang bei diesem Ansatz wurde schon in Abschnitt 2.3.2 diskutiert.<br />
26Dabei existieren zwei reaktive und zwei vermittelnde Ebenen - je eine für den Roboterarm und für die mobile Plattform.<br />
27Wie z.B. Radial Basis Function Networks (RBF)[Hay94] für die bildgestützte Zielführung und Neurofuzzy [vA93]<br />
für die Hindernisvermeidung des Greifers.