09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

46 2.7 Ein Konzept zur mobilen Manipulation<br />

fe von Differenzialgleichungen 25 ermittelt. Das System kann dadurch die Ausgaben von mehreren<br />

Verhalten fusionieren. Allerdings ist es mit neuen Verhalten nur bedingt erweiterbar und die Gewichtungsparameter<br />

müssen durch aufwendiges Experimentieren bestimmt werden. Die Architektur<br />

verfügt nicht über eine deliberative Planungsebene, die bei einem mobilen Manipulator notwendig ist,<br />

um komplexe Aufgaben auszuführen. In den vorgestellten Experimenten ist die Hindernisvermeidung<br />

erst nach dem Greifen aktiviert.<br />

2.7 Ein Konzept zur mobilen Manipulation<br />

Das in dieser Arbeit vorgestellte Konzept zur mobilen Manipulation versucht die Defizite von existierenden<br />

Systemen im Bereich der Hindernisvermeidung, der Verhaltenskoordination und dem Erlernen<br />

von Bildgestützten zu vermeiden, um dadurch einen robusten Einsatz in einer teilweise bekannten<br />

Umgebung zu ermöglichen. Zwei Ansätze werden hier verfolgt: einerseits ist eine erweiterte drei-<br />

Ebenen Architektur 26 implementiert, um ein schnelles, situationsabhängiges Verhalten des mobilen<br />

Manipulators zu erlangen (Abbildung 2.24). Anderseits werden die bildgestützten Komponenten der<br />

reaktiven und der vermittelnden Ebene in einer virtuellen Umgebung erlernt und anschließend auf<br />

den mobilen Manipulator übertragen.<br />

Beim Roboterarm beinhaltet die unterste, reaktive Ebene die elementaren Verhalten, die die Kameras<br />

mit dem Manipulator verbinden. Dadurch kann der Roboter sofort auf Änderungen der Umgebung<br />

reagieren und seine Bewegung an die neue Situation anpassen. Die Verhalten setzen die Information<br />

der Roboterkameras ein, um den Manipulator bildgestützt zum Ziel zu führen, das Objekt im Sichtfeld<br />

der Greiferkamera zu halten und den Greifer und die Manipulator-Segmente vor Kollisionen zu<br />

schützen. Sie sind entweder explizit programmiert oder mit neuronalen Netzen erlernt. Im letzteren<br />

Fall werden lokale Approximatoren verwendet 27 , um die Abbildung der gewünschten Änderung der<br />

Bildmerkmale auf entsprechende Roboterbewegungen zu realisieren. In dieser Ebene wird auch ein<br />

Routenplaner als Verhalten eingesetzt, um besonders zu Beginn einer Greifbewegung eine grobe Bewegungsrichtung<br />

vorzugeben und dadurch den Manipulator vor Deadlocks zu bewahren und Konflikte<br />

aufzulösen. Der Routenplaner beschränkt seine Planung auf eine begrenzte Region des Arbeitsraums<br />

um die aktuelle Gelenkstellung des Roboterarms und die Position des Zielobjektes.<br />

Die vermittelnde Ebene implementiert den Verhaltensaktivierungs- und Verhaltenskoordinationsmechanismus.<br />

Die Verhaltensaktivierung wählt nach dem Arbitration-Prinzip mit einem endlichen Zustandsakzeptor<br />

(Finite State Acceptor, FSA) die Gruppen von parallel auszuführenden Fertigkeiten<br />

aus und aktiviert sie. Der Koordinationsmechanismus basiert auf dem Superposition Command<br />

Fusion-Prinzip und ist mit Bayesian Belief Netzwerken (BBN) [Cha91], [Hec95] realisiert, die die<br />

Anwendbarkeit der Verhalten bestimmen und die Ausgaben der aktiven Verhalten zum Roboter miteinander<br />

interpolieren. Der Einsatz der BBN erlaubt das Lernen der Anwendbarkeit der Verhalten in<br />

verschiedenen Situationen, sowie die Modellierung der Fehlerwahrscheinlichkeit bei der Merkmalsextraktion<br />

aus den Bilddaten und erhöht dadurch die Robustheit des Koordinationsmechanismus.<br />

Auf der mobilen Plattform kommt für die reaktive und die vermittelnde Ebene der Ansatz von Pauly<br />

[Pau98] zum Einsatz.<br />

25Der genaue Vorgang bei diesem Ansatz wurde schon in Abschnitt 2.3.2 diskutiert.<br />

26Dabei existieren zwei reaktive und zwei vermittelnde Ebenen - je eine für den Roboterarm und für die mobile Plattform.<br />

27Wie z.B. Radial Basis Function Networks (RBF)[Hay94] für die bildgestützte Zielführung und Neurofuzzy [vA93]<br />

für die Hindernisvermeidung des Greifers.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!