Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
146 KAPITEL 7. ZUSAMMENFASSUNG UND AUSBLICK<br />
Diese bestimmen die Anwendbarkeit der Verhalten in einer Situation und ermöglichen die gewichtete<br />
Interpolation der Ausgaben der aktiven Verhalten zum Roboter. Der Einsatz der BBN erlaubt<br />
das Lernen der Anwendbarkeit der Verhalten in verschiedenen Situationen, sowie die Modellierung<br />
der Fehlerwahrscheinlichkeit bei der Merkmalsextraktion aus den Bilddaten und erhöht dadurch die<br />
Robustheit des Koordinationsmechanismus.<br />
Die mobile Plattform und der Manipulator werden über die deliberative Ebene koordiniert. Diese<br />
zerlegt eine Aufgabe in eine Reihenfolge von Planungsschritten für den Manipulator und die mobile<br />
Plattform. Hier arbeitet der High-Level Planner (HLP) strategische Pläne aus und setzt Zwischenziele<br />
für den mobilen Manipulator. Ein schnelles reaktives Planungssystem, der Low-Level Planner (LLP),<br />
zerlegt die Zwischenziele in vordefinierten Sequenzen von Planungsschritten. Der LLP umfasst auch<br />
einen probabilistischen Routenplaner, der mögliche Pfade für die mobile Plattform zum Lösen einer<br />
Aufgabe berechnet. Zu der deliberativen Ebene gehört zusätzlich ein Weltmodell mit einer geometrischen<br />
Karte für die Routenplanung und einer topologischen Darstellung der Umgebung für den HLP.<br />
Diese Aufteilung der deliberativen Ebene in den HLP und den LLP ermöglicht einerseits eine zielstrebige,<br />
globale Planung, die auch für komplexe Aufgaben Lösungen finden kann, und andererseits<br />
eine schnelle lokale Anpassung der existierenden Pläne auf der gegenwärtigen Umgebungssituation.<br />
Ein weiterer Kernpunkt dieser Arbeit ist das Erlernen der gewünschten, bildgestützten Steuerungsalgorithmen<br />
des Roboterarmes anhand von Aufnahmen virtueller Kameras in einer virtuellen Umgebung<br />
mit einem Modell des realen Roboters. Nach der Trainings- und Evaluierungsphase findet ein<br />
Transfer der erlernten Algorithmen auf den realen Roboter statt und das System wird in der realen<br />
Umgebung eingesetzt. Dieser lernbasierte Ansatz bietet den Vorteil, dass er die Integration von Wissen,<br />
hier die bildgestützte Steuerung des Roboterarms, vereinfacht. Zugleich ermöglicht er die leichte<br />
Anpassung das Gesamtsystem an wechselnde Umweltbedingungen und Aufgaben ohne die Hardware<br />
zu gefährden. Zwei Verfahren wurden für die Automatisierung des Trainings in der virtuellen Umgebung<br />
vorgeschlagen. Für das Lernen von zielführenden Verhalten wurden objektspezifische Pfade<br />
anhand einer Vorgabe automatisch generiert und entlang der Pfade die Trainingsdaten gesammelt<br />
(algorithmisches Teach-In). Kollisionsvermeidende Verhalten sowie der Koordinationsmechanismus<br />
setzten zum Training Reinforcement Learning-Techniken ein (stochastisches Teach-In).<br />
Mit dieser Arbeit ist ein System zur mobilen Manipulation in einer teilweise bekannten Umgebung<br />
unter Berücksichtigung von Hindernissen entstanden und innerhalb eines Pick-and-Place Szenarios<br />
erfolgreich getestet worden. Die realisierte drei-Ebenen Architektur ermöglicht den robusten parallelen<br />
Einsatz zielführender und kollisionsvermeidender Verhalten und die Kombination reaktiver und<br />
planender Fertigkeiten; bisher wurde bei existierenden mobilen Manipulatoren nur die sequentielle<br />
Ausführung der Komponenten der reaktiven Ebene implementiert. Dadurch macht sich das System<br />
die Vorteile sowohl der Arbitration- als auch der Command Fusion-Mechanismen zunutze. Weiterhin<br />
wurde der erfolgreiche Einsatz virtueller Umgebungen zum Teach-In der reaktiven, bildgestützten<br />
Verhalten sowie des Koordinationsmechanismus untersucht. Im Rahmen dieser Untersuchung wurden<br />
auch die erforderlichen Bildverarbeitungsschritte zum Abgleich der Daten der realen und der<br />
virtuellen Kameras festgelegt. Das Training in der virtuellen Umgebung mit dem algorithmischen<br />
und stochastischen Teach-In erlaubt dabei das effiziente Erlernen der Verhalten ohne die Hardware<br />
zu gefährden. Ein weiteres Novum dieser Arbeit ist das Training des Koordinationsmechanismus der<br />
Fertigkeiten, das mit dem stochastischen Teach-In in der virtuellen Umgebung stattfindet und das<br />
nicht in anderen Systemen vorgesehen ist.<br />
In der reaktiven Ebene hat die bildgestützte Zielführung die Aufgabe, den Manipulator entlang eines<br />
objektspezifischen Pfades zur Greifposition am Objekt zu führen. Dadurch kann man einfach unter-