09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

146 KAPITEL 7. ZUSAMMENFASSUNG UND AUSBLICK<br />

Diese bestimmen die Anwendbarkeit der Verhalten in einer Situation und ermöglichen die gewichtete<br />

Interpolation der Ausgaben der aktiven Verhalten zum Roboter. Der Einsatz der BBN erlaubt<br />

das Lernen der Anwendbarkeit der Verhalten in verschiedenen Situationen, sowie die Modellierung<br />

der Fehlerwahrscheinlichkeit bei der Merkmalsextraktion aus den Bilddaten und erhöht dadurch die<br />

Robustheit des Koordinationsmechanismus.<br />

Die mobile Plattform und der Manipulator werden über die deliberative Ebene koordiniert. Diese<br />

zerlegt eine Aufgabe in eine Reihenfolge von Planungsschritten für den Manipulator und die mobile<br />

Plattform. Hier arbeitet der High-Level Planner (HLP) strategische Pläne aus und setzt Zwischenziele<br />

für den mobilen Manipulator. Ein schnelles reaktives Planungssystem, der Low-Level Planner (LLP),<br />

zerlegt die Zwischenziele in vordefinierten Sequenzen von Planungsschritten. Der LLP umfasst auch<br />

einen probabilistischen Routenplaner, der mögliche Pfade für die mobile Plattform zum Lösen einer<br />

Aufgabe berechnet. Zu der deliberativen Ebene gehört zusätzlich ein Weltmodell mit einer geometrischen<br />

Karte für die Routenplanung und einer topologischen Darstellung der Umgebung für den HLP.<br />

Diese Aufteilung der deliberativen Ebene in den HLP und den LLP ermöglicht einerseits eine zielstrebige,<br />

globale Planung, die auch für komplexe Aufgaben Lösungen finden kann, und andererseits<br />

eine schnelle lokale Anpassung der existierenden Pläne auf der gegenwärtigen Umgebungssituation.<br />

Ein weiterer Kernpunkt dieser Arbeit ist das Erlernen der gewünschten, bildgestützten Steuerungsalgorithmen<br />

des Roboterarmes anhand von Aufnahmen virtueller Kameras in einer virtuellen Umgebung<br />

mit einem Modell des realen Roboters. Nach der Trainings- und Evaluierungsphase findet ein<br />

Transfer der erlernten Algorithmen auf den realen Roboter statt und das System wird in der realen<br />

Umgebung eingesetzt. Dieser lernbasierte Ansatz bietet den Vorteil, dass er die Integration von Wissen,<br />

hier die bildgestützte Steuerung des Roboterarms, vereinfacht. Zugleich ermöglicht er die leichte<br />

Anpassung das Gesamtsystem an wechselnde Umweltbedingungen und Aufgaben ohne die Hardware<br />

zu gefährden. Zwei Verfahren wurden für die Automatisierung des Trainings in der virtuellen Umgebung<br />

vorgeschlagen. Für das Lernen von zielführenden Verhalten wurden objektspezifische Pfade<br />

anhand einer Vorgabe automatisch generiert und entlang der Pfade die Trainingsdaten gesammelt<br />

(algorithmisches Teach-In). Kollisionsvermeidende Verhalten sowie der Koordinationsmechanismus<br />

setzten zum Training Reinforcement Learning-Techniken ein (stochastisches Teach-In).<br />

Mit dieser Arbeit ist ein System zur mobilen Manipulation in einer teilweise bekannten Umgebung<br />

unter Berücksichtigung von Hindernissen entstanden und innerhalb eines Pick-and-Place Szenarios<br />

erfolgreich getestet worden. Die realisierte drei-Ebenen Architektur ermöglicht den robusten parallelen<br />

Einsatz zielführender und kollisionsvermeidender Verhalten und die Kombination reaktiver und<br />

planender Fertigkeiten; bisher wurde bei existierenden mobilen Manipulatoren nur die sequentielle<br />

Ausführung der Komponenten der reaktiven Ebene implementiert. Dadurch macht sich das System<br />

die Vorteile sowohl der Arbitration- als auch der Command Fusion-Mechanismen zunutze. Weiterhin<br />

wurde der erfolgreiche Einsatz virtueller Umgebungen zum Teach-In der reaktiven, bildgestützten<br />

Verhalten sowie des Koordinationsmechanismus untersucht. Im Rahmen dieser Untersuchung wurden<br />

auch die erforderlichen Bildverarbeitungsschritte zum Abgleich der Daten der realen und der<br />

virtuellen Kameras festgelegt. Das Training in der virtuellen Umgebung mit dem algorithmischen<br />

und stochastischen Teach-In erlaubt dabei das effiziente Erlernen der Verhalten ohne die Hardware<br />

zu gefährden. Ein weiteres Novum dieser Arbeit ist das Training des Koordinationsmechanismus der<br />

Fertigkeiten, das mit dem stochastischen Teach-In in der virtuellen Umgebung stattfindet und das<br />

nicht in anderen Systemen vorgesehen ist.<br />

In der reaktiven Ebene hat die bildgestützte Zielführung die Aufgabe, den Manipulator entlang eines<br />

objektspezifischen Pfades zur Greifposition am Objekt zu führen. Dadurch kann man einfach unter-

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!