09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Kapitel 4<br />

Bildgestützte reaktive Verhalten zur<br />

Manipulation<br />

Die reaktive Ebene des mobilen Manipulators hat die Aufgabe, direkt auf Änderungen der Umgebung<br />

zu reagieren und die Bewegung des Roboter entsprechend anzupassen. In den meisten hybriden<br />

Architekturen besteht sie aus mehreren Fertigkeiten, die der mobile Manipulator einzeln oder auch<br />

parallel einsetzen kann, um eine gestellte Aufgabe zu bewältigen. Dabei handelt es sich meistens um<br />

Module mit einem festgesetzten Ziel, die über kein Modell der Umgebung verfügen [Bro86] und die<br />

einfach realisiert sind, um eine schnelle Reaktion und Anpassung der Roboterbewegung auf neue<br />

Sensordaten zu ermöglichen.<br />

In Rahmen dieser Arbeit wurde die reaktive Ebene des Manipulators implementiert und die benötigten<br />

Verhalten realisiert. Die implementierten Verhalten verwenden Kameraaufnahmen, um den Manipulator<br />

zum Ziel zu führen, das Objekt im Sichtfeld der Manipulatorkamera zu halten oder den Greifer<br />

bzw. die Manipulatorsegmente vor Kollisionen zu bewahren. Weiterhin ist ein Pfadplanungsverhalten<br />

realisiert worden, um die reaktiven Verhalten zu unterstützen und Situationen mit lokalen Minima<br />

auflösen zu helfen. Zum Training und zur Evaluierung der Verhalten kommen die virtuelle Umgebung<br />

und die beiden Teach-In Verfahren, die in Kapitel 3 schon beschrieben wurden, zum Einsatz.<br />

Der allgemeine Verlauf einer in dieser Arbeit implementierten Fertigkeit ist in Abbildung 4.1 zu<br />

sehen. Die Bildvorverarbeitung umfasst den Abgleich der Aufnahmen der realen mit den entsprechenden<br />

virtuellen Kameras. In der Merkmalsextraktion werden zuerst die verschiedenen Objekte<br />

anhand ihrer Farbe im Bild detektiert und als Zielobjekt oder Hindernisse klassifiziert. Danach werden<br />

Merkmale extrahiert, die die Position und Form der Objekte im Bild bzw. im Raum beschreiben,<br />

und als Eingaben für die Steuerungskomponente eingesetzt. Diese berechnet die nächste Bewegung<br />

des Roboterarmes in Form eines Pfades 1 .<br />

Ein Pfad (Path) besteht aus einer Sequenz von kartesischen Greiferpositionen bzw. von Gelenkstellungen,<br />

auch als Stützstellen bekannt, die der Roboter nacheinander abfahren muss, um zum Ziel zu<br />

kommen. Der Pfad ist somit eine rein geometrische Beschreibung einer Bewegung. Eine Trajektorie<br />

1 Alternativ kann man die Bewegung des Manipulators mit einem Geschwindigkeitsvektor beschreiben. Dies erfordert<br />

jedoch eine sehr schnelle Ausführungsfrequenz für jedes Verhalten, die, wenn man alle Software-Komponenten des mobilen<br />

Manipulators berücksichtigt, nicht garantiert werden kann. Deswegen empfiehlt sich, dass Verhalten Pfade mit der<br />

erwünschten Bewegungsform ausgeben. Diese kann der Roboterarm ausführen, bis neue Daten von der reaktiven Ebene<br />

vorliegen.<br />

73

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!