09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

2.2 Reaktive Verhalten für Manipulatoren 13<br />

auch den höchsten Anspruch bei der Realisierung des Systems [Mat01]. Der Greifvorgang selbst sollte<br />

die Form und Funktionalität des Objektes berücksichtigen. Diese erzwingen eine objektabhängige<br />

Greifrichtung für den Manipulator, der an das Zielobjekt über einen objektspezifischen Pfad gelangen<br />

sollte, um ein robustes Greifen zu gewährleisten. Werden neue Aufgaben oder neue Fertigkeiten für<br />

den mobilen Manipulator definiert, um dessen Einsatzmöglichkeiten zu erweitern, dann sollte man<br />

sie im System einfügen können, ohne dass eine langwierige Anpassung der Parameter notwendig ist.<br />

In den nächsten Unterkapiteln wird auf Verfahren eingegangen, die als Komponenten einer hybriden<br />

Architektur eingesetzt werden können und den Anforderungen der mobilen Manipulation entgegenkommen.<br />

Anschließend werden einige ausgewählte Systeme zur mobilen Manipulation vorgestellt,<br />

die den Stand der Technik in diesem Bereich wiederspiegeln.<br />

2.2 Reaktive Verhalten für Manipulatoren<br />

In einer hybriden Architektur besteht die unterste, reaktive Ebene aus Verhalten (Behaviours), oft<br />

auch als Fähigkeiten oder Fertigkeiten (Skills) bekannt. Es handelt sich um Module, die für eine<br />

Aufgabe spezialisiert sind und die Sensoren mit den entsprechenden Aktuatoren verbinden 2 . Dadurch<br />

kann der Roboter sofort auf Änderungen der Umgebung reagieren. Verhalten setzen die Information<br />

der Sensoren ein, um den Roboter zum Ziel zu führen, ein Objekt zu verfolgen oder Aktuatoren vor<br />

Kollisionen zu schützen. Da bei der mobilen Manipulation Kameras als primäre Sensoren eingesetzt<br />

werden, beschränken sich die nächsten Abschnitte auf bildgestützte Verhalten und insbesondere auf<br />

die bildgestützte Zielführung und Hindernisvermeidung für Manipulatoren 3 .<br />

2.2.1 Bildgestützte Zielführung<br />

Bei der bildgestützten Führung eines Roboters wird zunächst ein Satz von Merkmalen aus den Kameraaufnahmen<br />

extrahiert und daraus die nächste Bewegung des Roboters bestimmt. Corke [Cor96]<br />

unterteilt die verschiedenen Ansätze des bildgestützten Greifens in zwei Kategorien:<br />

Open-loop Systeme verwenden keine visuelle Rückkopplung. Hier wird anhand einer einzelnen Aufnahme<br />

die Lage des Zielobjektes bestimmt und der Manipulator dorthin geführt. Diese Systeme<br />

sind dann erfolgreich, wenn die Bildverarbeitung die exakte Position des zu greifenden Objekten<br />

ermitteln kann. Diese Voraussetzung kann jedoch für einen mobilen Manipulator in einer<br />

teilweise unbekannten Umgebungen nicht immer eingehalten werden.<br />

Closed-loop Systeme werten kontinuierlich Merkmale aus Kamerabildern aus, um den Fehler zwischen<br />

Ist- und Soll-Position des Greifers am Objekt zu minimieren. Diese Systeme sind als<br />

Visual Servoing Systeme bekannt. In [Kra01] ist ein guter Überblick über den Stand der Technik<br />

in diesem Bereich zu finden.<br />

Weiterhin sind die Systeme anhand der Anzahl und der Position der Kameras relativ zum Roboterarm<br />

zu unterscheiden [Kra01]:<br />

2 Somit entsprechen sie den Verhalten der reaktiven Architekturen.<br />

3 Die reaktiven Verhalten zur Navigation der mobilen Plattform des hier präsentierten Systems stammen aus der Arbeit<br />

von Pauly [Pau98]; deswegen wird hier auf dieses Thema nicht näher eingegangen. Der interessierte Leser kann eine<br />

genaue Beschreibung der reaktiven Ebene der mobilen Plattform in [Pau98] finden.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!