09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

schiedliche Greifstrategien für unterschiedliche Objekte definieren und somit ein effizientes Greifen<br />

von Objekten ermöglichen. Ein weiterer Unterschied zu ähnlichen Arbeiten sind die implementierten<br />

Hindernisvermeidungsverhalten, die sowohl den Greifer als auch die Segmente des Manipulators<br />

berücksichtigen. Dabei wird für jedes Verhalten auch eine unterschiedliche Kamerakonfiguration verwendet:<br />

die eye-in-hand Kamera liefert die Daten für die Hindernisvermeidung des Greifers und die<br />

eye-to-hand Kamera der mobilen Plattform akquiriert die Daten für die Hindernisvermeidung der<br />

Manipulatorsegmente. Verhalten, die die Hindernisvermeidung für den Greifer über die eye-in-hand<br />

Kamera implementieren, sind bei anderen Systemen nicht vorhanden. Dabei kann die Greiferkamera<br />

eine größere Genauigkeit der Szene um den Greifer liefern , weist keine Verdeckungen durch Manipulatorsegmente<br />

auf und trägt somit bei der Robustheit der Hindernisvermeidung bei.<br />

Die meisten hybriden Architekturen wenden keine Verhaltenskoordinierung bei einem Manipulator<br />

an; bestenfalls erlauben sie dem Programmierer den Koordinationsmechanismus für den Roboterarm<br />

selbst zu realisieren. In dieser Arbeit wird ein einheitliches Konzept zur Koordination der bildgestützten<br />

Verhalten des Roboterarmes präsentiert und mit einer Pick-and-Place Aufgabe getestet.<br />

Dabei handelt es sich um eine gewichtete Summierung der Verhaltensausgaben anhand des gegenwärtigen<br />

Sensorkontexts, die die situationsabhängige Fusion der Ausgaben reaktiver und planender<br />

Fertigkeiten ermöglicht und den Roboterarm in kritischen Bereichen effektiv vor Kollisionen schützt.<br />

Der Koordinationsmechanismus ist, unterschiedlich zu anderen Verfahren, leicht um neue Verhalten<br />

erweiterbar: Da jedes Verhalten ein eigenes BBN erhält, wird bei der Implementierung eines neuen<br />

Verhaltens lediglich ein neues BBN erzeugt und erlernt. Die BBNs der vorhandenen Verhalten werden<br />

dabei ohne Änderungen übernommen. Auf diese Weise entfällt ein komplettes neues Training bzw.<br />

ein Umstrukturieren der alten Komponenten. Der realisierte Ansatz erfordert auch kein aufwendiges<br />

Experimentieren zum Setzen der Parameter wie in anderen Arbeiten, da diese in einer virtuellen Umgebung<br />

erlernt werden. Im Koordinationsmechanismus ist auch die Unsicherheit der oft verrauschten<br />

Merkmale modelliert und im Gewichtungsprozess berücksichtigt.<br />

Weiterführende Arbeiten könnten sich mit der robusteren Bildverarbeitung, Segmentierung und Erkennung<br />

der Objekte befassen. Dadurch kann der mobile Manipulator mit alltäglich benutzten Gegenständen<br />

ohne künstliche Markierungen in einer realen Umgebung eingesetzt werden. Es empfiehlt<br />

sich außerdem der Einsatz einer Stereokamera auf der Plattform, um mit der existierenden Hindernisvermeidung<br />

der Segmente auch bei bewegten Hindernissen ein Ausweichen des Manipulators zu ermöglichen.<br />

Weiterhin werden zur Zeit die Eingabemerkmale für die reaktive Verhalten noch manuell<br />

bestimmt. Es ist wünschenswert, die Merkmalsauswahl in der virtuellen Umgebung zu automatisieren<br />

und über statistische Kriterien, wie beispielsweise die Mutual Information [WT98], aus allen extrahierten<br />

Merkmalen die ausdruckreichsten für ein Verhalten auszuwählen und zum Training sowie zur<br />

Ansteuerung einzusetzen.<br />

Die realisierten Fertigkeiten begrenzen den Einsatz des mobilen Manipulators nur für Pick-And-Place<br />

Aufgaben. Um weitere Aufgaben ausführen zu können, müssen neue Verhalten in die reaktive Ebene<br />

eingefügt werden. Solche Fertigkeiten könnten unter anderem das Verfolgen eines Objektes mit<br />

der Bordkamera, das Greifen einer Türklinke oder das Betätigen eines Schalters umfassen. In diesem<br />

Rahmen muss man auch die vermittelnde Ebene mit entsprechenden Planungsschritten erweitern. Der<br />

Verhaltenskoordinationsmechanismus kann auch erweitert werden, um die gleichzeitige, eng koordinierte<br />

Bewegung von Plattform und Manipulator bei Transportaufgaben zu ermöglichen. Weiterhin ist<br />

zu untersuchen, inwiefern das Training in der virtuellen Umgebung auch auf das Erlernen der BBN-<br />

Struktur zu erweitern ist. Dadurch kann ein höherer Automatisierungsgrad bei der Implementierung<br />

der vermittelnden Ebene erzielt werden.<br />

147

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!