09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.1 Bildgestützte Zielführung 81<br />

trainierte Positionen platziert. Außerdem werden drei Positionen außerhalb des trainierten Bereiches<br />

getestet; in diesem Fall ist ein Greifvorgang unerwünscht. Bei jeder Position nimmt das Objekt drei<br />

unterschiedliche Orientierungen um seine y-Achse an. Die Ergebnisse der Zielführung für Objektpositionen<br />

innerhalb des trainierten Arbeitsbereiches sind in Tabelle 4.1 zusammengefasst.<br />

Objektpositionen<br />

Trainierter Bereich<br />

18<br />

Richtige Abstandsregion 17<br />

Erste Ebene Benachbarte Abstandsregion 1<br />

Falsche Abstandsregion 0<br />

Nächster Pfad 16<br />

Zweite Ebene Zweitnächster Pfad 2<br />

Falsche Pfadauswahl 0<br />

Zielposition erreicht 12<br />

Gesamtpfad Zielposition ≤ 3cm 6<br />

Zielposition ≥ 3cm 0<br />

Tabelle 4.1: Ergebnisse der Zielführung in der virtuellen Umgebung für verschiedene, nicht trainierte<br />

Positionen des Objektes innerhalb des trainierten Arbeitbereiches des Manipulators. Sechs Objektpositionen<br />

mit drei unterschiedliche Orientierungen pro Position wurden getestet.<br />

Während der Evaluierung ermittelt die Steuerungskomponente in 17 Fällen die richtige Abstandsregion<br />

relativ zum Zielobjekt und 1 mal die nächste. Die zweite Ebene ergibt in 16 Fällen die nächste<br />

Trajektorie und in 2 Fällen die zweitnächste. Der interpolierte Pfad bringt den Greifer in 12 der Fälle<br />

zur richtigen Zielposition und in 6 der Fälle ist eine zusätzliche, feine Bewegung von 2 cm notwendig,<br />

um das Greifen zu vervollständigen. Alle Positionen außerhalb des trainierten Bereiches werden<br />

richtig erkannt; für diese Positionen initiiert der Roboterarm keinen Greifvorgang.<br />

Die Fehler bei der Ausführung der Pfade in der virtuellen Umgebung sind auf Fälle zurückzuführen,<br />

wo das Zielobjekt nicht in der Nähe des Bildhauptpunktes war. Je weiter die Projektion des Objektes<br />

vom Bildhauptpunkt entfernt ist, desto unterschiedlicher erscheint das Objekt in der Aufnahme verglichen<br />

mit dem trainierten virtuellen Prototyp. Dieser Effekt ist umso größer, je weiter entfernt sich<br />

das Objekt von der Kamera befindet; dann verursacht ein kleiner Abstand vom Bildhauptpunkt eine<br />

verhältnismäßig große Veränderung des Flächeninhaltes der Seiten des roten Griffes in der Aufnahme.<br />

So entstehen bei den RBFs der ersten und zweiten Ebene falsche Gewichtungen bei der Klassifizierung<br />

der nächsten Pfade und somit ein ungenauer Gesamtpfad zur Zielposition. Deswegen ist die<br />

Zuverlässigkeit des Verhaltens niedrig, wenn das Ziel in der Nähe des Bildrandes zu sehen ist. Dieses<br />

Problem wird jedoch durch die Anwendung des Verhaltens in einem geschlossenen Regelkreis und<br />

die Korrektur der Kameraorientierung nach Abschnitt 4.1.3 aufgehoben 11 .<br />

Dieselbe Evaluierung wird mit dem realen Roboterarm ausgeführt (Tabelle 4.2). Während der Tests<br />

wählt die erste Ebene in 16 Fällen die richtige und 2 mal die zweitnächste Abstandsregion aus. Die<br />

RBFs der zweiten Ebene ermitteln für 11 der Ansichten den nächsten Pfad und in 4 Fällen den zweitnächsten.<br />

Drei falsche Klassifizierungen werden durch die Bildreflektionen und das Rauschen in den<br />

Aufnahmen verursacht, die eine fehlerhafte Segmentierung und Merkmalsextraktion zur Folge haben.<br />

11 Alternativ könnte man die Trainingsmenge mit Aufnahmen des Objekt am Rande des Kamerabildes ergänzen. Dies<br />

würde jedoch die Trainingsdaten um ein Vierfaches vergrößern.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!