09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

82 4.2 Hindernisvermeidung<br />

Objektpositionen<br />

Trainierter Bereich<br />

18<br />

Richtige Abstandsregion 16<br />

Erste Ebene Benachbarte Abstandsregion 2<br />

Falsche Abstandsregion 0<br />

Zweite<br />

Ebene<br />

Nächster Pfad<br />

Zweitnächster Pfad<br />

Falsche Pfadauswahl<br />

11<br />

4<br />

3<br />

Zielposition erreicht 10<br />

Gesamtpfad Zielposition ≤ 3cm 5<br />

Zielposition ≥ 3cm 3<br />

Tabelle 4.2: Ergebnisse der Zielführung mit dem realen mobilen Manipulator für nicht trainierte Positionen<br />

des Objektes innerhalb des trainierten Arbeitbereiches des Roboterarmes. Die evaluierten<br />

Objektpositionen stimmen mit den entsprechenden Positionen in der virtuellen Umgebung überein<br />

(siehe auch Tabelle 4.1).<br />

4.2 Hindernisvermeidung<br />

Die Zielführung kann zwar den Manipulator entlang eines objektspezifischen Pfades zur Greifposition<br />

am Zielobjekt führen, sie kann ihn jedoch nicht vor Kollisionen schützen. Diese Aufgabe übernehmen<br />

zwei Verhalten zur reaktiven Hindernisvermeidung. Das erste bestimmt eine hindernisvermeidende<br />

Bewegung für den Greifer des Manipulators während das zweite die restlichen Segmente des Roboterarms<br />

vor Kollisionen mit Hindernissen schützt. Diese Aufteilung in zwei Komponenten hat als<br />

Ziel, die Hindernisvermeidung zu vereinfachen und die Rechenzeit niedrig zu halten, da jedes Verhalten<br />

nur eine beschränkte Anzahl der Gelenke des Manipulators berücksichtigen muss. Außerdem<br />

können die Daten der Greifer- und der Bordkamera gezielt und effizient für jedes Verhalten verwendet<br />

werden; die Greiferkamera überwacht die Bewegung des Greifers, während die Bordkamera, die den<br />

kompletten Roboterarm erfasst, die restlichen Segmente vor Kollisionen schützt. Alternativ wäre eine<br />

rechenaufwendige Fusion der extrahierten Merkmale aus beiden Kameras notwendig.<br />

Beide hindernisvermeidende Verhalten verfügen über eine ähnliche Merkmalsextraktionsphase (Abbildung<br />

4.7). In einem ersten Schritt versuchen sie die Hindernisse und das Zielobjekt im Raum<br />

relativ zum Manipulator zu lokalisieren. Dieser Vorgang, vorgestellt im nächsten Abschnitt, ist für<br />

beide Fertigkeiten derselbe; nur die eingesetzte Kamera unterscheidet sich bei jedem Verhalten. Diese<br />

geometrische Information wird dann von der Steuerungskomponente der Fertigkeiten, vorgestellt<br />

in Abschnitten 4.2.2 und 4.2.3, verwendet, um einen kollisionsfreien Pfad für den Greifer bzw. für die<br />

Segmente des Manipulators zu bestimmen.<br />

4.2.1 Lokalisierung der Hindernisse im Raum<br />

Bei der Hindernisvermeidung hat die Bildverarbeitungskomponente der Verhalten die Aufgabe, aus<br />

den Kameraaufnahmen die Hindernisse im Raum zu erkennen und relativ zum Manipulator zu lokalisieren.<br />

Aus dem Abstand und der Orientierung der Hindernisse zum Roboterarm kann die Steuerungskomponente<br />

der Verhalten ein Ausweichmanöver berechnen. Da jedoch ein einzelnes Bild keine Tie-

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!