09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2.8 Abgrenzung von anderen Arbeiten 49<br />

direkt während des Greifvorgangs angewendet. Der implementierte Verhaltenskoordinationsmechanismus<br />

ermöglicht die situationsabhängige Fusion der Verhaltensausgaben und somit eine robuste<br />

Hindernisvermeidung und zugleich ein effizientes objektspezifisches Greifen.<br />

Im Gegensatz zu anderen Ansätzen zur Verhaltenskoordination wird hier keine rein reaktive oder rein<br />

vorausplanende Strategie verfolgt. Stattdessen wird eine Kombination benutzt, so dass die Vorteile<br />

aus beiden Strategien ausgenutzt werden: ein Pfadplanungsverfahren ist als Verhalten eingeführt und<br />

gleicht damit einer Komponente des DAMN Ansatzes [Ros95]. Die vermittelnde Ebene kann dann<br />

den vorab berechneten Pfad des Planungsverhaltens situationsabhängig in die resultierende Aktion<br />

einbeziehen bzw. reaktiv anpassen. Zugleich bewahrt die Ausgabe des Planungsverhaltens den Manipulator<br />

vor Deadlocks und trägt beim Auflösen von Konflikten zwischen den reaktiven Verhalten<br />

bei.<br />

Die virtuelle Umgebung zum Training der bildgestützten Verhalten muss nicht mit der Einsatzumgebung<br />

genau übereinstimmen, wie bei [HLBS96]. Sie ermöglicht das Erlernen der bildgestützten<br />

objektspezifischen Zielführung über das algorithmische Teach-In und der Hindernisvermeidung des<br />

Greifers über das stochastische Teach-In. Das Training des Koordinationsmechanismus der Fertigkeiten<br />

in der virtuellen Umgebung ist auch nicht in anderen Systemen, wie [HLBS96] oder [FSZ00]<br />

vorgesehen. Das algorithmische und das stochastische Teach-In erlauben die Automatisierung des<br />

Trainings von bildgestützten Steuerungsalgorithmen, ohne dabei den Roboter zu gefährden. Weiterhin<br />

ermöglicht der Trainingsvorgang in der virtuellen Umgebung mit mehreren Objektkonstellationen<br />

die situationsabhängige Optimierung der Parameter der eingesetzten Algorithmen und macht ein<br />

langwieriges Experimentieren unnötig.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!