09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

3.3 Teach-In in virtuellen Umgebungen 63<br />

(a) (b)<br />

Abbildung 3.10: Aufnahme vor (a) und nach (b) Anwendung des SUSAN Noise Filtering Algorithmus<br />

(Ausschnitt).<br />

Zielposition in der Nähe des Objektes führt. Diese Vorgehensweise ist nicht praktikabel anwendbar,<br />

sobald eine große Anzahl von Pfaden vorgezeigt werden muss. Eine bessere Alternative ist,<br />

eine Sequenz von ähnlichen Pfaden, die den Manöverraum des Manipulator decken, anhand einer<br />

erwünschten Form zu generieren (algorithmisches Teach-In). Anderseits kann man auch dem Manipulator<br />

selbst die Exploration seiner Arbeitsumgebung überlassen (stochastisches Teach-In).<br />

Beide Formen des Teach-Ins sind nur in der virtuellen Umgebung möglich, da Explorationsbewegungen<br />

des Manipulators in der realen Welt leicht zu Beschädigungen der Hardware führen können.<br />

Weiterhin lässt sich in der virtuellen Umgebung der Lernvorgang automatisieren, so dass wesentlich<br />

mehr Durchgänge als bei einem realen Training möglich sind. Bei Bedarf besteht sogar die Möglichkeit,<br />

die exakt gleiche Situation, Objekt- und Roboterpositionen zum mehrmaligen Training und zur<br />

Überprüfung des Greifvorgangs herzustellen.<br />

Bei beiden Formen des Teach-Ins handelt es sich um Methoden zur Generierung und Akquisition<br />

der Trainingsdaten für die Steuerungsalgorithmen des Manipulators und nicht um Lernverfahren. Das<br />

algorithmische Teach-In generiert und sammelt die Daten für überwachte Lernmethoden, während<br />

das stochastische Teach-In beim Lernen mit Bewerter zum Einsatz kommt. Deswegen werden in den<br />

nächsten Abschnitten diese beide Methoden zum Lernen kurz erläutert. Anschließend werden die<br />

zwei Formen des Teach-Ins ausführlich vorgestellt.<br />

3.3.1 Überwachtes Lernen<br />

Beim überwachten Lernen (Supervised Learning), auch als Lernen mit Lehrer bekannt, erzeugt ein<br />

Lehrer die Trainingsdaten aus einer Menge von Eingangs-Ausgangs Beispielen der richtigen Handlungsweise<br />

bei einer gegebenen Situation [Kra03b]. Das zu lernende System, auch als Agent bezeichnet,<br />

hat die Aufgabe, aus der Menge der Beispiele eine Abbildung des Eingangsraumes auf den Ausgangsraum<br />

zu realisieren, die konsistent zur Trainingsmenge ist. Bei dieser Trainingsphase erfolgt für<br />

jeden präsentierten Eingangsvektor der Vergleich der Ausgabe des Agenten mit der erwünschten Soll-<br />

Ausgabe. Der Agent wird dann mit Hilfe des Eingangsvektors und des Fehlersignals angepasst; als<br />

Fehlersignal ist hier die Differenz zwischen Ist- und Soll-Ausgabe gemeint (siehe Abbildung 3.11).

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!