Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
3.3 Teach-In in virtuellen Umgebungen 63<br />
(a) (b)<br />
Abbildung 3.10: Aufnahme vor (a) und nach (b) Anwendung des SUSAN Noise Filtering Algorithmus<br />
(Ausschnitt).<br />
Zielposition in der Nähe des Objektes führt. Diese Vorgehensweise ist nicht praktikabel anwendbar,<br />
sobald eine große Anzahl von Pfaden vorgezeigt werden muss. Eine bessere Alternative ist,<br />
eine Sequenz von ähnlichen Pfaden, die den Manöverraum des Manipulator decken, anhand einer<br />
erwünschten Form zu generieren (algorithmisches Teach-In). Anderseits kann man auch dem Manipulator<br />
selbst die Exploration seiner Arbeitsumgebung überlassen (stochastisches Teach-In).<br />
Beide Formen des Teach-Ins sind nur in der virtuellen Umgebung möglich, da Explorationsbewegungen<br />
des Manipulators in der realen Welt leicht zu Beschädigungen der Hardware führen können.<br />
Weiterhin lässt sich in der virtuellen Umgebung der Lernvorgang automatisieren, so dass wesentlich<br />
mehr Durchgänge als bei einem realen Training möglich sind. Bei Bedarf besteht sogar die Möglichkeit,<br />
die exakt gleiche Situation, Objekt- und Roboterpositionen zum mehrmaligen Training und zur<br />
Überprüfung des Greifvorgangs herzustellen.<br />
Bei beiden Formen des Teach-Ins handelt es sich um Methoden zur Generierung und Akquisition<br />
der Trainingsdaten für die Steuerungsalgorithmen des Manipulators und nicht um Lernverfahren. Das<br />
algorithmische Teach-In generiert und sammelt die Daten für überwachte Lernmethoden, während<br />
das stochastische Teach-In beim Lernen mit Bewerter zum Einsatz kommt. Deswegen werden in den<br />
nächsten Abschnitten diese beide Methoden zum Lernen kurz erläutert. Anschließend werden die<br />
zwei Formen des Teach-Ins ausführlich vorgestellt.<br />
3.3.1 Überwachtes Lernen<br />
Beim überwachten Lernen (Supervised Learning), auch als Lernen mit Lehrer bekannt, erzeugt ein<br />
Lehrer die Trainingsdaten aus einer Menge von Eingangs-Ausgangs Beispielen der richtigen Handlungsweise<br />
bei einer gegebenen Situation [Kra03b]. Das zu lernende System, auch als Agent bezeichnet,<br />
hat die Aufgabe, aus der Menge der Beispiele eine Abbildung des Eingangsraumes auf den Ausgangsraum<br />
zu realisieren, die konsistent zur Trainingsmenge ist. Bei dieser Trainingsphase erfolgt für<br />
jeden präsentierten Eingangsvektor der Vergleich der Ausgabe des Agenten mit der erwünschten Soll-<br />
Ausgabe. Der Agent wird dann mit Hilfe des Eingangsvektors und des Fehlersignals angepasst; als<br />
Fehlersignal ist hier die Differenz zwischen Ist- und Soll-Ausgabe gemeint (siehe Abbildung 3.11).