20.03.2014 Aufrufe

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

8.1 <strong>E<strong>in</strong>führung</strong>: Masch<strong>in</strong>elles Lernen<br />

• Erweiterung des Spektrums o<strong>der</strong> <strong>der</strong> Qualität <strong>der</strong> Aufgaben, <strong>die</strong> erledigt werden<br />

können.<br />

Beispiel 8.1.1. Drei beispielhafte Ansätze s<strong>in</strong>d:<br />

• Erweiterung und Anpassung des Lexikons e<strong>in</strong>es computerl<strong>in</strong>guistischen Systems durch automatische<br />

Verarbeitung von geschrieben Sätzen, wobei <strong>der</strong> Inhalt <strong>die</strong>ser Sätze gleichzeitig<br />

automatisch erfasst werden sollte.<br />

• Adaption von Gewichten e<strong>in</strong>er Bewertungsfunktion <strong>in</strong> e<strong>in</strong>em Zweipersonenspiel, wobei man<br />

abhängig von Gew<strong>in</strong>n/Verlust Gewichte verän<strong>der</strong>t. Das wurde für Dame und Backgammon<br />

mit Erfolg durchgeführt.<br />

• Lernen e<strong>in</strong>er Klassifikation durch Vorgabe von Tra<strong>in</strong><strong>in</strong>gsbeispielen, <strong>die</strong> als positiv/negativ<br />

klassifiziert s<strong>in</strong>d.<br />

8.1.1 E<strong>in</strong>ordnung von Lernverfahren<br />

Die Struktur e<strong>in</strong>es lernenden Systems kann man wie folgt beschreiben:<br />

Agent (ausführende E<strong>in</strong>heit, performance element). Dieser soll verbessert werden anhand<br />

von Erfahrung; d.h. etwas lernen.<br />

Lerne<strong>in</strong>heit (learn<strong>in</strong>g element). Hier wird <strong>der</strong> Lernvorgang gesteuert und bewertet. Insbeson<strong>der</strong>e<br />

wird hier vorgegeben, was gut und was schlecht ist. Hier kann man auch<br />

<strong>die</strong> Bewertungse<strong>in</strong>heit (critic) und den Problemgenerator e<strong>in</strong>ordnen.<br />

Umwelt In <strong>der</strong> Umwelt soll agiert werden. Die Rückmeldung über den Ausgang bzw.<br />

den Effekt von Aktionen kommt aus <strong>die</strong>ser Umwelt. Das kann e<strong>in</strong>e künstliche, modellhafte<br />

Umwelt o<strong>der</strong> auch <strong>die</strong> reale Umwelt se<strong>in</strong>.<br />

Zum Teil wird Agent und Lerne<strong>in</strong>heit zusammen <strong>in</strong> e<strong>in</strong>en erweiterten Agent verlagert.<br />

Pr<strong>in</strong>zipiell sollte man <strong>die</strong>se E<strong>in</strong>heiten unterscheiden, denn <strong>die</strong> Bewertung muss außerhalb<br />

des Agenten se<strong>in</strong>, sonst wäre <strong>die</strong> Möglichkeit gegeben, <strong>die</strong> Bewertung an <strong>die</strong> schlechten<br />

Aktionen anzupassen, statt <strong>die</strong> Aktionen zu verbessern.<br />

Folgende Lernmethoden werden unterschieden:<br />

Überwachtes Lernen (supervised learn<strong>in</strong>g). Diese Methode geht von <strong>der</strong> Situation aus <strong>in</strong><br />

<strong>der</strong> es e<strong>in</strong>en allwissenden Lehrer gibt. Die Lerne<strong>in</strong>heit kann dem Agenten bei je<strong>der</strong><br />

Aktion sagen, ob <strong>die</strong>se richtig war und was <strong>die</strong> richtige Aktion gewesen wäre. Das<br />

entspricht e<strong>in</strong>em unmittelbaren Feedback über <strong>die</strong> exakt richtige Aktion. Alternativ<br />

kann man e<strong>in</strong>e feste Menge von richtigen und falschen Beispielen vorgeben und<br />

damit dann e<strong>in</strong> Lernverfahren starten.<br />

Unüberwachtes Lernen (unsupervised learn<strong>in</strong>g). Dies ist <strong>der</strong> Gegensatz zum überwachten<br />

Lernen. Es gibt ke<strong>in</strong>e H<strong>in</strong>weise, was richtig se<strong>in</strong> könnte. Damit Lernen möglich<br />

ist, braucht man <strong>in</strong> <strong>die</strong>sem Fall e<strong>in</strong>e Bewertung <strong>der</strong> Güte <strong>der</strong> Aktion.<br />

M. Schmidt-Schauß & D. Sabel, Skript KI, WS 2012/13 259 Stand: 30. Januar 2013

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!