20.03.2014 Aufrufe

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

1.6 Intelligente Agenten<br />

Diese Beschreibung ist zu allgeme<strong>in</strong> und eignet sich nicht als Programmieridee; <strong>die</strong><br />

Tabelle ist e<strong>in</strong>fach zu groß. Leicht abgeän<strong>der</strong>t und optimiert, nähert man sich „normalen“<br />

Programmen:<br />

(Zustand, Beobachtung) ↦→ Aktion, Zu-<br />

• Agent mit Zustand<br />

implementiert e<strong>in</strong>e Funktion <strong>der</strong> Form<br />

stand’<br />

Wobei <strong>der</strong> Zustand auch <strong>die</strong> gespeicherte Folge (Historie) <strong>der</strong> Beobachtungen se<strong>in</strong><br />

kann.<br />

• E<strong>in</strong>facher Reflex-Agent:<br />

Tabellengesteuert (endlicher Automat) mit e<strong>in</strong>er Tabelle von E<strong>in</strong>trägen:<br />

Beobachtung1 ↦→ Aktion1<br />

Beobachtung2 ↦→ Aktion2<br />

• Modellbasierte Strukturierung:<br />

Der Zustand wird benutzt, um <strong>die</strong> Umgebung zu modellieren und <strong>der</strong>en Zustand<br />

zu speichern. Z.B. beim Staubsauger: <strong>in</strong>neres Modell des Lageplan des Stockwerks;<br />

welche Räume wurden vom Staubsauger gerade gesäubert, usw.<br />

– Zweckbasierte Strukturierung (goalbased, zielbasiert): Die Entscheidung, welche<br />

Aktion als nächste ausgeführt wird, hängt davon ab, ob damit e<strong>in</strong> vorgegebenes<br />

Ziel erreicht wird.<br />

Dr Agent kann erkennen, ob er das Zeil erreicht hat.<br />

– Nutzenbasierte Strukturierung (utility-based, nutzenbasiert): Die Entscheidung,<br />

welche Aktion als nächste ausgeführt wird, hängt davon ab, ob damit<br />

e<strong>in</strong>e vorgegebene (<strong>in</strong>terne) Nutzenfunktion (<strong>in</strong>ternes Gütemaß) verbessert<br />

wird. Da das Performanzmaß vom Agenten selbst meist nicht berechnet werden<br />

kann, da ihm <strong>die</strong> Informationen fehlen, gibt es e<strong>in</strong>e Bewertungsfunktion (utility<br />

function), <strong>die</strong> <strong>der</strong> Agent berechnen und als Bewertung verwenden kann.<br />

• Lernende Agenten (s.o.): Das Vorsehen aller möglichen Aktionen auf alle Varianten<br />

<strong>der</strong> Beobachtung ist, auch stark optimiert, sehr aufwändig, manchmal unmöglich,<br />

da man leicht Fälle beim Programmieren übersieht, und oft <strong>die</strong> optimale Aktion<br />

nicht so e<strong>in</strong>fach aus <strong>der</strong> jeweiligen Beobachtungsfolge ausrechnen kann. Die Speicherung<br />

<strong>der</strong> ganzen Beobachtungsfolge kann zudem sehr viel Speicher benötigen.<br />

Lernverfahren bieten hier e<strong>in</strong>en Ausweg und erhöhen <strong>die</strong> Autonomie des Agenten.<br />

Da man e<strong>in</strong>e Meta-Ebene <strong>in</strong>s Programm e<strong>in</strong>führt, muss man unterscheiden zwischen<br />

– Lernmodul<br />

M. Schmidt-Schauß & D. Sabel, Skript KI, WS 2012/13 19 Stand: 15. Oktober 2012

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!