Können Lernalgorithmen interagieren wie im Gehirn? - Intelligent ...

ias.informatik.tu.darmstadt.de

Können Lernalgorithmen interagieren wie im Gehirn? - Intelligent ...

1.1 Motivation

Die Motivation, das maschinelle Lernen auf das Niveau des menschlichen Lernens zu heben besteht darin, eigenständig

agierende und somit vielseitig anwendbare Maschinen zu ermöglichen. Somit könnten Maschinen sich dem Menschen

ähnlich fortbilden und sich in verschiedensten Bereichen spezialisieren und Wissen aus anderen Bereichen auf neue

Problemszenarien übertragen. Die in den vergangenen Jahren gemachten Entdeckungen in den Bereichen der Neurologie,

(Lern-)Psychologie und Informatik ermöglichen es erstmals, die Funktionsweise des Gehirns nachzuvollziehen und zeigen

erstmals Parallelen zwischen dem Aufbau und der Funktionsweise des Gehirns und mögliche Abbildung auf maschineller

Ebene auf und lässt somit den Schluss realistisch erscheinen, das menschliche Lernen mit Maschinen zu imitieren. Von

besonderem Interesse ist hierbei das Zusammenspiel der verschiedenen Lernparadigmen und die daraus resultierenden

Möglichkeiten Daten zu verarbeiten.

1.2 Problemszenario

Als Problemszenario wurde ein Labyrinth gewählt in dem sich ein einzelner Agent bewegt (ein sogenanntes Single-agent

system). Als Ziel des Agenten ist das möglichst schnelle Auffinden des kürzesten Weges vom Startzustand zum Zielzustand

definiert. Hierbei stellt das Ziel einen absorbierenden Zustand dar: Betritt der Agent dieses Feld ist die aktuelle Spielrunde

zu ende und es sind keine weiteren Aktionen möglich bis das Spiel neu gestartet wurde. Zur Lösung dieser Aufgabenstellung

werden Lernalgorithmen aus den Bereichen Reinforcement Learning, Unsupervised Learning und Supervised Learning

miteinander verbunden, um die Funktionsweise des Gehirns zu imitieren und somit ein möglichst optimales Resultat in

den Kriterien Reduktion der Problemdimension sowie Konvergenzgeschwindigkeit zu erreichen.

Das Labyrinth stellt ein 600 x 300 großes Feld dar, dessen Größe diskretisiert wurde und jedes Objekt eine Größe von

10 x 10 aufweisen. Das ergibt insgesamt eine Problemdimension von 60 x 30 = 1800 Zuständen und ist in x- sowie

y-Richtung auf noch größere Problemdimensionen beliebig erweiterbar.

Im Labyrinth herrschen folgende Regeln:

• Jeder Zustand hat die Aktionsmenge A = {↑, ↓, ←, →} welche nur durch den Rand des Labyrinths beeinträchtigt

ist. Befindet sich der Agent im oberen linken Eck (Position (0, 0)), so ist seine Aktionsmenge somit lediglich

A = {↓, →}.

• Der Agent kann durch keine Mauer laufen. Für jeden Versuch in eine Mauer zu laufen, erhält der Agent eine

Belohnung von -1000.

• Jeder Zustand hat eine vordefinierte Belohnung von -5, nur der Zielzustand hat eine von 1000.

• Ziel des Agenten ist es einen Weg mit der maximalen Summe aller Belohnungen zu finden, was dem kürzesten

Weg des gegebenen Startzustands zum Zielzustand entspricht.

Abbildung 1.1: Beispiel eines verwendeten Labyrinths. Der Agent ist hier grün, das Ziel blau sowie der zurückgelegte

Weg gelb eingezeichnet.

4

Weitere Magazine dieses Users
Ähnliche Magazine