20.03.2014 Aufrufe

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

8.3 Lernen mit Entscheidungsbäumen<br />

Beheben kann man das dadurch, dass man ab e<strong>in</strong>er gewissen Schranke den Entscheidungsbaum<br />

nicht weiter aufbaut, und den weiteren Aufbau an <strong>die</strong>sem Knoten stoppt:<br />

Abschneiden des Entscheidungsbaumes (Prun<strong>in</strong>g).<br />

Wenn ke<strong>in</strong> Attribut mehr e<strong>in</strong>en guten Informationsgew<strong>in</strong>n br<strong>in</strong>gt, dann besteht <strong>der</strong> Verdacht,<br />

dass alle weiteren Attribute eigentlich irrelevant s<strong>in</strong>d, und man das Verfahren an<br />

dem Blatt stoppen sollte. Dies kann man bei bekannter Verteilung mittels e<strong>in</strong>es statistischen<br />

Test abschätzen.<br />

Hierbei ist es i.a. so, dass es an dem Blatt, an dem abgebrochen wird, noch positive und<br />

negative Beispiele gibt. Die Markierung des Knoten wählt man als Ja, wenn es signifikant<br />

mehr positive als negative Beispiel gibt, und als Ne<strong>in</strong>, wenn es signifikant mehr negative<br />

als positive Beispiel gibt. Das ist natürlich nur s<strong>in</strong>nvoll, wenn man weiß, das es falsche<br />

Beispiele geben kann.<br />

Hat man verrauschte Daten, z.B. mit Messfehler behaftete Beispiele, dann ist Lernen<br />

von Entscheidungsbäumen mit Prun<strong>in</strong>g <strong>die</strong> Methode <strong>der</strong> Wahl.<br />

M. Schmidt-Schauß & D. Sabel, Skript KI, WS 2012/13 273 Stand: 30. Januar 2013

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!