20.03.2014 Aufrufe

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

Einführung in die Methoden der Künstlichen Intelligenz - Goethe ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

8.3 Lernen mit Entscheidungsbäumen<br />

• Der Algorithmus basiert auf <strong>der</strong> Annahme, dass <strong>die</strong> vorgegebenen Beispiele repräsentativ<br />

s<strong>in</strong>d. Wenn <strong>die</strong>s nicht <strong>der</strong> Fall ist, dann weicht das durch den Entscheidungsbaum<br />

def<strong>in</strong>ierte Konzept evtl. vom <strong>in</strong>ten<strong>die</strong>rten Konzept ab.<br />

• Wenn man e<strong>in</strong>e Beispielmenge hat, <strong>die</strong> den ganzen Tupelraum abdeckt, dann wird<br />

genau das Konzept gelernt.<br />

Beispiel 8.3.7. Wir nehmen als e<strong>in</strong>faches überschaubares Beispiel Äpfel und <strong>die</strong> Attribute Geschmack<br />

∈ {süß, sauer} und Farbe ∈ {rot, grün}. Das Konzept sei „guter Apfel“.<br />

Es gibt vier Varianten von Äpfeln, {(süß, rot), (süß, grün), (sauer, rot), (sauer, grün)}. Wir geben<br />

als Beispiel vor, dass <strong>die</strong> guten Äpfel genau {(süß, rot), (süß, grün)} s<strong>in</strong>d. Wir nehmen mal<br />

an, dass pro Apfelvariante genau e<strong>in</strong> Apfel vorhanden ist.<br />

Es ist offensichtlich, dass <strong>die</strong> guten genau <strong>die</strong> süßen Äpfel s<strong>in</strong>d, und <strong>die</strong> Farbe egal ist. Das kann<br />

man auch nachrechnen, <strong>in</strong>dem man den Informationsgew<strong>in</strong>n bei beiden Attributen berechnet:<br />

Der Informationsgehalt I(M) vor dem Testen e<strong>in</strong>es Attributes ist:<br />

0.5log 2<br />

(2) + 0.5log 2<br />

(2) = 1<br />

Nach dem Testen des Attributes „Geschmack“ ergibt sich als Informationsgehalt 0, 5 ∗ (log 2<br />

(1) +<br />

0) + 0, 5 ∗ (0 + log 2<br />

(1)) = 0, d.h. Der Informationsgew<strong>in</strong>n ist maximal.<br />

Nach dem Testen des Attributes „Farbe“ ergibt sich als Informationsgehalt<br />

0, 5 ∗ (0, 5log 2<br />

(2) + 0, 5log 2<br />

(2)) + 0, 5 ∗ (0, 5log 2<br />

(2) + 0, 5log 2<br />

(2)) = 0, 5 ∗ 1 + 0, 5 ∗ 1 = 1, d.h.<br />

man gew<strong>in</strong>nt nichts.<br />

Als Variation des Beispiels nehmen wir irgende<strong>in</strong>e Anzahl <strong>der</strong> Äpfeln <strong>in</strong> je<strong>der</strong> Kategorie an:<br />

süß,rot süß,grün sauer,rot sauer,grün<br />

10 20 4 6<br />

D.h. es gibt 30 gute und 10 schlechte Äpfel.<br />

Der Informationsgehalt ist vor dem Testen:<br />

0.75log 2<br />

(1, 333) + 0.25log 2<br />

(4) ≈ 0, 311 + 0, 5 = 0, 811<br />

Nach dem Testen des Attributs „Geschmack“ ergibt sich:<br />

30<br />

40 ∗ ( 30<br />

30 log 2(1) + 0<br />

30 log 2(0) )<br />

+ 10<br />

40 ∗ ( 10<br />

10 log 2(1) + 0<br />

10 log 2(0) )<br />

= 0<br />

M. Schmidt-Schauß & D. Sabel, Skript KI, WS 2012/13 269 Stand: 30. Januar 2013

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!