Vortrag Jaekel, Mikut, Malberg, Bretthauer
Vortrag Jaekel, Mikut, Malberg, Bretthauer
Vortrag Jaekel, Mikut, Malberg, Bretthauer
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
ist insbesondere bei der Regelgenerierung mittels ID3 bzw. C4.5 vorteilhaft, da die Zugehorigkeitsfunktionen<br />
so festgelegt werden, da mit ihnen eine gute Trennung nach den<br />
Ausgangsklassen durch den Entscheidungsbaum erfolgen kann.<br />
Fur das Anwendungsbeispiel wird die Anzahl der Zugehorigkeitsfunktionen zu funf festgelegt,<br />
die mit sehr klein (SK), klein (K), mittel (M), gro (G) und sehr gro (SG) bezeichnet<br />
werden. Bild 3 zeigt beispielhaft die fur ein Merkmal ermittelten Zugehorigkeitsfunktionen<br />
und Histogramme uber die beiden Ausgangsklassen.<br />
Bild 3: Automatisch generierte Zugehorigkeitsfunktionen fur das Merkmal x141 und Histogramme<br />
fur die beiden Ausgangsklassen (schwarz: Proband, wei : Patient)<br />
3.4 Induktion eines Entscheidungsbaums und Ableiten der Regeln<br />
Mit dem ID3- bzw. C4.5-Algorithmus wird wie in Abschnitt 2 ein Entscheidungsbaum<br />
generiert. Fur jeden Endknoten des Entscheidungsbaums wird eine Regel gebildet. Deren<br />
Pramisse besteht aus einer konjunktiven Verknupfung aller Variablen und ihrer linguistischen<br />
Terme in den Entscheidungsknoten, die auf dem Pfad zwischen der Wurzel des<br />
Baumes und dem jeweiligen Endknoten durchlaufen werden. Wegen der vollstandigen Partitionierung<br />
des Eingangsraums durch den ID3-Algorithmus ergibt sich eine Regelbasis,<br />
die den Eingangsraum redundanzfrei abdeckt. Die Zuweisung von Fuzzy-Mengen anstelle<br />
der gewohnlichen Menge erfolgt rein formal.<br />
Bild 4 zeigt den besten mit dem ID3-Algorithmus erzeugten Entscheidungsbaum, wobei<br />
alle 152 Merkmale zur Verfugung standen. Aus diesem Baum lassen sich 17 Regeln bilden,<br />
wobei lediglich vier Merkmale verwendet werden. Allerdings entstehen so auch einige<br />
Regeln, fur die nur ein oder gar kein Beispiel im Lerndatensatz existiert (vgl. Bild 4, z. B.<br />
x141=1, x18=1).<br />
Zur Gewinnung weiterer Regelhypothesen erweist sich die Induktion verschiedener Entscheidungsbaume,<br />
z. B. durch Herausstreichen dominanter Eingangsvariablen aus dem Datensatz,<br />
als sinnvoll. Damit wird der abgesuchte Hypothesenraum beim Generalisieren<br />
gro er (112 Regeln bei funf verschiedenen Entscheidungsbaumen).<br />
Als zusatzliches Ergebnis bei der Generierung von Entscheidungsbaumen entstehen heuristische<br />
Merkmalsrelevanzen, die aus einer gewichteten Addition der Transinformation