Neuronale Netze - D. Kriesel
Neuronale Netze - D. Kriesel
Neuronale Netze - D. Kriesel
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Komplizierte Strukturen, wie „Cluster in Clustern“ können allerdings nicht erkannt<br />
werden. Bei einem hoch gewählten k würde der äußere Ring dieser Konstruktion in der<br />
Abbildung als viele einzelne Cluster erkannt, bei einer niedrigen Wahl von k würde der<br />
Ring mit dem kleinen innenliegenden Cluster als ein Cluster gesehen.<br />
Siehe für eine Veranschaulichung den oberen rechten Teil der Abb. A.1 auf Seite 215.<br />
A.2 k-Nearest Neighbouring sucht die k nächsten Nachbarn<br />
jeden Datenpunkts<br />
Das k-Nearest Neighbouring-Verfahren [CH67] verbindet jeden Datenpunkt mit<br />
den jeweils k vielen nächsten Nachbarn, was oft eine Unterteilung in Gruppen zur<br />
Folge hat. Eine solche Gruppe bildet dann einen Cluster. Der Vorteil ist hier, dass<br />
die Clusteranzahl von alleine entsteht – der Nachteil ein recht großer Speicher- und<br />
Rechenaufwand, um die nächten Nachbarn zu finden (es muss der Abstand von jedem<br />
zu jedem Datenpunkt ausgerechet und gespeichert werden).<br />
Es gibt außerdem Spezialfälle, in denen das Verfahren bei zu großer Wahl von k Datenpunkte<br />
zusammenschließt, die eigentlich in verschiedene Cluster gehören (siehe die<br />
beiden kleinen Cluster oben rechts in der Abbildung). Cluster, die nur aus einem<br />
einzigen Datenpunkt bestehen, werden grundsätzlich mit einem anderen Cluster zusammengeschlossen,<br />
auch das ist nicht immer gewollt.<br />
Weiterhin müssen die Bindungen unter den Punkten nicht symmetrisch sein.<br />
Das Verfahren ermöglicht es aber, Ringe und somit auch „Cluster in Clustern“ zu<br />
erkennen, ein eindeutiger Vorteil. Weiterer Vorteil ist, dass das Verfahren adaptiv auf<br />
die Entfernungen in und zwischen Clustern eingeht.<br />
Siehe für eine Veranschaulichung den unteren linken Teil der Abb. A.1.<br />
A.3 ε-Nearest Neighbouring sucht für jeden Datenpunkt<br />
Nachbarn im Radius ε<br />
Ein anderer Ansatz des Neighbourings: Hier geht die Nachbarschaftsfindung nicht über<br />
eine feste Anzahl k von Nachbarn, sondern über einen Radius ε – daher der Name<br />
Epsilon-Nearest Neighbouring. Punkte, die maximal ε weit voneinander entfernt<br />
sind, sind Nachbarn. Hier ist der Speicher- und Rechenaufwand augenscheinlich wieder<br />
sehr hoch, was ein Nachteil ist.