28.09.2013 Aufrufe

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Komplizierte Strukturen, wie „Cluster in Clustern“ können allerdings nicht erkannt<br />

werden. Bei einem hoch gewählten k würde der äußere Ring dieser Konstruktion in der<br />

Abbildung als viele einzelne Cluster erkannt, bei einer niedrigen Wahl von k würde der<br />

Ring mit dem kleinen innenliegenden Cluster als ein Cluster gesehen.<br />

Siehe für eine Veranschaulichung den oberen rechten Teil der Abb. A.1 auf Seite 215.<br />

A.2 k-Nearest Neighbouring sucht die k nächsten Nachbarn<br />

jeden Datenpunkts<br />

Das k-Nearest Neighbouring-Verfahren [CH67] verbindet jeden Datenpunkt mit<br />

den jeweils k vielen nächsten Nachbarn, was oft eine Unterteilung in Gruppen zur<br />

Folge hat. Eine solche Gruppe bildet dann einen Cluster. Der Vorteil ist hier, dass<br />

die Clusteranzahl von alleine entsteht – der Nachteil ein recht großer Speicher- und<br />

Rechenaufwand, um die nächten Nachbarn zu finden (es muss der Abstand von jedem<br />

zu jedem Datenpunkt ausgerechet und gespeichert werden).<br />

Es gibt außerdem Spezialfälle, in denen das Verfahren bei zu großer Wahl von k Datenpunkte<br />

zusammenschließt, die eigentlich in verschiedene Cluster gehören (siehe die<br />

beiden kleinen Cluster oben rechts in der Abbildung). Cluster, die nur aus einem<br />

einzigen Datenpunkt bestehen, werden grundsätzlich mit einem anderen Cluster zusammengeschlossen,<br />

auch das ist nicht immer gewollt.<br />

Weiterhin müssen die Bindungen unter den Punkten nicht symmetrisch sein.<br />

Das Verfahren ermöglicht es aber, Ringe und somit auch „Cluster in Clustern“ zu<br />

erkennen, ein eindeutiger Vorteil. Weiterer Vorteil ist, dass das Verfahren adaptiv auf<br />

die Entfernungen in und zwischen Clustern eingeht.<br />

Siehe für eine Veranschaulichung den unteren linken Teil der Abb. A.1.<br />

A.3 ε-Nearest Neighbouring sucht für jeden Datenpunkt<br />

Nachbarn im Radius ε<br />

Ein anderer Ansatz des Neighbourings: Hier geht die Nachbarschaftsfindung nicht über<br />

eine feste Anzahl k von Nachbarn, sondern über einen Radius ε – daher der Name<br />

Epsilon-Nearest Neighbouring. Punkte, die maximal ε weit voneinander entfernt<br />

sind, sind Nachbarn. Hier ist der Speicher- und Rechenaufwand augenscheinlich wieder<br />

sehr hoch, was ein Nachteil ist.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!