Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
40 1. Grundlagen<br />
1.2.6 Dimensionsreduktion<br />
Nachdem die einzelnen Schritte der neuronalen Modellbildung durch das MVNN besprochen<br />
wurden, möchte ich hier ihre Wirkung im Sinne der Dimensionsreduktion<br />
noch einmal zusammenstellen.<br />
Es wurde mit einem Aktivitätsmuster h auf der Eingabeschicht begonnen, die je<br />
nach Modellierung Teilmenge des Z 2 oder des R 2 ist. Der Raum aller möglichen<br />
Muster ist wegen der Normierung (1-62) dann die Einheitskugel entweder im 10 8 -<br />
dimensionalen Raum aller Rezeptorzellen, oder im unendlichdimensionalen Raum<br />
aller integrablen Funktionen 7 L 1 (R 2 ).<br />
Der Merkmalsraum wurde daraufhin gerade so definiert, dass die Näherung für h<br />
auf Seite 33 gilt. Dann kann die Beschreibung der Reizmuster auf drastische Weise<br />
vereinfacht werden. Sie werden Punkte des Merkmalsraumes, x ∈ M⊂R d , können<br />
also durch d reelle Zahlen charakterisiert werden.<br />
Die Gauß’schen Neuronen, die durch die zweite Näherung auf Seite 33 eingeführt<br />
werden, sind durch ihre Zentren und Kovarianzmatrizen beschrieben, also durch<br />
d 2 + 2d Parameter. Auf diese Parameter wird die gesamte Information über den<br />
synaptischen Baum Sr reduziert.<br />
Die Vereinfachungen des Merkmalsraumes betreffen jeden Reizvektor einzeln. Durch<br />
die Erstellung einer neuronalen Merkmalskarte wird der gesamte Datensatz aus T<br />
zeitlich geordneten Reizen vereinfacht. Wenn dazu M Neuronen verwendet werden,<br />
dann bleiben also zur Charakterisierung des Datensatzes nur Md(d +2) Parameter<br />
übrig.<br />
Insgesamt ist durch die vereinfachenden Annahmen des letzten Abschnitts eine Beschreibung<br />
der Umwelt des MVNN durch Md(d + 2) Parameter möglich geworden. Es<br />
scheint also so zu sein, als habe man den größten Teil der durch die Aktivitätsmuster<br />
übermittelten Information weggeworfen. Genau dies ist aber eines der Prinzipien neuronaler<br />
Kodierung. Es ist nicht das Ziel, alle Details der präsentierten Daten zu wiederholen,<br />
sondern eine vereinfachte Repräsentation zu erhalten, die auf die wichtigsten<br />
Eigenschaften reduziert ist. Diese Repräsentation wird auch das effektive Modell genannt,<br />
welches sich das MVNN <strong>von</strong> seiner Umwelt bildet.<br />
7 Die Notation hält sich hier und im folgenden an Fischer & Kaul (1990).