Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
34 1. Grundlagen<br />
Die Verarbeitungsabbildung (1-54) lässt sich jetzt als einfache Funktionenauswertung<br />
schreiben,<br />
�<br />
A{cr,¦r}: x ↦→ ar(x(h)) = exp − 1<br />
2 (x − cr) T Σ −1<br />
�<br />
1<br />
r (x − cr)<br />
(2π) d/2 |Σr| 1/2<br />
(1-61)<br />
= h T Sr ∀r.<br />
Die Einführung des Merkmalsraumes vereinfacht die Berechnung <strong>von</strong> Aktivitäten ganz<br />
erheblich. Statt komplizierte Aktivierungsmuster mit einem hochdimensionalen Skalarprodukt<br />
weiterzuleiten, werden sie in den Merkmalsraum gebracht und dort als<br />
einfache Punkte und als Funktionen mit wenigen Parametern verarbeitet. Wie sehr<br />
dieses Vorgehen den Aufwand reduziert, wird in Abschnitt 1.2.6 ausgeführt.<br />
Im Merkmalsraum, der in Abschnitt 1.1 einfach als reeller Raum vorausgesetzt wurde,<br />
steckt nun ein wichtiger Teil der Modellierung durch das MVNN, nämlich die Definition<br />
geeigneter Features. Bei konkreten Problemen muss die Transformation T in einer<br />
Vorverarbeitung des Datensatzes verwirklicht sein. Zu dem einfachen Bild in Abb. 15<br />
kommt man, indem man die i-te Koordinate des Punktes x als die Aktivität des i-ten<br />
Knotens in der Eingabeschicht versteht.<br />
1.2.3 Kompetition durch Aktivitätsnormierung<br />
Die Aktivierung <strong>von</strong> Nervenzellen wird nicht nur durch die Verbindung zwischen Schichten<br />
gesteuert, sondern auch durch Verbindungen innerhalb einer Schicht. Diese Lateralverschaltung<br />
kann im Neuronalen Modell entweder explizit simuliert, oder durch eine<br />
globale Normierung der Aktivität einer Schicht ersetzt werden (Willshaw & <strong>von</strong> der<br />
Malsburg, 1976). In multivar wird der zweite Ansatz verwirklicht, wie durch die gepunkteten<br />
Querverbindungen in Abb. 15 angedeutet wurde. Es wird sowohl die Aktivität<br />
h der Eingabeschicht, als auch die der Verarbeitungsschicht normiert,<br />
�<br />
hq = 1 und �<br />
ar = 1, (1-62)<br />
q<br />
wodurch sich auch die Abbildung A aus (1-61) verändert. Jede Einzelaktivität ar(x)<br />
wird durch die Gesamtaktivität A(x) der Schicht dividiert,<br />
r<br />
A{cr,¦r}: x ↦→ ar(x(h)) = GF(x;cr, Σr)<br />
A(x)<br />
∀r, (1-63)<br />
M�<br />
A(x) := GF(x;ci, Σi). (1-64)<br />
i=1<br />
Die Funktionen ar sind nun keine einfachen Gaußfunktionen mehr, sondern werden<br />
generalisierte Gaußfunktionen genannt. Sie bilden nun die tatsächlichen Aktivitäten<br />
des Modells und unterscheiden sich nun <strong>von</strong> den synaptischen Bäumen, die im letzten<br />
Abschnitt ebenfalls mit ar bezeichnet wurden. Die Aktivitäten können nicht mehr<br />
beliebige Werte annehmen, sondern erhalten eine größere Aktivität nur noch auf Kosten