.RUWLNDOH /LQJXLVWLN - cortical linguistics
.RUWLNDOH /LQJXLVWLN - cortical linguistics
.RUWLNDOH /LQJXLVWLN - cortical linguistics
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
38 Kochendörfer, Kortikale Linguistik, Teil 2<br />
dann im ungünstigsten Fall ein serielles Durchsuchen der Daten des Adressraums<br />
bedeuten.<br />
Die Verwendung von Regeln setzt voraus, dass Variablen definiert werden<br />
können, was in einem adressierten System eine selbstverständliche Funktion<br />
ist.<br />
Daten können von einem Speicherort auf einen anderen übertragen werden,<br />
ohne dass sie sich dabei ändern.<br />
Es können problemlos inhaltliche Hierarchien gebildet werden. Das soll hier<br />
heißen: Adressierbare Komponenten können komplexe Einheiten bilden, die<br />
als Einheiten ihrerseits adressierbar sind.<br />
Die Unterscheidung von aktuellen und potenziellen Repräsentationen ist wesentlicher<br />
Bestandteil. Aktuell sind adressierte Inhalte. Inhalte verschwinden<br />
nicht (notwendig), wenn sie nicht adressiert sind. Wie oben angedeutet,<br />
ist es nicht der Speicherplatz, der als potenzielle Repräsentation verstanden<br />
werden kann.<br />
2.2.3 Konnektionismus<br />
Es ist, wie bei den symbolverarbeitenden Modellen auch, ein Blick auf die<br />
zugrunde liegenden Hardware“-Annahmen erforderlich.<br />
”<br />
Konnektionistische Modelle arbeiten mit Netzen von Einheiten ( units“), ”<br />
die natürlichen Neuronen nachempfunden sind (daher künstliche neuronale<br />
”<br />
Netze“). Eine einzelne Einheit bzw. ein einzelnes künstliches Neuron“ hat,<br />
”<br />
wie das natürliche Vorbild, mehr oder weniger viele Eingangsstrukturen<br />
(die den Synapsen natürlicher Neuronen entsprechen) und nur einen ggf.<br />
verzweigten Ausgang (dem Axon eines natürlichen Neurons entsprechend).<br />
Die Eingänge haben unterschiedliche Effektivitäten, die durch Lernprozesse<br />
verändert werden können.<br />
Hier endet nun allerdings die Analogie, solange man von der jüngeren Generation<br />
der gepulsten neuronalen Netze“ ( pulsed neural networks“, vgl.<br />
” ”<br />
Maass & Bishop, 1999) absieht. Es sind vor allem die prozesshaften Annahmen,<br />
also in der Simulation diejenigen Funktionen, die das Verhalten<br />
der Neuronen beschreiben, die nur noch sehr vage die biologische Realität<br />
spiegeln. Diese prozesshaften Annahmen sind in Abbildung 2.2.3–1 dargestellt,<br />
angesichts der vielen Varianten, die es hier in der Literatur gibt, muss<br />
hinzugefügt werden: in einer Variante, die häufig in sprachverarbeitenden<br />
Modellen verwendet worden ist.