Neurobiologische Modelle der Sprache
Neurobiologische Modelle der Sprache
Neurobiologische Modelle der Sprache
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Neurobiologische</strong><br />
<strong>Modelle</strong> <strong>der</strong> <strong>Sprache</strong><br />
Vortrag von<br />
A. M. Müller<br />
18.04.2011<br />
Im Rahmen des Seminars: Neurokognition von Hören und <strong>Sprache</strong><br />
Dozent: Dr. M. Meyer<br />
1
Inhaltsverzeichnis<br />
I. Einleitung<br />
II. Das dynamic dual pathway model von Frie<strong>der</strong>ici et al.<br />
(2002, 2004)<br />
III. Die Asymmetric Sampling in Time (AST) Hypothese von D.<br />
Poeppel (2003) & ihre Überprüfung<br />
IV. Das Dual Stream Model <strong>der</strong> Sprachverarbeitung von Hickok<br />
und Poeppel (2004, 2007 & 2009)<br />
V. Das Integrative Speech Processing Framework von Kotz und<br />
Schwartze (2010)<br />
VI. Take Home Message<br />
VII. Fragen<br />
2
I. Einleitung - Sprachverstehen<br />
• Sprachverstehen erfolgt „automatisch“, <strong>der</strong> Prozess,<br />
wie wir das machen, ist nicht bewusstseinsfähig. Nur<br />
die Ergebnisse dieses Prozesses, also das, was wir<br />
verstanden haben, wird uns bewusst.<br />
• Die kognitive Leistung scheint uns selbstverständlich<br />
und wird auch von nicht beson<strong>der</strong>s intelligenten<br />
Menschen mühelos erbracht.<br />
• Will man verstehen, wie unser Gehirn die höchst<br />
aufwendige und komplexe Aufgabe meistert, <strong>Sprache</strong><br />
zu verstehen– dann wird es kompliziert!<br />
3
I. Einleitung<br />
Zwei Ansätze können bei <strong>der</strong> wissenschaftlichen<br />
Beschäftigung mit neurobiologischen <strong>Modelle</strong>n<br />
unterschieden werden:<br />
• Linguistische Herangehensweise<br />
• Parameter-basierte Herangehensweise<br />
4
I. Einleitung – Der linguistische Ansatz<br />
Beispielsatz:<br />
Am Freitagmorgen ist eine Bank überfallen worden. Ein Mann<br />
Adjektiv<br />
mit blon<strong>der</strong> Perücke drang in eine Bank ein, als eine<br />
Mitarbeiterin gerade öffnen wollte. Er fesselte die<br />
Verb<br />
Substantiv<br />
Bankangestellte und leerte die Kasse.<br />
Konjunktion<br />
5
I. Einleitung – Der linguistische Ansatz<br />
Beispielsatz:<br />
Temporales<br />
Adverbiale<br />
Subjekt<br />
Am Freitagmorgen ist eine Bank überfallen worden. Ein Mann<br />
mit blon<strong>der</strong> Perücke drang in eine Bank ein, als eine<br />
Mitarbeiterin gerade öffnen wollte. Direktes Er fesselte die<br />
Objekt<br />
Bankangestellte und leerte die Kasse.<br />
Prädikat<br />
6
I. Einleitung – Der linguistische Ansatz<br />
Beispielsatz:<br />
Am Freitagmorgen ist eine Bank überfallen worden.<br />
Nebensatz erster<br />
Ordnung<br />
Ein Mann mit blon<strong>der</strong> Perücke drang in eine Bank ein,<br />
als eine Mitarbeiterin gerade öffnen wollte.<br />
Er fesselte die Frau und leerte die Kasse.<br />
Hauptsatz<br />
7
I. Einleitung – <strong>der</strong> linguistische Ansatz<br />
• Unter <strong>der</strong> Annahme, dass linguistische Konzepte<br />
und Prozesse tatsächlich in irgendeiner Weise<br />
wi<strong>der</strong>spiegeln, wie unser Gehirn Sprachinput<br />
analysiert, werden diese zur Erklärung <strong>der</strong> im<br />
Gehirn bei <strong>der</strong> Sprachverarbeitung ablaufenden<br />
neurobiologischen Prozesse herangezogen.<br />
• Bei <strong>der</strong> linguistischen Herangehensweise wird<br />
versucht zu erklären, wo, wann und wie im<br />
Gehirn diese komplexen Analysen <strong>der</strong><br />
linguistischen Komponenten zustande kommen.<br />
8
I. Einleitung – <strong>der</strong> linguistische Ansatz<br />
ABER zwei fundamentale Probleme werden dabei völlig ignoriert:<br />
• Conceptual granularity mismatch: Neurowissenschaftliche und<br />
linguistische Sprachforschung verwenden zur Erklärung von <strong>Sprache</strong><br />
Erklärungseinheiten, die sich in ihrer Detailgenauigkeit wesentlich<br />
unterscheiden. Linguistik arbeitet mit sehr feinkörnigen<br />
Erklärungseinheiten und unter <strong>der</strong> Annahme genauer<br />
Verrechnungsschritte, während man in den Neurowissenschaften<br />
eher breitere Erklärungskonzepte verwendet.<br />
• Ontological immensurability: Die Grundelemente <strong>der</strong> linguistischen<br />
Theorie können nicht soweit reduziert o<strong>der</strong> angepasst werden, dass<br />
sie den biologischen Grundelementen <strong>der</strong> Neurowissenschaften<br />
entsprechen würden.<br />
9
I. Einleitung – <strong>der</strong> linguistische Ansatz<br />
Poeppel und Embick (2005) schliessen auf Grund <strong>der</strong><br />
Inkompabilität von Linguistik und Neurowissenschaften:<br />
„The machinery we invoke to account for linguistic<br />
phenomena is not in any obvious way related to the<br />
entities and computations of the biological systems<br />
in question. Consequently, there is an absence of<br />
reasonable linking hypotheses by which one can<br />
explore how brain mechanisms form the basis for<br />
linguistic computation. “<br />
10
I. Einleitung - Parameter-basierte<br />
Herangehensweise<br />
Ein Mann mit blon<strong>der</strong> Perücke drang in eine Bank ein, als eine Mitarbeiterin<br />
gerade öffnen wollte.<br />
11
I. Einleitung - Parameter-basierte<br />
Herangehensweise<br />
Oszillo- und Spektrogramm zeigen deutlich:<br />
• <strong>Sprache</strong> ist ein akustisches Signal mit physikalischen<br />
Parametern wie Frequenz, Energie/Amplitude etc., das sich<br />
über die Zeit hin entwickelt.<br />
• Dieses Signal wird in unserem Gehirn in neuronale<br />
Aktivität umgewandelt.<br />
• Neuronale Aktivität kann sich innerhalb von spezialisierten<br />
Neuronenpopulationen bis hin zu über das Gehirn<br />
verteilten grossräumigen neuronalen Netzwerken<br />
entfalten, innerhalb <strong>der</strong>er die Neurone gleichzeitig o<strong>der</strong><br />
nacheinan<strong>der</strong> in bestimmten Frequenzbän<strong>der</strong>n aktiv<br />
werden (Synchronisation und Desynchronisation).<br />
• Neuronale Aktivität besitzt somit die Dimensionen Raum<br />
und Zeit.<br />
12
I. Einleitung - Parameter-basierte<br />
Herangehensweise<br />
13
I. Einleitung - Parameter-basierte<br />
Herangehensweise<br />
Parameter-basierter Ansatz:<br />
• Sprachverarbeitung im Gehirn ist das Ergebnis<br />
des koordinierten Zusammenwirkens<br />
verschiedener Gehirnareale, die auf Grund<br />
ihrer neurobiologischen und<br />
elektrophysiologischen Spezialisierung<br />
spezifische Funktionen bei <strong>der</strong><br />
Sprachverarbeitung wahrnehmen.<br />
14
II. Das Dynamic Dual Pathway Model von<br />
Frie<strong>der</strong>ici et al. (2002, 2004)<br />
• Linguistischer Ansatz<br />
• Methoden: EEG, bzw.<br />
ERP-Ableitung für<br />
Bestimmung <strong>der</strong> drei<br />
Verarbeitungsphasen;<br />
Verortung <strong>der</strong> dafür<br />
zuständigen Gehirnareale<br />
mit bildgebenden<br />
Verfahren (PET und fMRI)<br />
• Erklärungsebene:<br />
auditorische<br />
Satzverarbeitung<br />
15
II. Das Dynamic Dual Pathway Model<br />
• Neurokognitives Modell - bilaterales temporo-<br />
frontales Netzwerk.<br />
• Temporale Areale = Identifikation auf <strong>der</strong> Ebene<br />
Phonetik, Semantik und Syntax.<br />
• Frontalen Areale = Erfassung von syntaktischen<br />
und semantischen Beziehungen.<br />
16
II. Das Dynamic Dual Pathway Model<br />
• Linker Temporalkortex = Identifikation <strong>der</strong><br />
phonetischen, lexikalischen und strukturellen<br />
Elemente.<br />
• Linker Frontalkortex = Sequenzierung und die<br />
Formation <strong>der</strong> phonetischen, strukturellen und<br />
thematischen Beziehungen.<br />
Segmentelle, lexikalische und syntaktische<br />
Informationen und Beziehungen werden links<br />
verarbeitet.<br />
17
II. Das Dynamic Dual Pathway Model<br />
• Rechter Temporallappen = Identifikation <strong>der</strong><br />
prosodischen Parameter statt<br />
• Rechter Frontalkortex = Verarbeitung <strong>der</strong><br />
Satzmelodie.<br />
Suprasegmentelle Informationen auf<br />
Satzebene wie Akzentuierung, Tonhöhe,<br />
Pausen etc. werden rechts verarbeitet.<br />
18
II. Das Dynamic Dual Pathway Model<br />
• Interaktion von prosodischer und<br />
syntaktischer Information.<br />
• Linke und rechte temporo-frontale Areale<br />
interagieren während <strong>der</strong> Satzverarbeitung<br />
dynamisch miteinan<strong>der</strong> über das hintere<br />
Drittel des Corpus Callosum.<br />
• Der zeitliche Ablauf dieser Interaktion ist<br />
jedoch noch unklar.<br />
19
II. Das Dynamic Dual Pathway Model<br />
20
II. Das Dynamic Dual Pathway Model<br />
21
II. Das Dynamic Dual Pathway Model<br />
• Auditorische Satzverarbeitung = linke<br />
temporo-frontale Gebiete.<br />
• Drei Verarbeitungsphasen abgrenzbar.<br />
• Definition <strong>der</strong> drei Phasen auf <strong>der</strong> Basis von<br />
elektrophysiologischen Daten.<br />
• Aufzeichnung und Analyse verschiedener<br />
Event-Related-Potentials (ERP)-Ableitungen<br />
bei verschiedenen semantischen und<br />
syntaktischen Regelverletzungen.<br />
22
Event Related Potentials (ERP) und ihre<br />
Bedeutung<br />
Syntax:<br />
• ELAN: Early-Left-Anterior-Negativity<br />
im Zeitfenster von 150-200 ms<br />
schnell entdeckbar Fehler <strong>der</strong><br />
Wortkategorie<br />
dominant im Temporal- und<br />
Frontalkortex <strong>der</strong> LH<br />
• LAN: Left-Anterior-Negativity im<br />
Zeitfenster von 200-500ms<br />
Morphosyntaktische Fehler<br />
• P600: Late-Central-Positivity im<br />
Zeitfenster von 600+ ms<br />
nach semantischen wie<br />
syntaktischen Regelverletzungen<br />
später Integrationsprozess<br />
23
Event Related Potentials (ERP) und ihre<br />
Bedeutung<br />
Semantik:<br />
• N400: Centro-Parietal-<br />
Negativity 400 ms nach Word-<br />
Onset<br />
korreliert mit Wörtern, die<br />
semantisch nicht in den<br />
vorausgehenden Kontext<br />
eingeordnet werden können<br />
kann sich aber auch auf eher<br />
allgemeinere Aspekte <strong>der</strong><br />
Bedeutung als den lexikalischsemantischen<br />
Aspekt beziehen<br />
N400-Effekte finden sich auch<br />
in nicht-linguistischen<br />
Kontexten.<br />
24
Die drei Verarbeitungsphasen<br />
Die drei aus den mit Regelverletzungsparadigmen gewonnen<br />
Phasen <strong>der</strong> auditorischen Satzverarbeitung:<br />
• Phase 0: Zeitfenster 0 – 100 ms: Erste akustische Analyse –<br />
Identifikation <strong>der</strong> Phoneme – Identifikation <strong>der</strong> Wortform.<br />
• Phase 1: Zeitfenster 100-300 m: autonomer Prozess - Analyse<br />
<strong>der</strong> Wortkategorien - erste syntaktische Strukturanalyse.<br />
• Phase 2: Zeitfenster 300-500 ms: lexikalisch-semantischen<br />
und morphosyntaktische Prozesse - thematische<br />
Rollenzuordnung.<br />
Die Verarbeitung syntaktischer und semantischer<br />
Informationen erfolgt auf dieser Stufe parallel und<br />
voneinan<strong>der</strong> unabhängig.<br />
25
Die drei Verarbeitungsphasen<br />
• Phase 3: Zeitfenster 500-1000 ms: Integration o<strong>der</strong> bei<br />
zweideutigen o<strong>der</strong> falsch strukturierten Sätzen zu<br />
Reanalysen/Reparatur <strong>der</strong> verschiedenen Informationstypen.<br />
Die Prozesse in Phase 1 sind immer unabhängig von Phase 2.<br />
Jedoch können die Prozesse in Phase 2 durch Phase 1 insofern<br />
beeinflusst werden, dass die lexikalische Integration eines<br />
Elementes in den Kontext davon abhängt, ob es zuvor in<br />
Phase 1 syntaktisch lizenziert/zugelassen worden ist.<br />
26
III. Die Asymmetric Sampling in Time (AST)<br />
Hypothese von D. Poeppel (2003)<br />
• Parameter-basierter<br />
Ansatz<br />
• Methoden: EGG und<br />
bildgebende Verfahren<br />
• Ebene: Prozessierung<br />
des primären<br />
Sprachinputs<br />
28
Die vier Prämissen <strong>der</strong> AST-Hypothese<br />
1. Primärer Sprachinput bilateral verarbeitet.<br />
2. Linke Hemisphäre beson<strong>der</strong>s befähigt, schnell<br />
wechselnde Signale zu verarbeiten.<br />
3. Verschiedene Zeitskalen relevant bei <strong>der</strong> Verarbeitung<br />
des Sprachsignals - denn das Signal enthält sowohl<br />
segmentale wie auch suprasegmentale<br />
Informationen.<br />
4. Das Gehirn verarbeitet Zeit in einzelnen, zeitlich<br />
definierten Chunks, d.h. nicht kontinuierlich. =><br />
Zeitliche Integrationsfenster zur Quantifizierung <strong>der</strong><br />
sich in <strong>der</strong> Zeit entwickelnden Sprachinformation am<br />
geeignetsten.<br />
29
Die Theorie <strong>der</strong> AST-Hypothese<br />
30
Die Theorie <strong>der</strong> AST-Hypothese<br />
• Kein Unterschied zwischen den primären auditorischen Cortices <strong>der</strong><br />
beiden Hemisphären – beide besitzen neuronale Populationen mit<br />
Zeitkonstanten zwischen 25 und 200 ms.<br />
• Der linke posteriore STG besitzt eine Präferenz zur Verarbeitung von<br />
Information aus kurzen zeitlichen Integrationsfenstern (20-50 ms <br />
Frequenz von 40 Hz Gamma-Band).<br />
=> Analysen, die hohe zeitliche Auflösung erfor<strong>der</strong>n, wie z.B.<br />
Formantenübergänge, erfolgen links.<br />
• Der rechte posterior STG präferiert die Verarbeitung <strong>der</strong> Information aus<br />
langen zeitlichen Integrationsfenstern (150-250ms Frequenz von 4-5 Hz<br />
Theta-Band).<br />
=> Analysen mit hoher spektraler Auflösung wie z.B. Satzmelodie,<br />
erfolgen rechts.<br />
31
Die Theorie <strong>der</strong> AST-Hypothese<br />
• Enger Zusammenhang zwischen den beiden zeitlichen<br />
Integrationsfenstern <strong>der</strong> linken und <strong>der</strong> rechten<br />
Hemisphäre und den neuronalen Oszillationen.<br />
• Die Integrationsfenster reflektieren neuronale<br />
Oszillationen, bzw. die beiden verschiedenen<br />
Samplingrates für das Sprachsignal im Gehirn.<br />
• Die Verarbeitung des primären Sprachsignals erfolgt<br />
bilateral - keine anatomische Lateralisierung <strong>der</strong><br />
Sprachverarbeitung, jedoch eine funktionale Asymmetrie,<br />
bzw. eine zeitliche Asymmetrie <strong>der</strong> präferiert verarbeiteten<br />
Einheiten des Sprachsignals.<br />
• Die weitere Verarbeitung von <strong>Sprache</strong> grösstenteils in <strong>der</strong><br />
sprachdominanten linken Hemisphäre angesiedelt.<br />
32
Die Theorie <strong>der</strong> AST-Hypothese<br />
33
Überprüfung <strong>der</strong> AST-Hypothese<br />
(Boemio, Fromm, Braun &Poeppel, 2005)<br />
34
Überprüfung <strong>der</strong> AST-Hypothese<br />
(Boemio, Fromm, Braun &Poeppel, 2005)<br />
• Nicht nur die primären auditorischen Areale, son<strong>der</strong>n auch STG und<br />
STS bei<strong>der</strong> Hemisphären reagieren sensitiv auf Verän<strong>der</strong>ungen <strong>der</strong><br />
temporalen Struktur.<br />
• STG-Areale sensitiv für lokale temporale Struktur und spektrale<br />
Struktur von auditorischen Stimuli.<br />
• STS-Areale nur für die lokale temporale Struktur sensitiv.<br />
• Hemisphärische Asymmetrie in den STS bilateral:<br />
linker STS = Input auf <strong>der</strong> Zeitskala von 20-50ms und zwar sowohl<br />
vom rechten (interhemispährischer Austausch über das Corpus<br />
Callosum) wie linken (intrahemisphärischer Austausch) STG.<br />
rechter STS = Input vor allem auf <strong>der</strong> Zeitskala von 150-300ms zwar<br />
sowohl vom rechten (interhemispährischer Austausch über das<br />
Corpus Callosum) wie linken (intrahemisphärischer Austausch) STG.<br />
35
Überprüfung <strong>der</strong> AST-Hypothese<br />
(Boemio, Fromm, Braun &Poeppel, 2005)<br />
36
Überprüfung <strong>der</strong> AST-Hypothese<br />
(Boemio, Fromm, Braun &Poeppel, 2005)<br />
37
IV. Das Dual Stream Model <strong>der</strong> Sprachverarbeitung<br />
von Hickok und Poeppel (2004, 2007 & 2009)<br />
• Parameterbasierter<br />
Ansatz<br />
• Methoden:<br />
Bildgebung und<br />
Läsionsstudien<br />
• Ebene:<br />
Sprachwahrnehmung<br />
und<br />
<strong>Sprache</strong>rkennung<br />
auf<br />
kortikaler<br />
Ebene<br />
38
Dual Stream Model - Annahmen<br />
In Analogie zum visuellen Verarbeitungssystem, wo man<br />
einen dorsalen und ventralen Strang unterscheidet,<br />
nehmen Hickok und Poeppel auch für die<br />
Sprachverarbeitung zwei Verarbeitungsstränge an.<br />
• Ventraler Strang weitgehend bilateral angelegt mit <strong>der</strong><br />
Aufgabe <strong>der</strong> <strong>Sprache</strong>rkennung, d.h. mapping sound to<br />
meaning.<br />
• Linksdominanter dorsaler Strang mit Funktion <strong>der</strong><br />
Sprachwahrnehmung; verbindet die akustischen<br />
Sprachsignale mit artikulatorischen Netzwerken im<br />
Frontalkortex.<br />
39
Dual Stream Model - Annahmen<br />
40
Dual Stream Model - Verarbeitungsschritte<br />
• Erste Verarbeitungsschritte für beide Pfade erfolgen<br />
bilateral und parallel.<br />
1. Spektrotemporale Analyse in den dem primären<br />
auditorischen Areal nachgelagerten dorsalen Gyri<br />
temporales superiores .<br />
2. Integration <strong>der</strong> Sprachinformation erfolgt über zwei<br />
distinkte Zeitskalen – einem kurzen<br />
Informationsintegrationsfenster mit einer Länge von 24-<br />
50 ms Gammafrequenz, d.h. <strong>der</strong> Sampling-Rate für<br />
segmentale Representationen, und einem langen<br />
Integrationsfenster mit einer Länge von 150-300ms <br />
Thetafrequenz, d.h. <strong>der</strong> Sampling-Rate für syllabische<br />
Repräsentationen.<br />
41
Dual Stream Model - Verarbeitungsschritte<br />
42
Dual Stream Model -Verarbeitungsschritte<br />
3. Phonologische Verarbeitung: Mittlere bis<br />
posteriore STS bilateral. => Die Ergebnisse <strong>der</strong><br />
spektralen und temporalen Analyse werden<br />
mit in den STS gespeicherten phonologischen<br />
Codes abgeglichen.<br />
Nach diesem Verarbeitungsschritt erfolgt die<br />
weitere Prozessierung des Sprachinputs in zwei<br />
getrennten Bahnen.<br />
43
Dual Stream Model – Der ventrale Pfad<br />
• Verbindung <strong>der</strong> phonologischen Codes mit höher<br />
repräsentierten lexikalischer, semantischer und<br />
konzeptioneller Information.<br />
• Die Verarbeitung <strong>der</strong> Sprachinformation erfolgt grösstenteils<br />
bilateral und parallel.<br />
• Regionen des posterioren GTM und des posterioren ITS<br />
bilateral bilden das lexikalische Interface.<br />
• Mapping <strong>der</strong> über den ganzen Kortex verteilten semantischen<br />
und konzeptuellen Repräsentationen mit dem Output aus den<br />
STS.<br />
• Leichte Dominanz <strong>der</strong> linken Hemisphäre.<br />
44
Dual Stream Model – Der dorsale Pfad<br />
Warum ist es auch für das Sprachverstehen wichtig, dass<br />
das Sprachsignal mit artikulatorischen Repräsentation<br />
verbunden wird?<br />
1. Der gesprochene Laut hat keine 1:1-Entsprechung mit<br />
dem wahrgenommen Sprachsignal. Sprachlaute<br />
müssen in ihrer invarianten, d.h. motorischen Form<br />
im Gehirn gespeichert sein.<br />
2. <strong>Sprache</strong>rwerb ist primär eine motorische Aufgabe.<br />
3. Feedback <strong>der</strong> auditorisch-motorischen<br />
Integrationsschleife ist für eine saubere Artikulation<br />
notwendig.<br />
45
Dual Stream Model – Der dorsale Pfad<br />
Zwei verschiedene Ebenen <strong>der</strong> auditorisch-motorischen Interaktion:<br />
1. auf Ebene <strong>der</strong> <strong>der</strong> einzelnen Sprachsegmente – STS bilateral<br />
mit einem sensorisch-motorischen Interface, dem die<br />
Transformation von sensorischem zu motorischem Code (und<br />
zurück beim Sprechakt) obliegt – die linke Area Spt (sylvischparietale-temporale<br />
Areal )<br />
2. auf Ebene <strong>der</strong> Sequenzierung <strong>der</strong> Sprachsegmente – posteriorer<br />
Gyrus frontalis inferior = Broca-Area; <strong>der</strong> prämotorische Kortex<br />
46
Dual Stream Model – Der dorsale Pfad<br />
47
V. Das Integrative Speech Processing Framework von<br />
Kotz und Schwartze (2010)<br />
• Parameter-basierter<br />
Ansatz<br />
• Ebene:<br />
Sprachverarbeitung und<br />
Sprachproduktion.<br />
49
Integrative Speech Processing Framework<br />
<strong>Sprache</strong> transportiert Energiemuster über die Zeit.<br />
• Benötigt: Ein Interface für die Integration <strong>der</strong> Outputs<br />
<strong>der</strong> Systeme für die auditorische und temporale<br />
Verarbeitung.<br />
• Geeignet: Motorsysteme da effiziente Bewegung ein<br />
akkurates Timing und eine hohe zeitliche Koordination<br />
<strong>der</strong> einzelnen Muskelgruppen voraussetzt.<br />
• Ausgewählte Kandidaten: Cerebellum und<br />
Basalganglien - erfüllen nicht nur bei motorischen<br />
Aufgaben, son<strong>der</strong>n auch bei kognitiven Leistungen die<br />
Funktion von Schrittmachern.<br />
50
Integrative Speech Processing Framework<br />
- Sprachverarbeitung<br />
Stadien <strong>der</strong> Sprachverarbeitung:<br />
• Hörbahn<br />
• Thalamus als Relais<br />
• primärer auditorischer Kortex im<br />
Temporalkortex<br />
• Cerebellum<br />
51
Integrative Speech Processing Framework<br />
- Sprachverarbeitung<br />
Bei <strong>der</strong> weiteren Verarbeitung des Sprachsignals<br />
werden dann zwei parallele auditorische<br />
Verarbeitungspfade unterschieden:<br />
1. Prä-attentive Encodierung <strong>der</strong> ereignisbasierten<br />
temporalen Struktur im Cerebellum. Es ist über<br />
den Thalamus mit dem Frontalkortex verbunden<br />
2. Im temporalen Kortex Verarbeitung des<br />
Sprachsignals bis zum Abruf <strong>der</strong><br />
Gedächtnisrepräsentation. Der Temporalkortex<br />
projiziert in den Frontalkortex .<br />
52
Integrative Speech Processing Framework<br />
- Sprachverarbeitung<br />
• preSMA bindet die temporale Struktur, erhält Input<br />
vom Cerebellum und schickt Informationen an den<br />
dorsolateralen Präfrontalkortex.<br />
• Dieser integriert die Gedächtnisrepräsentationen und<br />
die temporalen Informationen.<br />
• Die durch Aufmerksamkeit modulierbaren<br />
Basalganglien evaluieren die temporalen Beziehungen<br />
und unterstützen die Extraktion regelmässiger<br />
Zeitmuster.<br />
• Basalganglien zuständig für Re-Analyse und Re-<br />
Sequenzierung, wann immer die temporale Struktur<br />
eines Stimulus unvertraut o<strong>der</strong> inkongruent ist.<br />
53
Integrative Speech Processing Framework<br />
- Sprachverarbeitung<br />
54
Integrative Speech Processing Framework<br />
- Sprachproduktion<br />
55
Integrative Speech Processing Framework<br />
– Bedeutung des Thalamus<br />
• Das eingehende auditorische Sprachsignal wird immer<br />
vom Thalamus vorverarbeitet.<br />
• Der Thalamus reagiert auf Input entwe<strong>der</strong> in einem<br />
tonischen Modus o<strong>der</strong> mit Salven.<br />
• Tonischer Modus = Funktion, die Linearität des Signals<br />
aufrechtzuhalten.<br />
• Salven = Funktion eines Wecksignales für den Frontalkortex.<br />
• Spekulation: Salven-Feuer kennzeichnen die salienten<br />
Wechseln des Energielevels des Inputs.<br />
• Solche thalamischen Salven wären damit in <strong>der</strong> Lage, die<br />
zeitlichen Beziehungen zwischen verschiedenen<br />
Ereignissen für die weitere Verarbeitung im Kortex zu<br />
vermitteln und auch verstärken.<br />
56
Integrative Speech Processing Framework<br />
– Bedeutung des Thalamus<br />
57
Take Home Message<br />
• Parameter-basierte Ansätze sind geeigneter, die<br />
neurobiologischen Abläufe bei <strong>der</strong> Sprachverarbeitung zu<br />
erklären.<br />
• Die Verarbeitung des primären Sprachsignals erfolgt bilateral<br />
- keine anatomische Lateralisierung <strong>der</strong> Sprachverarbeitung,<br />
jedoch eine funktionale Asymmetrie, bzw. eine zeitliche<br />
Asymmetrie <strong>der</strong> präferiert verarbeiteten Einheiten des<br />
Sprachsignals.<br />
• Die weitere Verarbeitung von <strong>Sprache</strong> ist grösstenteils in <strong>der</strong><br />
sprachdominanten linken Hemisphäre angesiedelt.<br />
• Der Sprachverarbeitung liegen zeitlich dynamische<br />
Netzwerke zugrunde, in denen kortikale, subkortikale und<br />
cerebelläre Areale interagieren.<br />
58
Sind diese Aussagen richtig?<br />
1. Hickok und Poeppel postulieren in ihrem Modell <strong>der</strong> Sprachverarbeitung<br />
einen ventralen und dorsalen Verarbeitungsstrang. Der dorsale Strang ist<br />
ein Analogon zum dorsalen Strang <strong>der</strong> visuellen Verarbeitung, <strong>der</strong> hier<br />
die Funktion eines „where“-Stranges hat.<br />
2. Dem Dynamic Dual Pathway-Modell von Frie<strong>der</strong>ici et al. liegt ein<br />
parameter-basierter Ansatz zugrunde.<br />
3. Nach <strong>der</strong> AST-Hypothese von Poeppel liegt schon in den primären<br />
auditorischen Cortices eine funktionale Asymmetrie vor. Der rechte A1<br />
präferiert die Verarbeitung von Sprachinput in kurzen Zeitskalen von 25-<br />
50ms, <strong>der</strong> linke A1 in langen Zeitskalen von 150-300ms.<br />
4. Es gibt im Gehirn einen Gyrus, <strong>der</strong> nur für die lexikalische<br />
Sprachverarbeitung zuständig ist und das ist <strong>der</strong> linke Gyrus lingualis.<br />
5. In die Verarbeitung von <strong>Sprache</strong> sind nur Areale des Kortex involviert.<br />
6. Die Area Spt, die im Modell von Hickok und Poeppel eine wichtige Rolle<br />
in <strong>der</strong> Sprachproduktion spielt, hat die Funktion eines lexikalischen<br />
Interfaces.<br />
59
Literatur:<br />
•Boemio, A., Fromm, S., Braun, A., & Poeppel, D. (2005). Hierarchical and asymmetric<br />
temporal sensitivity in human auditory cortices. Nature Neuroscience, 8, 389–395.<br />
•Frie<strong>der</strong>ici, A.D. (2002) Towards a neural basis of auditory sentence processing. Trends in<br />
cognitive Science, 6, 78–84.<br />
•Frie<strong>der</strong>ici, A.D., & Alter, K. (2004). Lateralization of auditory language functions: A dynamic<br />
dual pathway model. Brain and Language, 89, 267–276.<br />
•Frie<strong>der</strong>ici, A.D., von Cramon, D.Y., &. Kotz, S.A. (2007). Role of the Corpus Callosum in<br />
Speech Comprehension: Interfacing Syntax and Prosody. Neuron, 53, 135–145.<br />
•Hickok, G. (2009). The functional neuroanatomy of language. Physics of Life Reviews, 6,<br />
121–143.<br />
•Hickok, G., & Poeppel, D. (2004). Dorsal and ventral streams: A framework for<br />
un<strong>der</strong>standing aspects of the functional anatomy of language. Cognition, 92, 67–99.<br />
•Hickok G., & Poeppel D. (2007). The cortical organization of speech processing. Nature<br />
Review Neuroscience, 8, 393–402.<br />
•Kotz, S.A., & Schwartze, M. (2010). Cortical speech processing unplugged: a timely<br />
subcortico-cortical framework. Trends in Cognitive Sciences 14, 392–399.<br />
•Poeppel , D. (2003). The analysis of speech in different temporal integration windows:<br />
Cerebral lateralization as “asymmetric sampling in time”. Speech Communication, 41, 245–<br />
55.<br />
•Poeppel, D. & Embick, D. (2005). The relation between linguistics and neuroscience. In<br />
Twenty-first century psycholinguistics: four cornerstones (ed. A. Cutler), pp. 103–120.<br />
60<br />
Hillsdale, NJ: Lawrence Erlbaum Associates, Inc.