10.06.2013 Aufrufe

Neurobiologische Modelle der Sprache

Neurobiologische Modelle der Sprache

Neurobiologische Modelle der Sprache

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Neurobiologische</strong><br />

<strong>Modelle</strong> <strong>der</strong> <strong>Sprache</strong><br />

Vortrag von<br />

A. M. Müller<br />

18.04.2011<br />

Im Rahmen des Seminars: Neurokognition von Hören und <strong>Sprache</strong><br />

Dozent: Dr. M. Meyer<br />

1


Inhaltsverzeichnis<br />

I. Einleitung<br />

II. Das dynamic dual pathway model von Frie<strong>der</strong>ici et al.<br />

(2002, 2004)<br />

III. Die Asymmetric Sampling in Time (AST) Hypothese von D.<br />

Poeppel (2003) & ihre Überprüfung<br />

IV. Das Dual Stream Model <strong>der</strong> Sprachverarbeitung von Hickok<br />

und Poeppel (2004, 2007 & 2009)<br />

V. Das Integrative Speech Processing Framework von Kotz und<br />

Schwartze (2010)<br />

VI. Take Home Message<br />

VII. Fragen<br />

2


I. Einleitung - Sprachverstehen<br />

• Sprachverstehen erfolgt „automatisch“, <strong>der</strong> Prozess,<br />

wie wir das machen, ist nicht bewusstseinsfähig. Nur<br />

die Ergebnisse dieses Prozesses, also das, was wir<br />

verstanden haben, wird uns bewusst.<br />

• Die kognitive Leistung scheint uns selbstverständlich<br />

und wird auch von nicht beson<strong>der</strong>s intelligenten<br />

Menschen mühelos erbracht.<br />

• Will man verstehen, wie unser Gehirn die höchst<br />

aufwendige und komplexe Aufgabe meistert, <strong>Sprache</strong><br />

zu verstehen– dann wird es kompliziert!<br />

3


I. Einleitung<br />

Zwei Ansätze können bei <strong>der</strong> wissenschaftlichen<br />

Beschäftigung mit neurobiologischen <strong>Modelle</strong>n<br />

unterschieden werden:<br />

• Linguistische Herangehensweise<br />

• Parameter-basierte Herangehensweise<br />

4


I. Einleitung – Der linguistische Ansatz<br />

Beispielsatz:<br />

Am Freitagmorgen ist eine Bank überfallen worden. Ein Mann<br />

Adjektiv<br />

mit blon<strong>der</strong> Perücke drang in eine Bank ein, als eine<br />

Mitarbeiterin gerade öffnen wollte. Er fesselte die<br />

Verb<br />

Substantiv<br />

Bankangestellte und leerte die Kasse.<br />

Konjunktion<br />

5


I. Einleitung – Der linguistische Ansatz<br />

Beispielsatz:<br />

Temporales<br />

Adverbiale<br />

Subjekt<br />

Am Freitagmorgen ist eine Bank überfallen worden. Ein Mann<br />

mit blon<strong>der</strong> Perücke drang in eine Bank ein, als eine<br />

Mitarbeiterin gerade öffnen wollte. Direktes Er fesselte die<br />

Objekt<br />

Bankangestellte und leerte die Kasse.<br />

Prädikat<br />

6


I. Einleitung – Der linguistische Ansatz<br />

Beispielsatz:<br />

Am Freitagmorgen ist eine Bank überfallen worden.<br />

Nebensatz erster<br />

Ordnung<br />

Ein Mann mit blon<strong>der</strong> Perücke drang in eine Bank ein,<br />

als eine Mitarbeiterin gerade öffnen wollte.<br />

Er fesselte die Frau und leerte die Kasse.<br />

Hauptsatz<br />

7


I. Einleitung – <strong>der</strong> linguistische Ansatz<br />

• Unter <strong>der</strong> Annahme, dass linguistische Konzepte<br />

und Prozesse tatsächlich in irgendeiner Weise<br />

wi<strong>der</strong>spiegeln, wie unser Gehirn Sprachinput<br />

analysiert, werden diese zur Erklärung <strong>der</strong> im<br />

Gehirn bei <strong>der</strong> Sprachverarbeitung ablaufenden<br />

neurobiologischen Prozesse herangezogen.<br />

• Bei <strong>der</strong> linguistischen Herangehensweise wird<br />

versucht zu erklären, wo, wann und wie im<br />

Gehirn diese komplexen Analysen <strong>der</strong><br />

linguistischen Komponenten zustande kommen.<br />

8


I. Einleitung – <strong>der</strong> linguistische Ansatz<br />

ABER zwei fundamentale Probleme werden dabei völlig ignoriert:<br />

• Conceptual granularity mismatch: Neurowissenschaftliche und<br />

linguistische Sprachforschung verwenden zur Erklärung von <strong>Sprache</strong><br />

Erklärungseinheiten, die sich in ihrer Detailgenauigkeit wesentlich<br />

unterscheiden. Linguistik arbeitet mit sehr feinkörnigen<br />

Erklärungseinheiten und unter <strong>der</strong> Annahme genauer<br />

Verrechnungsschritte, während man in den Neurowissenschaften<br />

eher breitere Erklärungskonzepte verwendet.<br />

• Ontological immensurability: Die Grundelemente <strong>der</strong> linguistischen<br />

Theorie können nicht soweit reduziert o<strong>der</strong> angepasst werden, dass<br />

sie den biologischen Grundelementen <strong>der</strong> Neurowissenschaften<br />

entsprechen würden.<br />

9


I. Einleitung – <strong>der</strong> linguistische Ansatz<br />

Poeppel und Embick (2005) schliessen auf Grund <strong>der</strong><br />

Inkompabilität von Linguistik und Neurowissenschaften:<br />

„The machinery we invoke to account for linguistic<br />

phenomena is not in any obvious way related to the<br />

entities and computations of the biological systems<br />

in question. Consequently, there is an absence of<br />

reasonable linking hypotheses by which one can<br />

explore how brain mechanisms form the basis for<br />

linguistic computation. “<br />

10


I. Einleitung - Parameter-basierte<br />

Herangehensweise<br />

Ein Mann mit blon<strong>der</strong> Perücke drang in eine Bank ein, als eine Mitarbeiterin<br />

gerade öffnen wollte.<br />

11


I. Einleitung - Parameter-basierte<br />

Herangehensweise<br />

Oszillo- und Spektrogramm zeigen deutlich:<br />

• <strong>Sprache</strong> ist ein akustisches Signal mit physikalischen<br />

Parametern wie Frequenz, Energie/Amplitude etc., das sich<br />

über die Zeit hin entwickelt.<br />

• Dieses Signal wird in unserem Gehirn in neuronale<br />

Aktivität umgewandelt.<br />

• Neuronale Aktivität kann sich innerhalb von spezialisierten<br />

Neuronenpopulationen bis hin zu über das Gehirn<br />

verteilten grossräumigen neuronalen Netzwerken<br />

entfalten, innerhalb <strong>der</strong>er die Neurone gleichzeitig o<strong>der</strong><br />

nacheinan<strong>der</strong> in bestimmten Frequenzbän<strong>der</strong>n aktiv<br />

werden (Synchronisation und Desynchronisation).<br />

• Neuronale Aktivität besitzt somit die Dimensionen Raum<br />

und Zeit.<br />

12


I. Einleitung - Parameter-basierte<br />

Herangehensweise<br />

13


I. Einleitung - Parameter-basierte<br />

Herangehensweise<br />

Parameter-basierter Ansatz:<br />

• Sprachverarbeitung im Gehirn ist das Ergebnis<br />

des koordinierten Zusammenwirkens<br />

verschiedener Gehirnareale, die auf Grund<br />

ihrer neurobiologischen und<br />

elektrophysiologischen Spezialisierung<br />

spezifische Funktionen bei <strong>der</strong><br />

Sprachverarbeitung wahrnehmen.<br />

14


II. Das Dynamic Dual Pathway Model von<br />

Frie<strong>der</strong>ici et al. (2002, 2004)<br />

• Linguistischer Ansatz<br />

• Methoden: EEG, bzw.<br />

ERP-Ableitung für<br />

Bestimmung <strong>der</strong> drei<br />

Verarbeitungsphasen;<br />

Verortung <strong>der</strong> dafür<br />

zuständigen Gehirnareale<br />

mit bildgebenden<br />

Verfahren (PET und fMRI)<br />

• Erklärungsebene:<br />

auditorische<br />

Satzverarbeitung<br />

15


II. Das Dynamic Dual Pathway Model<br />

• Neurokognitives Modell - bilaterales temporo-<br />

frontales Netzwerk.<br />

• Temporale Areale = Identifikation auf <strong>der</strong> Ebene<br />

Phonetik, Semantik und Syntax.<br />

• Frontalen Areale = Erfassung von syntaktischen<br />

und semantischen Beziehungen.<br />

16


II. Das Dynamic Dual Pathway Model<br />

• Linker Temporalkortex = Identifikation <strong>der</strong><br />

phonetischen, lexikalischen und strukturellen<br />

Elemente.<br />

• Linker Frontalkortex = Sequenzierung und die<br />

Formation <strong>der</strong> phonetischen, strukturellen und<br />

thematischen Beziehungen.<br />

Segmentelle, lexikalische und syntaktische<br />

Informationen und Beziehungen werden links<br />

verarbeitet.<br />

17


II. Das Dynamic Dual Pathway Model<br />

• Rechter Temporallappen = Identifikation <strong>der</strong><br />

prosodischen Parameter statt<br />

• Rechter Frontalkortex = Verarbeitung <strong>der</strong><br />

Satzmelodie.<br />

Suprasegmentelle Informationen auf<br />

Satzebene wie Akzentuierung, Tonhöhe,<br />

Pausen etc. werden rechts verarbeitet.<br />

18


II. Das Dynamic Dual Pathway Model<br />

• Interaktion von prosodischer und<br />

syntaktischer Information.<br />

• Linke und rechte temporo-frontale Areale<br />

interagieren während <strong>der</strong> Satzverarbeitung<br />

dynamisch miteinan<strong>der</strong> über das hintere<br />

Drittel des Corpus Callosum.<br />

• Der zeitliche Ablauf dieser Interaktion ist<br />

jedoch noch unklar.<br />

19


II. Das Dynamic Dual Pathway Model<br />

20


II. Das Dynamic Dual Pathway Model<br />

21


II. Das Dynamic Dual Pathway Model<br />

• Auditorische Satzverarbeitung = linke<br />

temporo-frontale Gebiete.<br />

• Drei Verarbeitungsphasen abgrenzbar.<br />

• Definition <strong>der</strong> drei Phasen auf <strong>der</strong> Basis von<br />

elektrophysiologischen Daten.<br />

• Aufzeichnung und Analyse verschiedener<br />

Event-Related-Potentials (ERP)-Ableitungen<br />

bei verschiedenen semantischen und<br />

syntaktischen Regelverletzungen.<br />

22


Event Related Potentials (ERP) und ihre<br />

Bedeutung<br />

Syntax:<br />

• ELAN: Early-Left-Anterior-Negativity<br />

im Zeitfenster von 150-200 ms<br />

schnell entdeckbar Fehler <strong>der</strong><br />

Wortkategorie<br />

dominant im Temporal- und<br />

Frontalkortex <strong>der</strong> LH<br />

• LAN: Left-Anterior-Negativity im<br />

Zeitfenster von 200-500ms<br />

Morphosyntaktische Fehler<br />

• P600: Late-Central-Positivity im<br />

Zeitfenster von 600+ ms<br />

nach semantischen wie<br />

syntaktischen Regelverletzungen<br />

später Integrationsprozess<br />

23


Event Related Potentials (ERP) und ihre<br />

Bedeutung<br />

Semantik:<br />

• N400: Centro-Parietal-<br />

Negativity 400 ms nach Word-<br />

Onset<br />

korreliert mit Wörtern, die<br />

semantisch nicht in den<br />

vorausgehenden Kontext<br />

eingeordnet werden können<br />

kann sich aber auch auf eher<br />

allgemeinere Aspekte <strong>der</strong><br />

Bedeutung als den lexikalischsemantischen<br />

Aspekt beziehen<br />

N400-Effekte finden sich auch<br />

in nicht-linguistischen<br />

Kontexten.<br />

24


Die drei Verarbeitungsphasen<br />

Die drei aus den mit Regelverletzungsparadigmen gewonnen<br />

Phasen <strong>der</strong> auditorischen Satzverarbeitung:<br />

• Phase 0: Zeitfenster 0 – 100 ms: Erste akustische Analyse –<br />

Identifikation <strong>der</strong> Phoneme – Identifikation <strong>der</strong> Wortform.<br />

• Phase 1: Zeitfenster 100-300 m: autonomer Prozess - Analyse<br />

<strong>der</strong> Wortkategorien - erste syntaktische Strukturanalyse.<br />

• Phase 2: Zeitfenster 300-500 ms: lexikalisch-semantischen<br />

und morphosyntaktische Prozesse - thematische<br />

Rollenzuordnung.<br />

Die Verarbeitung syntaktischer und semantischer<br />

Informationen erfolgt auf dieser Stufe parallel und<br />

voneinan<strong>der</strong> unabhängig.<br />

25


Die drei Verarbeitungsphasen<br />

• Phase 3: Zeitfenster 500-1000 ms: Integration o<strong>der</strong> bei<br />

zweideutigen o<strong>der</strong> falsch strukturierten Sätzen zu<br />

Reanalysen/Reparatur <strong>der</strong> verschiedenen Informationstypen.<br />

Die Prozesse in Phase 1 sind immer unabhängig von Phase 2.<br />

Jedoch können die Prozesse in Phase 2 durch Phase 1 insofern<br />

beeinflusst werden, dass die lexikalische Integration eines<br />

Elementes in den Kontext davon abhängt, ob es zuvor in<br />

Phase 1 syntaktisch lizenziert/zugelassen worden ist.<br />

26


III. Die Asymmetric Sampling in Time (AST)<br />

Hypothese von D. Poeppel (2003)<br />

• Parameter-basierter<br />

Ansatz<br />

• Methoden: EGG und<br />

bildgebende Verfahren<br />

• Ebene: Prozessierung<br />

des primären<br />

Sprachinputs<br />

28


Die vier Prämissen <strong>der</strong> AST-Hypothese<br />

1. Primärer Sprachinput bilateral verarbeitet.<br />

2. Linke Hemisphäre beson<strong>der</strong>s befähigt, schnell<br />

wechselnde Signale zu verarbeiten.<br />

3. Verschiedene Zeitskalen relevant bei <strong>der</strong> Verarbeitung<br />

des Sprachsignals - denn das Signal enthält sowohl<br />

segmentale wie auch suprasegmentale<br />

Informationen.<br />

4. Das Gehirn verarbeitet Zeit in einzelnen, zeitlich<br />

definierten Chunks, d.h. nicht kontinuierlich. =><br />

Zeitliche Integrationsfenster zur Quantifizierung <strong>der</strong><br />

sich in <strong>der</strong> Zeit entwickelnden Sprachinformation am<br />

geeignetsten.<br />

29


Die Theorie <strong>der</strong> AST-Hypothese<br />

30


Die Theorie <strong>der</strong> AST-Hypothese<br />

• Kein Unterschied zwischen den primären auditorischen Cortices <strong>der</strong><br />

beiden Hemisphären – beide besitzen neuronale Populationen mit<br />

Zeitkonstanten zwischen 25 und 200 ms.<br />

• Der linke posteriore STG besitzt eine Präferenz zur Verarbeitung von<br />

Information aus kurzen zeitlichen Integrationsfenstern (20-50 ms <br />

Frequenz von 40 Hz Gamma-Band).<br />

=> Analysen, die hohe zeitliche Auflösung erfor<strong>der</strong>n, wie z.B.<br />

Formantenübergänge, erfolgen links.<br />

• Der rechte posterior STG präferiert die Verarbeitung <strong>der</strong> Information aus<br />

langen zeitlichen Integrationsfenstern (150-250ms Frequenz von 4-5 Hz<br />

Theta-Band).<br />

=> Analysen mit hoher spektraler Auflösung wie z.B. Satzmelodie,<br />

erfolgen rechts.<br />

31


Die Theorie <strong>der</strong> AST-Hypothese<br />

• Enger Zusammenhang zwischen den beiden zeitlichen<br />

Integrationsfenstern <strong>der</strong> linken und <strong>der</strong> rechten<br />

Hemisphäre und den neuronalen Oszillationen.<br />

• Die Integrationsfenster reflektieren neuronale<br />

Oszillationen, bzw. die beiden verschiedenen<br />

Samplingrates für das Sprachsignal im Gehirn.<br />

• Die Verarbeitung des primären Sprachsignals erfolgt<br />

bilateral - keine anatomische Lateralisierung <strong>der</strong><br />

Sprachverarbeitung, jedoch eine funktionale Asymmetrie,<br />

bzw. eine zeitliche Asymmetrie <strong>der</strong> präferiert verarbeiteten<br />

Einheiten des Sprachsignals.<br />

• Die weitere Verarbeitung von <strong>Sprache</strong> grösstenteils in <strong>der</strong><br />

sprachdominanten linken Hemisphäre angesiedelt.<br />

32


Die Theorie <strong>der</strong> AST-Hypothese<br />

33


Überprüfung <strong>der</strong> AST-Hypothese<br />

(Boemio, Fromm, Braun &Poeppel, 2005)<br />

34


Überprüfung <strong>der</strong> AST-Hypothese<br />

(Boemio, Fromm, Braun &Poeppel, 2005)<br />

• Nicht nur die primären auditorischen Areale, son<strong>der</strong>n auch STG und<br />

STS bei<strong>der</strong> Hemisphären reagieren sensitiv auf Verän<strong>der</strong>ungen <strong>der</strong><br />

temporalen Struktur.<br />

• STG-Areale sensitiv für lokale temporale Struktur und spektrale<br />

Struktur von auditorischen Stimuli.<br />

• STS-Areale nur für die lokale temporale Struktur sensitiv.<br />

• Hemisphärische Asymmetrie in den STS bilateral:<br />

linker STS = Input auf <strong>der</strong> Zeitskala von 20-50ms und zwar sowohl<br />

vom rechten (interhemispährischer Austausch über das Corpus<br />

Callosum) wie linken (intrahemisphärischer Austausch) STG.<br />

rechter STS = Input vor allem auf <strong>der</strong> Zeitskala von 150-300ms zwar<br />

sowohl vom rechten (interhemispährischer Austausch über das<br />

Corpus Callosum) wie linken (intrahemisphärischer Austausch) STG.<br />

35


Überprüfung <strong>der</strong> AST-Hypothese<br />

(Boemio, Fromm, Braun &Poeppel, 2005)<br />

36


Überprüfung <strong>der</strong> AST-Hypothese<br />

(Boemio, Fromm, Braun &Poeppel, 2005)<br />

37


IV. Das Dual Stream Model <strong>der</strong> Sprachverarbeitung<br />

von Hickok und Poeppel (2004, 2007 & 2009)<br />

• Parameterbasierter<br />

Ansatz<br />

• Methoden:<br />

Bildgebung und<br />

Läsionsstudien<br />

• Ebene:<br />

Sprachwahrnehmung<br />

und<br />

<strong>Sprache</strong>rkennung<br />

auf<br />

kortikaler<br />

Ebene<br />

38


Dual Stream Model - Annahmen<br />

In Analogie zum visuellen Verarbeitungssystem, wo man<br />

einen dorsalen und ventralen Strang unterscheidet,<br />

nehmen Hickok und Poeppel auch für die<br />

Sprachverarbeitung zwei Verarbeitungsstränge an.<br />

• Ventraler Strang weitgehend bilateral angelegt mit <strong>der</strong><br />

Aufgabe <strong>der</strong> <strong>Sprache</strong>rkennung, d.h. mapping sound to<br />

meaning.<br />

• Linksdominanter dorsaler Strang mit Funktion <strong>der</strong><br />

Sprachwahrnehmung; verbindet die akustischen<br />

Sprachsignale mit artikulatorischen Netzwerken im<br />

Frontalkortex.<br />

39


Dual Stream Model - Annahmen<br />

40


Dual Stream Model - Verarbeitungsschritte<br />

• Erste Verarbeitungsschritte für beide Pfade erfolgen<br />

bilateral und parallel.<br />

1. Spektrotemporale Analyse in den dem primären<br />

auditorischen Areal nachgelagerten dorsalen Gyri<br />

temporales superiores .<br />

2. Integration <strong>der</strong> Sprachinformation erfolgt über zwei<br />

distinkte Zeitskalen – einem kurzen<br />

Informationsintegrationsfenster mit einer Länge von 24-<br />

50 ms Gammafrequenz, d.h. <strong>der</strong> Sampling-Rate für<br />

segmentale Representationen, und einem langen<br />

Integrationsfenster mit einer Länge von 150-300ms <br />

Thetafrequenz, d.h. <strong>der</strong> Sampling-Rate für syllabische<br />

Repräsentationen.<br />

41


Dual Stream Model - Verarbeitungsschritte<br />

42


Dual Stream Model -Verarbeitungsschritte<br />

3. Phonologische Verarbeitung: Mittlere bis<br />

posteriore STS bilateral. => Die Ergebnisse <strong>der</strong><br />

spektralen und temporalen Analyse werden<br />

mit in den STS gespeicherten phonologischen<br />

Codes abgeglichen.<br />

Nach diesem Verarbeitungsschritt erfolgt die<br />

weitere Prozessierung des Sprachinputs in zwei<br />

getrennten Bahnen.<br />

43


Dual Stream Model – Der ventrale Pfad<br />

• Verbindung <strong>der</strong> phonologischen Codes mit höher<br />

repräsentierten lexikalischer, semantischer und<br />

konzeptioneller Information.<br />

• Die Verarbeitung <strong>der</strong> Sprachinformation erfolgt grösstenteils<br />

bilateral und parallel.<br />

• Regionen des posterioren GTM und des posterioren ITS<br />

bilateral bilden das lexikalische Interface.<br />

• Mapping <strong>der</strong> über den ganzen Kortex verteilten semantischen<br />

und konzeptuellen Repräsentationen mit dem Output aus den<br />

STS.<br />

• Leichte Dominanz <strong>der</strong> linken Hemisphäre.<br />

44


Dual Stream Model – Der dorsale Pfad<br />

Warum ist es auch für das Sprachverstehen wichtig, dass<br />

das Sprachsignal mit artikulatorischen Repräsentation<br />

verbunden wird?<br />

1. Der gesprochene Laut hat keine 1:1-Entsprechung mit<br />

dem wahrgenommen Sprachsignal. Sprachlaute<br />

müssen in ihrer invarianten, d.h. motorischen Form<br />

im Gehirn gespeichert sein.<br />

2. <strong>Sprache</strong>rwerb ist primär eine motorische Aufgabe.<br />

3. Feedback <strong>der</strong> auditorisch-motorischen<br />

Integrationsschleife ist für eine saubere Artikulation<br />

notwendig.<br />

45


Dual Stream Model – Der dorsale Pfad<br />

Zwei verschiedene Ebenen <strong>der</strong> auditorisch-motorischen Interaktion:<br />

1. auf Ebene <strong>der</strong> <strong>der</strong> einzelnen Sprachsegmente – STS bilateral<br />

mit einem sensorisch-motorischen Interface, dem die<br />

Transformation von sensorischem zu motorischem Code (und<br />

zurück beim Sprechakt) obliegt – die linke Area Spt (sylvischparietale-temporale<br />

Areal )<br />

2. auf Ebene <strong>der</strong> Sequenzierung <strong>der</strong> Sprachsegmente – posteriorer<br />

Gyrus frontalis inferior = Broca-Area; <strong>der</strong> prämotorische Kortex<br />

46


Dual Stream Model – Der dorsale Pfad<br />

47


V. Das Integrative Speech Processing Framework von<br />

Kotz und Schwartze (2010)<br />

• Parameter-basierter<br />

Ansatz<br />

• Ebene:<br />

Sprachverarbeitung und<br />

Sprachproduktion.<br />

49


Integrative Speech Processing Framework<br />

<strong>Sprache</strong> transportiert Energiemuster über die Zeit.<br />

• Benötigt: Ein Interface für die Integration <strong>der</strong> Outputs<br />

<strong>der</strong> Systeme für die auditorische und temporale<br />

Verarbeitung.<br />

• Geeignet: Motorsysteme da effiziente Bewegung ein<br />

akkurates Timing und eine hohe zeitliche Koordination<br />

<strong>der</strong> einzelnen Muskelgruppen voraussetzt.<br />

• Ausgewählte Kandidaten: Cerebellum und<br />

Basalganglien - erfüllen nicht nur bei motorischen<br />

Aufgaben, son<strong>der</strong>n auch bei kognitiven Leistungen die<br />

Funktion von Schrittmachern.<br />

50


Integrative Speech Processing Framework<br />

- Sprachverarbeitung<br />

Stadien <strong>der</strong> Sprachverarbeitung:<br />

• Hörbahn<br />

• Thalamus als Relais<br />

• primärer auditorischer Kortex im<br />

Temporalkortex<br />

• Cerebellum<br />

51


Integrative Speech Processing Framework<br />

- Sprachverarbeitung<br />

Bei <strong>der</strong> weiteren Verarbeitung des Sprachsignals<br />

werden dann zwei parallele auditorische<br />

Verarbeitungspfade unterschieden:<br />

1. Prä-attentive Encodierung <strong>der</strong> ereignisbasierten<br />

temporalen Struktur im Cerebellum. Es ist über<br />

den Thalamus mit dem Frontalkortex verbunden<br />

2. Im temporalen Kortex Verarbeitung des<br />

Sprachsignals bis zum Abruf <strong>der</strong><br />

Gedächtnisrepräsentation. Der Temporalkortex<br />

projiziert in den Frontalkortex .<br />

52


Integrative Speech Processing Framework<br />

- Sprachverarbeitung<br />

• preSMA bindet die temporale Struktur, erhält Input<br />

vom Cerebellum und schickt Informationen an den<br />

dorsolateralen Präfrontalkortex.<br />

• Dieser integriert die Gedächtnisrepräsentationen und<br />

die temporalen Informationen.<br />

• Die durch Aufmerksamkeit modulierbaren<br />

Basalganglien evaluieren die temporalen Beziehungen<br />

und unterstützen die Extraktion regelmässiger<br />

Zeitmuster.<br />

• Basalganglien zuständig für Re-Analyse und Re-<br />

Sequenzierung, wann immer die temporale Struktur<br />

eines Stimulus unvertraut o<strong>der</strong> inkongruent ist.<br />

53


Integrative Speech Processing Framework<br />

- Sprachverarbeitung<br />

54


Integrative Speech Processing Framework<br />

- Sprachproduktion<br />

55


Integrative Speech Processing Framework<br />

– Bedeutung des Thalamus<br />

• Das eingehende auditorische Sprachsignal wird immer<br />

vom Thalamus vorverarbeitet.<br />

• Der Thalamus reagiert auf Input entwe<strong>der</strong> in einem<br />

tonischen Modus o<strong>der</strong> mit Salven.<br />

• Tonischer Modus = Funktion, die Linearität des Signals<br />

aufrechtzuhalten.<br />

• Salven = Funktion eines Wecksignales für den Frontalkortex.<br />

• Spekulation: Salven-Feuer kennzeichnen die salienten<br />

Wechseln des Energielevels des Inputs.<br />

• Solche thalamischen Salven wären damit in <strong>der</strong> Lage, die<br />

zeitlichen Beziehungen zwischen verschiedenen<br />

Ereignissen für die weitere Verarbeitung im Kortex zu<br />

vermitteln und auch verstärken.<br />

56


Integrative Speech Processing Framework<br />

– Bedeutung des Thalamus<br />

57


Take Home Message<br />

• Parameter-basierte Ansätze sind geeigneter, die<br />

neurobiologischen Abläufe bei <strong>der</strong> Sprachverarbeitung zu<br />

erklären.<br />

• Die Verarbeitung des primären Sprachsignals erfolgt bilateral<br />

- keine anatomische Lateralisierung <strong>der</strong> Sprachverarbeitung,<br />

jedoch eine funktionale Asymmetrie, bzw. eine zeitliche<br />

Asymmetrie <strong>der</strong> präferiert verarbeiteten Einheiten des<br />

Sprachsignals.<br />

• Die weitere Verarbeitung von <strong>Sprache</strong> ist grösstenteils in <strong>der</strong><br />

sprachdominanten linken Hemisphäre angesiedelt.<br />

• Der Sprachverarbeitung liegen zeitlich dynamische<br />

Netzwerke zugrunde, in denen kortikale, subkortikale und<br />

cerebelläre Areale interagieren.<br />

58


Sind diese Aussagen richtig?<br />

1. Hickok und Poeppel postulieren in ihrem Modell <strong>der</strong> Sprachverarbeitung<br />

einen ventralen und dorsalen Verarbeitungsstrang. Der dorsale Strang ist<br />

ein Analogon zum dorsalen Strang <strong>der</strong> visuellen Verarbeitung, <strong>der</strong> hier<br />

die Funktion eines „where“-Stranges hat.<br />

2. Dem Dynamic Dual Pathway-Modell von Frie<strong>der</strong>ici et al. liegt ein<br />

parameter-basierter Ansatz zugrunde.<br />

3. Nach <strong>der</strong> AST-Hypothese von Poeppel liegt schon in den primären<br />

auditorischen Cortices eine funktionale Asymmetrie vor. Der rechte A1<br />

präferiert die Verarbeitung von Sprachinput in kurzen Zeitskalen von 25-<br />

50ms, <strong>der</strong> linke A1 in langen Zeitskalen von 150-300ms.<br />

4. Es gibt im Gehirn einen Gyrus, <strong>der</strong> nur für die lexikalische<br />

Sprachverarbeitung zuständig ist und das ist <strong>der</strong> linke Gyrus lingualis.<br />

5. In die Verarbeitung von <strong>Sprache</strong> sind nur Areale des Kortex involviert.<br />

6. Die Area Spt, die im Modell von Hickok und Poeppel eine wichtige Rolle<br />

in <strong>der</strong> Sprachproduktion spielt, hat die Funktion eines lexikalischen<br />

Interfaces.<br />

59


Literatur:<br />

•Boemio, A., Fromm, S., Braun, A., & Poeppel, D. (2005). Hierarchical and asymmetric<br />

temporal sensitivity in human auditory cortices. Nature Neuroscience, 8, 389–395.<br />

•Frie<strong>der</strong>ici, A.D. (2002) Towards a neural basis of auditory sentence processing. Trends in<br />

cognitive Science, 6, 78–84.<br />

•Frie<strong>der</strong>ici, A.D., & Alter, K. (2004). Lateralization of auditory language functions: A dynamic<br />

dual pathway model. Brain and Language, 89, 267–276.<br />

•Frie<strong>der</strong>ici, A.D., von Cramon, D.Y., &. Kotz, S.A. (2007). Role of the Corpus Callosum in<br />

Speech Comprehension: Interfacing Syntax and Prosody. Neuron, 53, 135–145.<br />

•Hickok, G. (2009). The functional neuroanatomy of language. Physics of Life Reviews, 6,<br />

121–143.<br />

•Hickok, G., & Poeppel, D. (2004). Dorsal and ventral streams: A framework for<br />

un<strong>der</strong>standing aspects of the functional anatomy of language. Cognition, 92, 67–99.<br />

•Hickok G., & Poeppel D. (2007). The cortical organization of speech processing. Nature<br />

Review Neuroscience, 8, 393–402.<br />

•Kotz, S.A., & Schwartze, M. (2010). Cortical speech processing unplugged: a timely<br />

subcortico-cortical framework. Trends in Cognitive Sciences 14, 392–399.<br />

•Poeppel , D. (2003). The analysis of speech in different temporal integration windows:<br />

Cerebral lateralization as “asymmetric sampling in time”. Speech Communication, 41, 245–<br />

55.<br />

•Poeppel, D. & Embick, D. (2005). The relation between linguistics and neuroscience. In<br />

Twenty-first century psycholinguistics: four cornerstones (ed. A. Cutler), pp. 103–120.<br />

60<br />

Hillsdale, NJ: Lawrence Erlbaum Associates, Inc.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!