03.04.2013 Aufrufe

Die Sprache der Musik - die Musik der Sprache

Die Sprache der Musik - die Musik der Sprache

Die Sprache der Musik - die Musik der Sprache

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Die</strong> <strong>Sprache</strong> <strong>der</strong> <strong>Musik</strong> -<br />

<strong>die</strong> <strong>Musik</strong> <strong>der</strong> <strong>Sprache</strong><br />

Seminar Neurokognition von Hören und <strong>Sprache</strong><br />

UZH<br />

FS10<br />

Yvonne Eichmann


Ablauf<br />

Einleitung<br />

Verarbeitung von Proso<strong>die</strong><br />

Verarbeitung von Rhythmus<br />

Transfereffekte <strong>Musik</strong>-<strong>Sprache</strong><br />

- Kin<strong>der</strong><br />

- Erwachsene<br />

- Fremdsprache<br />

- Phrasenwahrnehmung<br />

Fazit<br />

Fragen


1. Einleitung<br />

Ursp. Annahme, dass <strong>Musik</strong> rechts und <strong>Sprache</strong> links<br />

verarbeitet wird<br />

Beide Domänen bestehen aus spektrotemporalen<br />

Mustern<br />

→ Verarbeitung kurzer Zeitfenster linke Hemisphäre<br />

bevorzugt<br />

→ Verarbeitung langer Zeitfenster rechte Hemisphäre<br />

bevorzugt<br />

Zwei Aspekte, <strong>die</strong> in beiden Domänen vorkommen<br />

→ Melo<strong>die</strong>/Proso<strong>die</strong><br />

→ Rhythmus


2. Verarbeitung von Proso<strong>die</strong><br />

Ursprüngliche Annahme, dass Proso<strong>die</strong> rechts<br />

verarbeitet wird<br />

AST-Hypothese:<br />

- zu einem früheren Zeitpunkt bilaterale Verarbeitung<br />

akustischer Signale<br />

- später kurze Aspekte <strong>der</strong> Proso<strong>die</strong> (bsp. Silbenbetonung)<br />

links,<br />

lange Aspekte <strong>der</strong> Proso<strong>die</strong> (bsp. Satzmelo<strong>die</strong>)<br />

rechts<br />

Stu<strong>die</strong> von Meyer et al. (2004) zur Verarbeitung von<br />

Proso<strong>die</strong>


2. Verarbeitung von Proso<strong>die</strong><br />

(Meyer et al., 2004)<br />

Normale Sätze vs. Sätze ohne Satzmelo<strong>die</strong> vs. Sätze<br />

aus purer Satzmelo<strong>die</strong> hören und nachsagen<br />

Normale Sätze: stärkere Aktivierung im perisylvischen<br />

Kortex erwartet<br />

Sätze aus purer Sprachmelo<strong>die</strong>: Aktivierung in frontoopercularen<br />

Regionen erwartet<br />

Nachsprechen: Shift von rechter zu linker Hemisphäre<br />

erwartet


2. Verarbeitung von Proso<strong>die</strong><br />

(Meyer et al., 2004)<br />

Resultate<br />

- Normale Sätze und Sätze ohne Satzmelo<strong>die</strong>: linken IFG;<br />

STG bilateral; linken STG & linke temporo-occiptialeparietale<br />

junction area (TOP-area; mentales Lexikon)<br />

- Sätze aus purer Satzmelo<strong>die</strong>: frontales operculum, bilateral;<br />

rechtes rolandic operculum; rechtes planum parietale &<br />

Basalganglien<br />

- Beide verän<strong>der</strong>ten Sätze: verstärkte Aktivierung im planum<br />

temporale, bilateral<br />

- Nachsprechen: linke Hemisphäre (Broca-Areal; ventraler<br />

Prämotorkortex; Motorkortex)


2. Verarbeitung von Proso<strong>die</strong><br />

(Meyer et al., 2004)


3. Verarbeitung von Rhythmus<br />

Kann als Teilbereich <strong>der</strong> Proso<strong>die</strong> aufgefasst werden<br />

Sprachrhythmus wichtig für <strong>Sprache</strong>rwerb<br />

Closure positive shift (CPS) bei Satzunterbrüchen<br />

Stu<strong>die</strong> von Geiser at al. (2008) zur Verarbeitung von<br />

Rhythmus


3. Verarbeitung von Rhythmus<br />

(Geiser et al., 2008)<br />

25 VP hörten Pseudosätze mit<br />

- isochronem Sprachrhythmus o<strong>der</strong><br />

- anisochronem Sprachrhythmus<br />

.. und wurden <strong>der</strong> expliziten o<strong>der</strong> impliziten<br />

Experimentalgruppe zugeteilt<br />

Explizit: Rhythmus beurteilen<br />

Implizit: Art des Pseudosatzes beurteilen (Frage,<br />

Statement)


3. Verarbeitung von Rhythmus<br />

(Geiser et al., 2008)<br />

Resultate<br />

- Explizite vs. implizite Rhythmusverarbeitung:<br />

Aktivität im SMA, bilateral; Insel, bilateral; rechter<br />

IFG<br />

- Isochron vs. anisochron (explizite Gruppe):<br />

Rechter STG; rechter supramarginaler Gyrus; rechtes<br />

parietales Operculum<br />

- Isochron vs. anisochron (implizite Gruppe):<br />

Linker STG, linken supramarginaler Gyrus; linkes<br />

parietales Operculum


3. Verarbeitung von Rhythmus<br />

(Geiser et al., 2008)


3. Verarbeitung von Rhythmus<br />

(Geiser et al., 2008)<br />

SMA: multimodale Beteiligung an Zeitwahrnehmung<br />

spontane Synchronizität zwischen Rhythmuswahrnehmung<br />

und Körperbewegung<br />

Rechter IFG: Integration von Akzentmustern<br />

Insel: Zeitverarbeitung<br />

Rechte Basalganglien: Emotionalität, Beat-<br />

Wahrnehmung, ..<br />

→ Aktivität des rechten auditorischen<br />

Assoziationskortex von top-down Prozessen<br />

moduliert<br />

→ Aktivität des linken auditorischen


4. Transfereffekte (Moreno & Besson,<br />

2006)<br />

Kin<strong>der</strong> hörten Sätze mit:<br />

- normaler Tonhöhe des letzten Wortes<br />

- leicht verän<strong>der</strong>ter Tonhöhe (1/5 höher)<br />

- stark verän<strong>der</strong>ter Tonhöhe (1/2 höher)<br />

8 Wochen <strong>Musik</strong>- o<strong>der</strong> Zeichentraining<br />

Verhaltensdaten und ERP


4. Transfereffekte (Moreno & Besson,<br />

2006)<br />

Resultate<br />

- Verhalten: keine Gruppenunterschiede; starke<br />

Unterschiede wurden besser erkannt als schwache, <strong>die</strong><br />

kaum von normalen Tonhöhen unterschieden werden<br />

konnten<br />

- ERP: Starke Tonhöhenunterschieden bewirkten late<br />

positivity; Abnahme in Amplitude zeigte sich nur nach<br />

musikalischem Training


4. Transfereffekte (Moreno & Besson,<br />

2006)


4. Transfereffekte (Moreno et al., 2008)<br />

Tonhöhen unterscheiden in <strong>Sprache</strong> und <strong>Musik</strong><br />

Kin<strong>der</strong> erhielten 6 Monate <strong>Musik</strong>- o<strong>der</strong><br />

Zeichentraining<br />

Verbesserung <strong>der</strong> Tondiskrimination?<br />

Verbesserung <strong>der</strong> Lesefähigkeit?<br />

Prädisposition o<strong>der</strong> musikalisches Training als<br />

Erklärung für beobachtete funktionelle und<br />

anatomische Verän<strong>der</strong>ungen bei <strong>Musik</strong>ern?<br />

Verhaltensdaten und ERP


4. Transfereffekte (Moreno et al., 2008)<br />

Resultate<br />

- Abnahme in Amplitude <strong>der</strong> late positivity bei starken<br />

Tonhöhenunterschieden in <strong>Sprache</strong> (Kin<strong>der</strong> mit<br />

musikalischem Training)<br />

- Nur Kin<strong>der</strong> mit musikalischem Training konnten schwache<br />

Tonhöhenunterschiede am Ende eines Satzes erkennen<br />

(zeigte sich in long lasting positivity; 200-900 ms)<br />

- Keine <strong>der</strong> beiden Gruppen erkannte <strong>die</strong> schwachen<br />

Tonhöhenunterschiede in <strong>der</strong> Melo<strong>die</strong> sign. besser<br />

(<strong>Musik</strong>er aber Anstieg in N300)<br />

- Kin<strong>der</strong> mit musikalischem Training zeigten Verbesserung<br />

<strong>der</strong> Lesefähigkeit


4. Transfereffekte (Moreno et al., 2008)


4. Transfereffekte (Schön et al., 2004)<br />

Tonhöhen unterscheiden in <strong>Sprache</strong> und <strong>Musik</strong><br />

Erwachsene <strong>Musik</strong>er vs. Nichtmusiker<br />

Aktivität des rechten auditorischen Kortex erwartet<br />

Verhaltensdaten und ERP


4. Transfereffekte (Schön et al., 2004)<br />

Resultate<br />

- <strong>Musik</strong>er erkannten schwache und starke<br />

Tonunterschiede in <strong>Sprache</strong> und <strong>Musik</strong> besser<br />

- Starke Verän<strong>der</strong>ung: Late positivity und ausgeprägtere<br />

negativity in <strong>Sprache</strong> und <strong>Musik</strong> bei allen Probanden<br />

→ <strong>Musik</strong>er 50 ms früher<br />

- Schwache Verän<strong>der</strong>ung: ausgeprägtere positivity in<br />

<strong>Sprache</strong> bei allen Probanden → <strong>Musik</strong>er 100 ms früher;<br />

ausgeprägtere positivity in <strong>Musik</strong> nur bei <strong>Musik</strong>ern


4. Transfereffekte (Marques et al., 2007)<br />

Tonhöhen unterscheiden in Fremdsprache<br />

Erwachsene <strong>Musik</strong>er vs. Nichtmusiker (Muttersprache<br />

französisch)<br />

Portugiesische Sätze mit:<br />

- normaler Tonhöhe des letzten Wortes<br />

- leicht verän<strong>der</strong>ter Tonhöhe (1/5 höher)<br />

- stark verän<strong>der</strong>ter Tonhöhe (1/2 höher)


4. Transfereffekte (Marques et al., 2007)<br />

Resultate<br />

- <strong>Musik</strong>er waren in allen Bedingungen schneller und<br />

erkannten schwache Verän<strong>der</strong>ungen sign. besser<br />

- Starke Verän<strong>der</strong>ung: bei <strong>Musik</strong>ern 200-400 ms<br />

bei Nichtmusikern 400-600 ms<br />

- Schwache Verän<strong>der</strong>ung: bei <strong>Musik</strong>ern 400-600 ms<br />

bei Nichtmusikern 800-1000ms<br />

- Negativity (<strong>Musik</strong>er 300-600 ms; Nichtmusiker 400-800<br />

ms) deutet auf Suche nach Bedeutung hin<br />

- In Muttersprache insgesamt schneller aber mehr Fehler


4. Transfereffekte (Marques et al., 2007)


4. Transfereffekte (Neuhaus et al., 2006)<br />

Erkennen von Satzunterbrüchen/Phrasen mit closure<br />

positive shift (CPS) verbunden → lässt sich in <strong>Sprache</strong><br />

und <strong>Musik</strong> finden<br />

Phrasen gekennzeichnet durch:<br />

-Pausen<br />

- Länge des letzten Tones vor <strong>der</strong> Pause<br />

- Harmonie des letzten Tones vor <strong>der</strong><br />

Pause<br />

Einfluss <strong>die</strong>ser Merkmale; <strong>Musik</strong>er vs. Nichtmusiker?


4. Transfereffekte (Neuhaus et al., 2006)<br />

ERP ERF<br />

<strong>Musik</strong>er Nichtmusiker <strong>Musik</strong>er<br />

Nichtmusiker


4. Transfereffekte (Neuhaus et al., 2006)<br />

Resultate<br />

- <strong>Musik</strong>er: verarbeiten Phrasen in <strong>Musik</strong> ähnlich wie in<br />

<strong>Sprache</strong>; CPS und CPSm<br />

- Nichtmusiker: verarbeiten Phrasen in <strong>Musik</strong> eher als<br />

Unregelmässigkeiten in Melo<strong>die</strong>; Negativity und<br />

schwächer ausgeprägte CPSm<br />

- „Phrasenmarker“ hatten Einfluss auf Ausprägung <strong>der</strong><br />

CPS<br />

→ CPS reflektiert höhere kognitive Prozesse


5. Fazit<br />

Keine spezifischen Domänenareale o<strong>der</strong><br />

domänenspezifische Lateralisation<br />

Unterschiedliche Verarbeitung abhängig von Aspekt<br />

eines spektrotemporalen Musters, <strong>der</strong> verarbeitet<br />

werden soll<br />

Transfereffekte zwischen <strong>Musik</strong> und <strong>Sprache</strong>:<br />

- bei Kin<strong>der</strong>n und Erwachsenen<br />

- Muttersprache und<br />

Fremdsprache<br />

- durch Trainingsdauer erhöht


6. Fragen<br />

Welche beiden Aspekte sind in <strong>Musik</strong> und <strong>Sprache</strong> zu<br />

finden? Sind sie auf gemeinsame o<strong>der</strong> getrennte<br />

Verarbeitungsprozesse zurückzuführen?<br />

Proso<strong>die</strong> ist rechts lateralisiert<br />

Transfereffekte beschränken sich auf das Erkennen<br />

von Tonhöhenunterschieden<br />

Welche Unterschiede zeigen sich in <strong>der</strong><br />

Phrasenverarbeitung zwischen <strong>Musik</strong>ern und<br />

Nichtmusikern?


7. Literatur<br />

Geiser, E., Zachle, T., Jäncke, L. & Meyer, M. (2008). The Neural Correlate of Speech<br />

Rhythm as Evidenced by Metrical Speech Processing, Journal of Cognitive<br />

Neuroscience, 20, pp. 541-552.<br />

Marques, C., Moreno, S., Castro, S. L. & Besson, M. (2007). Musicians Detect Pitch<br />

Violation in a Foreign Language Better Than Nonmusicians: Behavioral and<br />

Electrophysiological Evidence, Journal of Cognitive Neuroscience, 19, pp. 1453-1463.<br />

Meyer, M., Steinhauer, K., Alter, K., Frie<strong>der</strong>ici, A. D. & Cramon, D. Y. (2003). Brain<br />

activity varies with modulation of dynamic pitch variance in sentence melody, Brain and<br />

Language, 89, pp. 277-289.<br />

Moreno, S. & Besson, M. (2006). Musical training and language-related brain electrical<br />

activity in children, Psychophysiology, 43, pp. 287-291.<br />

Moreno, S., Marques, C., Santos, A., Santos, M., Castro, S. L. & Besson, M. (2009).<br />

Musical Training Influences Lingusitic Abilities in 8-Year-Old Children: More Evidence<br />

for Brain Plasticity, Cerebral Cortex, 19, pp. 712-723.<br />

Neuhaus, C., Knösche, R. T. & Frie<strong>der</strong>ici, A. D. (2006). Effects of Musical Expertise and<br />

Boundary Markers on Phrase Perception in Music, Journal of Cognitive Neuroscience,<br />

18, pp. 472-493.<br />

Schön, D. , Magne, C. & Besson, M. (2004). The music of speech: Music training<br />

facilitates pitch processing in both music and language, Psychophysiology, 41, pp. 341-<br />

349.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!