24.10.2012 Aufrufe

Grammatiktheorie - German Grammar Group FU Berlin - Freie ...

Grammatiktheorie - German Grammar Group FU Berlin - Freie ...

Grammatiktheorie - German Grammar Group FU Berlin - Freie ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

318 11 Diskussion<br />

Wie die vier Fallstudien gezeigt haben, kann es Gründe dafür geben, das acquirendum<br />

abzulehnen. Wenn das acquirendum nicht erworben werden muss, dann liegt auch kein<br />

Beweis für angeborenes sprachliches Wissen vor. Das acquirendum muss zumindest beschreibungsadäquat<br />

sein. Das ist eine empirische Frage, die Linguisten lösen können. In<br />

drei von vier der von Pullum und Scholz diskutierten PoS-Argumente gab es Teile, die<br />

nicht beschreibungsadäquat sind. In den vorangegangenen Abschnitten haben wir bereits<br />

andere PoS-Argumente kennengelernt, die ebenfalls empirisch nicht haltbare Behauptungen<br />

bzgl. linguistischer Daten involvierten (z. B. das Subjazenzprinzip). Für die anderen<br />

Punkte in (60) ist interdisziplinäre Arbeit nötig: Die Lacuna-Spezifikation fällt in die Theorie<br />

der formalen Sprachen (Spezifikation einer Menge von Äußerungen), das Unverzichtbarkeitsargument<br />

ist eine mathematische Aufgabe aus dem Bereich der Lerntheorie, die<br />

Unzugänglichkeitsevidenz ist eine empirische Frage, die mit Zugriff auf Korpora angegangen<br />

werden kann, und die Acquisitionsevidenz ist eine Frage der experimentellen Entwicklungspsychologie<br />

(Pullum und Scholz: 2002, 19–20).<br />

Pullum und Scholz (2002, 46) weisen auf ein interessantes Paradox in Bezug auf (60c)<br />

hin: Ohne Ergebnisse aus der mathematischen Lerntheorie kann man (60c) nicht leisten.<br />

Wenn man funktionierende Poverty-of-the-Stimulus-Argumente führen will, muss das automatisch<br />

zu Verbesserungen in der Lerntheorie führen, d. h., man kann dann mehr lernen,<br />

als man vorher angenommen hatte.<br />

11.1.8.3 Unsupervised Data-Oriented Parsing (U-DOP)<br />

Bod (2009b) hat ein Verfahren entwickelt, mit dem man aus einem Korpus Strukturen<br />

ableiten kann. Das Verfahren benötigt keine Information über Wortarten oder Beziehungen<br />

zwischen Wörtern in Äußerungen. Die einzige Annahme, die man machen muss, ist, dass<br />

es überhaupt Struktur gibt. Das Verfahren besteht aus drei Schritten:<br />

1. Berechne alle möglichen (binär verzweigenden) Bäume (ohne Kategoriesymbole)<br />

für eine Menge gegebener Sätze.<br />

2. Teile diese Bäume in alle Teilbäume auf.<br />

3. Berechne den besten Baum für jeden Satz.<br />

Das Verfahren soll anhand der Sätze in (61) erklärt werden:<br />

(61) a. Watch the dog.<br />

b. The dog barks.<br />

Die Bäume, die diesen Äußerungen zugewiesen werden, verwenden als Kategoriesymbol<br />

nur X, da die Kategorien für entsprechende Phrasen (noch) nicht bekannt sind. Damit das<br />

Beispiel übersichtlich bleibt, wird den Wörtern selbst nicht die Kategorie X zugewiesen,<br />

obwohl man das natürlich machen kann. Abbildung 11.1 auf der gegenüberliegenden Seite<br />

zeigt die Bäume für (61). Diese Bäume haben die Teilbäume, die in Abbildung 11.2 auf<br />

Seite 320 zu sehen sind. Im dritten Schritt müssen wir nun den besten Baum für jede Äußerung<br />

berechnen. Für The dog barks. gibt es in der Menge der Teilbäume zwei Bäume,<br />

die genau dieser Äußerung entsprechen. Man kann Strukturen aber auch aus Teilbäumen<br />

zusammenbauen. Für The dog barks. gibt es also mehrere Ableitungen, die die Bäume aus<br />

11.1 Angeborenheit sprachspezifischen Wissens 319<br />

X<br />

X<br />

watch the dog<br />

X<br />

X<br />

the dog barks<br />

X<br />

X<br />

watch the dog<br />

X<br />

X<br />

the dog barks<br />

Abbildung 11.1: Mögliche binär verzweigende Strukturen für Watch the dog und The dog<br />

barks.<br />

Abbildung 11.2 verwenden: zum einen die trivialen Ableitungen, die einfach einen kompletten<br />

Baum nehmen und zum anderen die Ableitungen, die einen Baum aus Teilbäumen<br />

zusammensetzen. Abbildung 11.3 auf Seite 321 zeigt im Überblick, wie so ein Zusammenbau<br />

aus Teilbäumen erfolgt. Will man nun entscheiden, welche der beiden Analysen<br />

in (62) die beste ist, so muss man die Wahrscheinlichkeit der jeweiligen Bäume errechnen.<br />

(62) a. [[the dog] barks]<br />

b. [the [dog barks]]<br />

Die Wahrscheinlichkeit eines Baumes ist die Summe der Wahrscheinlichkeiten all seiner<br />

Analysen. (62b) hat zwei Analysen, die beide in Abbildung 11.3 zu sehen sind. Die Wahrscheinlichkeit<br />

der ersten Analyse für (62b) entspricht der Wahrscheinlichkeit dafür, dass<br />

man aus der Menge aller Teilbäume genau den kompletten Baum für [the [dog barks]]<br />

auswählt. Da es zwölf Teilbäume gibt, ist die Wahrscheinlichkeit 1/12. Die Wahrscheinlichkeit<br />

der zweiten Analyse ergibt sich aus dem Produkt der Wahrscheinlichkeiten der<br />

Teilbäume, die kombiniert werden, und ist also 1/12 × 1/12 = 1/144. Die Wahrscheinlichkeit<br />

für die Analyse in (62b) ist somit 1/12 + (1/12 × 1/12) = 13/144. Genauso kann man<br />

die Wahrscheinlichkeit für den Baum (62a) errechnen. Der einzige Unterschied ist hier,<br />

dass der Baum für [the dog] in der Menge der Teilbäume zweimal vorkommt. Seine Wahrscheinlichkeit<br />

beträgt also 2/12. Die Wahrscheinlichkeit für den Baum [[the dog] barks]<br />

ist somit: 1/12 + (1/12 × 2/12) = 14/144. Wir haben also aus dem Korpus Wissen über<br />

plausible Strukturen extrahiert. Dieses Wissen kann man auch anwenden, wenn man neue<br />

Äußerungen hört, für die es keine vollständigen Bäume gibt. Man kann dann bereits bekannte<br />

Teilbäume verwenden, um Wahrscheinlichkeiten für mögliche Analysen der neuen<br />

Äußerung zu berechnen. Das Modell von Bod lässt sich auch mit Gewichten kombinieren,<br />

die Sätze, die ein Sprecher vor langer Zeit gehört hat, geringer wichtet. Man wird dadurch<br />

der Tatsache gerecht, dass Kinder nicht gleichzeitig über alle Sätze verfügen, die sie jemals<br />

gehört haben. Das Modell wird dadurch plausibler für den Spracherwerb.<br />

Im obigen Beispiel haben wir den Wörtern keine Kategorie zugewiesen. Das kann man<br />

aber tun und dann erhält man als möglichen Teilbaum auch den Baum in Abbildung 11.4<br />

auf Seite 321. Solcherart diskontinuierlicher Teilbäume sind wichtig, wenn man Abhängigkeiten<br />

zwischen Elementen erfassen will, die in verschiedenen Teilbäumen eines Baumes<br />

stehen. Beispiele sind:

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!