09.10.2012 Aufrufe

Lassen sich Signifikanztests auf Vollerhebungen ... - SpringerLink

Lassen sich Signifikanztests auf Vollerhebungen ... - SpringerLink

Lassen sich Signifikanztests auf Vollerhebungen ... - SpringerLink

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

O-12 Joachim Behnke<br />

4. Fazit<br />

Zur Durchführung eines <strong>Signifikanztests</strong> bedarf es einer Teststatistik, deren Wahrscheinlichkeitsverteilung<br />

berechnet werden kann, so dass wir <strong>auf</strong>grund bestimmter<br />

Werte der Teststatistik entscheiden können, ob ein bestimmtes Ergebnis im Sinne des<br />

angewandten Tests als signifikant einzustufen ist. Am einfachsten lässt <strong>sich</strong> die Wahrscheinlichkeitsverteilung<br />

einer solchen Teststatistik berechnen, wenn sie <strong>auf</strong>grund eines<br />

stochastischen Prozesses zustande gekommen ist. Im Falle der klassischen Test- und<br />

Schätztheorie, bei der wir von den Stichprobenstatistiken <strong>auf</strong> die Parameterwerte der<br />

Grundgesamtheit schließen, modellieren wir den stochastischen Prozess als einen Auswahlvorgang,<br />

der analog zur Durchführung eines Zufallsexperiments <strong>auf</strong>gefasst werden<br />

kann. Das Problem der Verzerrung der Stichprobe gegenüber der Grundgesamtheit<br />

wird daher in der Regel einzig und allein <strong>auf</strong> den Zufallscharakter der Auswahl der<br />

Fälle, die in die Stichprobe eingehen, zurückgeführt, und andere stochastische Elemente,<br />

die bei der Generierung der Stichprobe eine Rolle spielen könnten, werden gewöhnlich<br />

ignoriert.<br />

Stellt die Stichprobe eine Vollerhebung dar, dann fällt unter dieser Voraussetzung<br />

das stochastische Element vollkommen unter den Tisch, womit auch der Durchführung<br />

eines <strong>Signifikanztests</strong> jegliche Begründung entzogen wird. Tatsächlich aber ist der<br />

stochastische Charakter der Daten einer Stichprobe nicht nur <strong>auf</strong> die Auswahlproblematik<br />

beschränkt, vielmehr lassen <strong>sich</strong> mindestens drei wichtige Stufen der Generierung<br />

der Stichprobenwerte unterscheiden, <strong>auf</strong> denen jeweils Zufallsprozesse eine Rolle<br />

spielen. Die erste Stufe betrifft die Generierung der Daten selbst, genauer gesagt, der<br />

„echten“ Daten. Die Eigenschaften, durch deren Messung an den Elementen der Stichprobe<br />

unsere Daten erst entstehen, können unter Umständen als Ergebnis eines Zufallsprozesses<br />

<strong>auf</strong>gefasst werden, der erst die Wirklichkeit in ihrer konkreten Form, so<br />

wie wir sie vorfinden, geschaffen hat. Wir können dies daher den ontologischen stochastischen<br />

Aspekt unseres Inferenzproblems nennen. Die zweite Stufe besteht in der Abbildung<br />

der Ausprägungen der uns interessierenden Eigenschaften der Objekte in Messwerte.<br />

Prinzipiell können bei jeder Messung Fehler <strong>auf</strong>treten, und diese können größer<br />

oder kleiner ausfallen. Auch Messfehler können so betrachtet werden, als wären sie<br />

durch einen Zufallsprozess hervorgebracht worden. Die dritte Stufe stellt schließlich<br />

die Auswahl unserer Stichprobenfälle aus der Grundgesamtheit dar.<br />

Ist nun die Stichprobe eine Vollerhebung, so ist klar, dass bezüglich der Generierung<br />

unserer (datenorientierten) Stichprobe der zufällige Selektionsprozess, die dritte<br />

Stufe, keine Rolle mehr spielen kann. Es gibt nur eine Stichprobe, die sämtliche Fälle<br />

der Grundgesamtheit enthält, nämlich die Grundgesamtheit selbst. Daraus könnte nun<br />

auch die Schlussfolgerung gezogen werden: Alle Stichprobenstatistiken sind die Grundgesamtheitsparameter.<br />

Paradoxerweise ist diese Schlussfolgerung jedoch nicht unbedingt<br />

richtig, und dies liegt an den anderen beiden stochastischen Elementen, die bei der<br />

Generierung der Stichprobendatenwerte weiterhin am Werk waren.<br />

Betrachten wir zuerst den ontologischen stochastischen Aspekt unseres Problems.<br />

Wenn wir <strong>auf</strong> der Ebene der Generierung der „unverfälschten“ und „echten“ Daten einen<br />

Zufallsprozess annehmen, dann ist es weiterhin möglich, inferenzstatistische Verfahren<br />

einzusetzen. Allerdings betrachten wir unsere Vollerhebung dann nicht mehr als

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!