Lassen sich Signifikanztests auf Vollerhebungen ... - SpringerLink
Lassen sich Signifikanztests auf Vollerhebungen ... - SpringerLink
Lassen sich Signifikanztests auf Vollerhebungen ... - SpringerLink
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
O-12 Joachim Behnke<br />
4. Fazit<br />
Zur Durchführung eines <strong>Signifikanztests</strong> bedarf es einer Teststatistik, deren Wahrscheinlichkeitsverteilung<br />
berechnet werden kann, so dass wir <strong>auf</strong>grund bestimmter<br />
Werte der Teststatistik entscheiden können, ob ein bestimmtes Ergebnis im Sinne des<br />
angewandten Tests als signifikant einzustufen ist. Am einfachsten lässt <strong>sich</strong> die Wahrscheinlichkeitsverteilung<br />
einer solchen Teststatistik berechnen, wenn sie <strong>auf</strong>grund eines<br />
stochastischen Prozesses zustande gekommen ist. Im Falle der klassischen Test- und<br />
Schätztheorie, bei der wir von den Stichprobenstatistiken <strong>auf</strong> die Parameterwerte der<br />
Grundgesamtheit schließen, modellieren wir den stochastischen Prozess als einen Auswahlvorgang,<br />
der analog zur Durchführung eines Zufallsexperiments <strong>auf</strong>gefasst werden<br />
kann. Das Problem der Verzerrung der Stichprobe gegenüber der Grundgesamtheit<br />
wird daher in der Regel einzig und allein <strong>auf</strong> den Zufallscharakter der Auswahl der<br />
Fälle, die in die Stichprobe eingehen, zurückgeführt, und andere stochastische Elemente,<br />
die bei der Generierung der Stichprobe eine Rolle spielen könnten, werden gewöhnlich<br />
ignoriert.<br />
Stellt die Stichprobe eine Vollerhebung dar, dann fällt unter dieser Voraussetzung<br />
das stochastische Element vollkommen unter den Tisch, womit auch der Durchführung<br />
eines <strong>Signifikanztests</strong> jegliche Begründung entzogen wird. Tatsächlich aber ist der<br />
stochastische Charakter der Daten einer Stichprobe nicht nur <strong>auf</strong> die Auswahlproblematik<br />
beschränkt, vielmehr lassen <strong>sich</strong> mindestens drei wichtige Stufen der Generierung<br />
der Stichprobenwerte unterscheiden, <strong>auf</strong> denen jeweils Zufallsprozesse eine Rolle<br />
spielen. Die erste Stufe betrifft die Generierung der Daten selbst, genauer gesagt, der<br />
„echten“ Daten. Die Eigenschaften, durch deren Messung an den Elementen der Stichprobe<br />
unsere Daten erst entstehen, können unter Umständen als Ergebnis eines Zufallsprozesses<br />
<strong>auf</strong>gefasst werden, der erst die Wirklichkeit in ihrer konkreten Form, so<br />
wie wir sie vorfinden, geschaffen hat. Wir können dies daher den ontologischen stochastischen<br />
Aspekt unseres Inferenzproblems nennen. Die zweite Stufe besteht in der Abbildung<br />
der Ausprägungen der uns interessierenden Eigenschaften der Objekte in Messwerte.<br />
Prinzipiell können bei jeder Messung Fehler <strong>auf</strong>treten, und diese können größer<br />
oder kleiner ausfallen. Auch Messfehler können so betrachtet werden, als wären sie<br />
durch einen Zufallsprozess hervorgebracht worden. Die dritte Stufe stellt schließlich<br />
die Auswahl unserer Stichprobenfälle aus der Grundgesamtheit dar.<br />
Ist nun die Stichprobe eine Vollerhebung, so ist klar, dass bezüglich der Generierung<br />
unserer (datenorientierten) Stichprobe der zufällige Selektionsprozess, die dritte<br />
Stufe, keine Rolle mehr spielen kann. Es gibt nur eine Stichprobe, die sämtliche Fälle<br />
der Grundgesamtheit enthält, nämlich die Grundgesamtheit selbst. Daraus könnte nun<br />
auch die Schlussfolgerung gezogen werden: Alle Stichprobenstatistiken sind die Grundgesamtheitsparameter.<br />
Paradoxerweise ist diese Schlussfolgerung jedoch nicht unbedingt<br />
richtig, und dies liegt an den anderen beiden stochastischen Elementen, die bei der<br />
Generierung der Stichprobendatenwerte weiterhin am Werk waren.<br />
Betrachten wir zuerst den ontologischen stochastischen Aspekt unseres Problems.<br />
Wenn wir <strong>auf</strong> der Ebene der Generierung der „unverfälschten“ und „echten“ Daten einen<br />
Zufallsprozess annehmen, dann ist es weiterhin möglich, inferenzstatistische Verfahren<br />
einzusetzen. Allerdings betrachten wir unsere Vollerhebung dann nicht mehr als