Psychologische Diagnostik - Universität Regensburg
Psychologische Diagnostik - Universität Regensburg
Psychologische Diagnostik - Universität Regensburg
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>Psychologische</strong> <strong>Diagnostik</strong><br />
True score Theorie<br />
WS 2010/11<br />
Prof. Dr. Jan Drösler<br />
Universität <strong>Regensburg</strong><br />
Einführung<br />
Wissenschaftliche Durchdringung der<br />
Psychodiagnostik ist erforderlich, weil<br />
intuitive Anwendung von „Menschenkenntnis“<br />
im wesentlichen zu Selbsttäuschung<br />
führt. Die Erfahrung zeigt, daß freihändige<br />
Verfahren der psychologischen <strong>Diagnostik</strong>,<br />
etwa Untersuchungsgespräche aus<br />
dem Stegreif, in der Regel von verschwindender<br />
Gültigkeit sind.<br />
Ein verbreiteter Fehler der Psychodiagnostik<br />
besteht darin, den Unterschied von<br />
Testergebnis und dessen Bedeutung zu<br />
übersehen. Beispiel: Testergebnis ist „kann<br />
[Oachkoatzlschwoaf] korrekt aussprechen“,<br />
Bedeutung : „ist ein Eingeborener“<br />
bzw. „kein solcher“ Zuordnung von Ergebnis<br />
(Befund, U) zu Bedeutung, (Kriterium<br />
, Θ )m allgemeinen nur stochastisch<br />
als p(Θ | U).<br />
Rückgriff auf mehrere Befunde.<br />
Das Grundproblem der Psychodiagnostik<br />
ist überraschenderweise die Auswertung<br />
der Ergebnisse von Mehrfachzugriffen,<br />
also die Auswertung eines „Tests“. Ist es<br />
vertretbar, „Testpunkte“ zu addieren und<br />
Die so entstandenen Summen zu interpretieren?<br />
Beispiel: vier Zugriffe („Items“):<br />
Nur naive Personen, wie solche, die sogenanntes<br />
„Ranking“ betreiben, halten hier<br />
nur fünf verschiedene Antwortmuster für<br />
möglich. In Wirklichkeit sind es 16, allgemein<br />
zwei hoch die Anzahl der Aufgaben.<br />
Das wissenschaftliche Problem der psychologischen<br />
<strong>Diagnostik</strong> besteht darin,<br />
nachzuweisen, dass Versuchspersonen mit<br />
der gleichen Anzahl korrekter Lösungen<br />
psychologisch äquivalent sind.<br />
Verschiedene Zugänge<br />
1 Meßtheoretisch : Formuliere die Voraussetzungen<br />
in empirischer Sprache und<br />
prüfe sie.<br />
2 Statistisch a: Sorge für die Erschöpfungseigenschaft<br />
der erwünschten Summenstatistik,<br />
oder b: Zeige empirisch die
(stochastische) Abhängigkeit der Testskala<br />
von der Kriteriumsskala.<br />
Als Gültigkeit oder Validität wird die Bedeutung<br />
eines Untersuchungsergebnisses<br />
über sich selbst hinaus bezeichnet. Zur<br />
Erreichung einer wissenschaftliche Nachprüfbarkeit<br />
von Untersuchungsergebnissen<br />
ist Objektivität der Untersuchung geboten.<br />
Das Verfahren muß so organisiert sein, daß<br />
die Ergebnisse nicht von der Person des<br />
Untersuchers abhängen.<br />
Dennoch lässt sich die gewünschte Reproduzierbarkeit<br />
der Ergebnisse nicht erreichen.<br />
Wiederholungen einer Untersuchung<br />
am gleichen Probanden fallen unterschiedlich<br />
aus. Sie sind im einzelnen nicht vorhersagbar.<br />
Die Psychologie ist zu der Feststellung<br />
veranlasst, das menschliches Verhalten,<br />
sowohl das Antwortverhalten in<br />
einem Test, wie auch das Verhalten in Bezug<br />
auf das die Bedeutung des Tests tragenden<br />
Kriteriums zufällig ist. Verhalten<br />
ist nicht im einzelnen, sondern nur als Angabe<br />
einer Menge von möglichen Ergebnissen<br />
vorhersagbar.<br />
Testverfahren<br />
Ein Quintupel < Ω, , , f, X > ist ein<br />
Testverfahren, wenn Ω eine Menge von<br />
Elementarantworten zu einer Aufgabensammlung,<br />
eine σ-Algebra von Teilmengen<br />
aus Ω ist, ein Wahrscheinlichkeitsmaß<br />
auf , f : Ω → Φ<br />
eine Abbildung in die Menge Φ der untersuchten<br />
Personen und X : Ω → eine Zufallsgröße<br />
ist, z.B. die Summe der richtigen<br />
Lösungen.<br />
Beispiel (Thurstone, 1943). Instruktion:„Markiere<br />
den Bereich, der von einer<br />
gestrichelten und einer durchgezogenen<br />
Figur eingeschlossen ist“.<br />
Ein Beispiel eines Antwortmusters für<br />
einen Test, der aus nur einer Aufgabe besteht,<br />
ist die Menge Ω = {„richtig“,<br />
„falsch“}. Bei einem Test mit mehreren<br />
Aufgaben besteht diese Ereignismenge<br />
meist aus der Menge der durchnumerierten<br />
Antwortmöglichkeiten bzw. der Menge<br />
der namentlich gekennzeichnete durchnumerierten<br />
Antwortprotokolle.<br />
Aufgabe der psychologischen <strong>Diagnostik</strong><br />
ist es, den mit einem bestimmten Ergebnis<br />
oder einer logischen Kombination von<br />
mehreren Ergebnissen verbundenen Grad<br />
an Gewißheit z. B. einer korrekten Lösung<br />
für eine Person zu bestimmen.<br />
Der naturwissenschaftliche Wahrheitsbegriff<br />
wird auch in der psychologischen<br />
<strong>Diagnostik</strong> eingesetzt. Diagnosen sind nur<br />
dann wahr, wenn sie als Prognosen verstanden<br />
werden können und tatsächlich<br />
eintreffen. Der Grad, mit dem das empirisch<br />
der Fall ist, heißt Validität. Um den<br />
Begriff der Validität begründen zu können,<br />
sind einige Voraussetzungen zu klären.<br />
Skalierung der Gewissheit nach Kolmogorov<br />
(1933).<br />
Sei Ω eine Menge von Ergebnissen. Alle<br />
logischen Kombinationen der Elemente<br />
von Ω sollen verfügbar sein. Das geschieht<br />
mittels einer<br />
σ-Algebra von Teilmengen von Ω . Sie<br />
ist bezüglich dem Mengendurchschnitt <br />
und der Mengenvereinigung auch gegenüber<br />
abzählbarer und abzählbar unendlicher<br />
Anwendung abgeschlossen. Letztere<br />
Vereinbarung ist für die Behandlung von<br />
Mengenfolgen erforderlich, die in den<br />
Anwendungen der Wahrscheinlichkeitstheorie<br />
vorkommen.<br />
Damit ist die Verfügbarkeit der denkbaren<br />
logischen Kombinationen von Elementen<br />
aus Ω gegeben. Weil eine solche Mengen-
algebra umkehrbar eindeutig auf die Aussagenlogik<br />
abbildbar ist, lassen sich die<br />
Verknüpfungen und auch als „und“<br />
bzw. „oder“ lesen. Besteht also die Ergebnismenge<br />
Ω aus den Antwortmustern, dann<br />
lässt sich aus die Menge der Protokolle<br />
herausgreifen, die beispielsweise die dritte<br />
und die fünfte Aufgabe als richtig beantwortet<br />
ausweisen.<br />
Ein Paar < Ω, > heißt meßbarer Raum.<br />
Auf ihm ist ein Maß μ einführbar, das die<br />
Eigenschaften besitzt, die uns beispielsweise<br />
von der Flächenmessung her geläufig<br />
sind: Ein Maß ist eine gegenüber disjunkten<br />
Elementen additive,<br />
(A B) = (A) + (B) gdw. A B =,<br />
nichtnegative Abbildung nach ,<br />
(A) 0 für alle A , mit μ( ) = 0.<br />
Wahrscheinlichkeit als spezielles Maß der<br />
Gewissheit. Die Wahrscheinlichkeit ist<br />
ein auf μ( Ω) = 1 normiertes Maß auf dem<br />
messbaren Raum < Ω, >. Das Tripel <<br />
Ω, , > bildet einen Wahrscheinlichkeitsraum.<br />
Seine Einführung im Zusammenhang der<br />
Testtheorie ermöglicht die wissenschaftliche<br />
Analyse des zufälligen Antwortverhalten<br />
der untersuchten Personen und<br />
deren Testergebnisse als Zufallsgrößen.<br />
Zufallsgrößen sind Abbildungen der<br />
Grundmenge Ω eines Wahrscheinlichkeitsraumes<br />
< Ω, , > in die reellen Zahlen<br />
, so daß die Umkehrabbildung existiert<br />
und ihre Bilder in liegen. Beispiele sind<br />
alle zahlenmäßigen Testauswertungen,<br />
etwa die Rohwerte, die Versuchspersonen<br />
an einem Intelligenztest erzielt haben. In<br />
diesem Falle besteht Ω wieder aus der<br />
Menge aller möglichen Antwortmuster des<br />
Tests. Die Meßbarkeit beispielsweise der<br />
Abbildung „Intelligenzquotient“ (IQ) ermöglicht<br />
bei gegebenem IQ mittels Umkehrabbildung<br />
die Bestimmung der Wahrscheinlichkeit<br />
des Auftretens einer Person<br />
mit mindestens diesem IQ .<br />
Schwache Truescore-Theorie<br />
Truescore Theorie ist dadurch gekennzeichnet,<br />
daß sie die Testrohwerte als Befunde<br />
einer diagnostischen Untersuchung<br />
in zwei Komponenten aufspaltet, den sogenannten<br />
wahren Anteil und die Fehlerkomponente.<br />
Schwache Truescore-Theorie<br />
verzichtet dabei auf Annahmen über die<br />
Verteilungen dieser Komponenten oder der<br />
Rohwerte selbst. Sie setzt lediglich die<br />
Existenz niederer Momente dieser Verteilungen<br />
voraus. Unter diesen Momenten<br />
sind vor allem der Erwartungswert, die<br />
Varianz und im zweidimensionalen Falle<br />
die Kovarianz zu nennen.<br />
Der Erwartungswert einer Zufallgröße<br />
X ist definiert als X = X p(X), wobei<br />
das Produkt der Ausprägung der Zufallsgröße<br />
und der entsprechenden Auftretenswahrscheinlichkeit<br />
über den gesamten Bereich<br />
von X zu summieren, (im kontinuierlichen<br />
Falle, z. B. bei Reaktionszeiten, zu<br />
integrieren) ist. Die Erwartungswertbildung<br />
ist ein linearer Operator:<br />
(X + Y) = (X) + (Y)<br />
( X) = (X), <br />
(Additivität),<br />
(Homogenität).<br />
Der Erwartungswert sollte nicht mit dem<br />
(Stichproben-)Mittelwert verwechselt werden.<br />
Dieser ist als Summe der mit den<br />
Häufigkeiten gewichtete Summe der verschiedenen<br />
Realisierungen einer Zufallgröße,<br />
dividiert durch deren Anzahl definiert.<br />
Er dient meist zur Schätzung des<br />
Erwartungswerts. Die Varianz einer Zufallsgröße<br />
X ist definiert als var(X) =<br />
²(X) = X² - (X)².<br />
Die Kovarianz zweier Zufallsgrößen X und<br />
Y ist definiert als cov(X,Y) = XY - X<br />
Y. Validität wird als statistischer Korrelationskoeffizient<br />
zwischen Test und Kriterium<br />
ausgedrückt. Ein Korrelationskoeffizient<br />
xy ist die auf das geometrische Mittel<br />
der Varianzen [²(x)²(y)] normierte<br />
Kovarianz von X und X: xy = cov(X,Y)/<br />
[²(X)²(Y)] Validitätskoeffizienten,<br />
lassen sich wie die Erfahrung gelehrt hat,
von Null für freihändiges Vorgehen mittels<br />
objektiver Tests auf Werte um 0,55 (für<br />
einen zweijährigen Prognosezeitraum) erhöhen.<br />
Testverfahren<br />
Ein Quintupel < Ω, , , f, X > ist ein<br />
Testverfahren, wenn Ω die Ergebnismenge<br />
ist (in der Anwendung meist diejenige<br />
Menge von Aufgabenprotokollen, die die<br />
kleinste Auswertungseinheiten sind),<br />
eine σ-Algebra von Teilmengen aus Ω<br />
ist, ein Wahrscheinlichkeitsmaß auf ,f : Ω → Φ eine zufällige Abbildung<br />
in die Menge Φ der untersuchten Personen,<br />
mit der die Testprotokolle den untersuchten<br />
Personen zugeordnet werden, und X :<br />
Ω → , der Rohwert, eine Zufallsgröße<br />
ist. Die untersuchte Person wird als zufällig<br />
aus der Personenmenge Φ ausgewählt<br />
betrachtet.f : Ω → Φ , ω α Auch hier ist<br />
damit impliziert, daß die Umkehrabbildung<br />
f^(-1) existiert und ihre Bilder in einer σ-<br />
Algebra über Ω liegen. Mittels f^(-1)(α)<br />
= B ist die Teilmenge B aller von einer<br />
bestimmten Person α erzeugten Antwortmuster<br />
.Mittels f wird demnach die<br />
Menge aller Antwortprotokolle Ω in eine<br />
Menge von Äquivalenzklassen Ω/ f = <br />
zerlegt. Jede Äquivalenzklasse enthält alle<br />
Antwortprotokolle einer bestimmten Person<br />
f(ω) Wenn bei Zufallsgrößen, wie es<br />
Testergebnisse sind, Varianzen und Kovarianzen<br />
gegeben sind, so kann man deren<br />
Definition leicht in ein allgemeineres algebraisches<br />
Konzept einbringen, das interessante<br />
Möglichkeiten des Theoretisierens<br />
eröffnet.<br />
Die einfachste Zufallsgröße<br />
Besonders einfache Zufallgrößen kommen<br />
häufig in der Psychologie vor und besitzen<br />
die Ausprägungen Null und Eins. Beispiele<br />
von Ereignismengen, die zu derartigen<br />
Zufallsgrößen führen. {ja, nein}, {stimme<br />
zu, stimme nicht zu}, {männlich weiblich},<br />
{richtig, falsch}, {Kopf, Wappen},<br />
{sechs gewürfelt, andere Augenzahl gewürfelt}.<br />
Da nur zwei Zahlenwerte mit<br />
bestimmten Wahrscheinlichkeiten anfallen<br />
, spricht man von einer Zweipunktverteilung.<br />
Die elementare Beobachtung<br />
Zweipunktverteilungen beschreiben das<br />
Verhalten bei einer gegebenen Alternative.<br />
Man könnte u. a. an „Tests“ denken, die<br />
aus einer einzigen Aufgabe bestehen. Das<br />
wissenschaftliche Problem lautet: Besitzt<br />
die Beobachtung einer bestimmten Alternative<br />
irgendeine Bedeutung über sich<br />
selbst hinaus?<br />
Ergebnis und Bedeutung<br />
Untersucht wird, ob das Ergebnis mit irgend<br />
einer infragekommenden Bedeutung<br />
in Zusammenhang steht. Da von zufälligen<br />
Ereignissen die Rede ist, wird nach einem<br />
Zusammenhang in Wahrscheinlichkeit<br />
gesucht.<br />
Unabhängigkeit zweier Ereignisse A und B<br />
liegt vor, wenn gilt P(A | B) = P(A). Abhängigkeit<br />
ist gegeben, wenn statt dessen<br />
die Ungleichheit gilt.<br />
P(A | B) ≠ P(A).<br />
Empirische Überprüfung<br />
Zur Prüfung der Abhängigkeit eines Ergebnisses<br />
und dessen mutmaßlicher Bedeutung<br />
ist eine empirische Untersuchung<br />
erforderlich. Beispiel: Bedeutet die Verwicklung<br />
in einen Verkehrsunfall, daß die<br />
Person als „unvorsichtig“ zu charakterisieren<br />
ist? Wir beobachten 100 Versuchspersonen<br />
über ein Jahr:<br />
Zusammenhang von Beobachtung<br />
und Bedeutung<br />
Die Ereignisse A und B sind stochastisch<br />
unabhängig, wenn die bedingte Wahrscheinlichkeit<br />
von A gegeben B gleich der<br />
Unbedingten Wahrscheinlichkeit von A ist:
er-<br />
17<br />
(22)<br />
Ziel<br />
reicht<br />
„nicht<br />
gelöst“<br />
Ziel nicht 37<br />
erreicht (32)<br />
„gelöst“<br />
25<br />
(20)<br />
25<br />
(30)<br />
Summe<br />
42<br />
62<br />
Summe 54 50 104<br />
Falsche Entscheidungen<br />
Man vermeidet die Blamage, fälschlich<br />
einen (neuen) Effekt für die Wissenschaft<br />
zu behaupten, wenn man die entsprechende<br />
Irrtumswahrscheinlichkeit „der ersten Art“<br />
möglichst klein ( 0,01 oder 0,05) ansetzt.<br />
Einen bestehenden Effekt zu übersehen gilt<br />
als weniger ehrenrührig. Die entsprechende<br />
Irrtumswahrscheinlichkeit „der zweiten<br />
Art“ wird höher angesetzt (> 0.2).<br />
( A | B ) = ( A ).<br />
Diese Beziehung ist empirisch prüfbar<br />
Kontingenztafel<br />
Die Nullhypothese<br />
Fehlende stochastische Abhängigkeit liegt<br />
vor, wenn die Beobachtungen in allen vier<br />
Feldern proportional zu den Randsummen<br />
auftreten. Genau dann sind nämlich die<br />
bedingten Wahrscheinlichkeitsschätzungen<br />
gleich den unbedingten. Man berechnet<br />
deshalb die unter der Nullhypothese erwarteten<br />
Häufigkeiten durch Multiplikation<br />
der zugehörigen Randsummen und Division<br />
durch die Gesamtsumme<br />
Zufallskritische Prüfung<br />
Die „Nullhypothese“ ist statistisch prüfbar,<br />
sobald man über eine Prüfgröße verfügt.<br />
Für Kontingenztafeln wurde diese von<br />
Pearson entwickelt. Er wies nach, daß die<br />
Summe der quadrierten Differenzen von<br />
beobachteten und erwarteten Häufigkeiten,<br />
bezogen auf die erwarteten Häufigkeiten,<br />
χ²-verteilt mit einem Freiheitsgrad ist. Hier<br />
ergibt sich χ² = 3,6, nicht signifikant. Die<br />
Nullhypothese wird beibehalten<br />
Ansatz der klassischen Testtheorie<br />
Die klassische Testtheorie geht davon aus,<br />
daß zwischen dem Testergebnis und seiner<br />
Bedeutung (dem Kriterium) streng zu unterscheiden<br />
ist. Sie stellt in Rechnung, daß<br />
das Kriterium durch das Testergebnis nicht<br />
sicher, sondern nur in Wahrscheinlichkeit<br />
determiniert ist. Grund dafür sei eine Unschärfe<br />
des Testergebnisses.<br />
Reproduzierbarkeit von Testergebnissen<br />
Der empirische Ansatz zur Bearbeitung<br />
dieses Programms ist die Bestimmung der<br />
Unschärfe des Testergebnisses an Hand<br />
seiner Reproduzierbarkeit (Reliabilität). Zu<br />
diesem Zweck sind psychologische Untersuchungsverfahren<br />
stets mehrfach an den<br />
gleichen Personen anzuwenden. Das erzeugt<br />
offenkundige neue Schwierigkeiten<br />
und verlangt deshalb nach einer Theoretischen<br />
Aufarbeitung.<br />
Alternative Darstellungen<br />
Die Reproduzierbarkeit von Testergebnissen lässt<br />
sich auf verschiedene, grundsätzlich gleichwertige<br />
Weisen darstellen. Damit man Zeichnungen herstellen<br />
kann, werden vorübergehend Verteilungsannahmen<br />
für die Befunde eingeführt. Sie sollen unimodal<br />
und symmetrisch im Sinne der Gaußschen<br />
Normalverteilung auftreten.
f( x )<br />
1<br />
2<br />
2 e<br />
x 2<br />
Es ergibt sich für die Testergebnisse die bekannte<br />
glockenförmige Verteilungsdichte:<br />
2<br />
Nun kann man die gemeinsame (zweidimensionale)<br />
Verteilungsdichte zeichen. Graph der gemeinsamen<br />
Dichte für rho = 0,8 :<br />
Isodensiten<br />
Normalverteilte Testergebnisse (Erwartungswert<br />
null, Varianz eins).<br />
Bedingte Verteilungsdichte<br />
Manchmal verzichtet man auf eine perspektivisch<br />
dreidimensionale Darstellung und gibt den Sachverhalt<br />
durch Ellipsen in der x-y Ebene wieder.<br />
Diese „Isodensiten“ hängen mit der zweidimensionalen<br />
Verteilungsdichte so zusammen, wie die<br />
folgende Abbildung zeigt.<br />
Will man den Grad der Reproduzierbarkeit graphisch<br />
darstellen, so bezieht man sich auf eine<br />
zweidimensionale Verteilungsdichte von, beispielsweise<br />
Testdurchführung und einer Testwiederholung<br />
nach zwei Wochen. Um diese zweidimensionale<br />
Dichte zeichen zu können, bedarf es<br />
einer Annahme über die bedingten Verteilungsdichten.<br />
Das sind die Ergebnisse der Wiederholungsuntersuchung,<br />
abgetragen für ein festes Ergebnis in<br />
der ersten Testdurchführung. Hier wird angenommen,<br />
eine brauchbare Wiederholbarkeit liege vor,<br />
dea erste Testergebnis bestimme denMittelwert der<br />
bedingten Verteilungen linear. Man spricht von<br />
einer lineare Regression, E(Y|x) = ρ x. Die bedingte<br />
Varianz sei 1 – ρ².<br />
fb ( y,<br />
x )<br />
Gemeinsame Verteilungsdichte<br />
Multipliziert man die bedingte Dichte fb(x,y) [ sie<br />
wird sonst durch f (y | x) abgekürzt] mit der unbedingte<br />
Dichte f (x), so erhält man die gemeinsame<br />
Dichte f (x,y):<br />
f ( x,<br />
y )<br />
1<br />
2<br />
1<br />
2<br />
e<br />
2 e<br />
( y x )<br />
2<br />
2<br />
2 ( 1 )<br />
1<br />
x 2 2 x y y 2<br />
2<br />
2 ( 1 )<br />
1<br />
2<br />
2<br />
Zweidimensionales Streuungsdiagramm<br />
Schließlich ist auch eine graphische Darstellung<br />
von zweidimensionalen Stichproben üblich. Jede<br />
Versuchsperson ist durch zwei Werte charakterisiert,<br />
ihren Wert in der ersten Untersuchung und<br />
ihren Wiederholungswert. Benutzt man diese beiden<br />
Werte als x- und y-Wert in einem Koordinatensystem,<br />
so entsteht ein Streuungsdiagramm:
definiert ist, für die weiterhin eine assoziative<br />
Verknüpfung . , die skalare Multiplikation<br />
mit Zahlen definiert ist, heißt<br />
Raum, seine Elemente Vektoren.<br />
Zweck der formalen Testtheorie<br />
Ziel einer formalisierten Testtheorie ist es, beweisbare<br />
Aussagen über die Reproduzierbarkeit (Reliabilität)<br />
und die diagnostische Bedeutung (Validität)<br />
der Befunde (Testergebnisse) zu tätigen. Das<br />
bezieht sich z. B. auf die Abhängigkeit dieser Gegebenheiten<br />
von der Länge des Tests oder auf deren<br />
Zusammenhang untereinander.<br />
Traditionelle Theorie<br />
Bis in die siebziger Jahre galt es als erforderlich,<br />
detaillierte Annahmen über die<br />
Ursache der Unschärfe der Befunde und<br />
ihren stochastischen Zusammenhang mit<br />
anderen Größen, z. B. dem reproduzierten<br />
Befund aufzustellen (Gulliksen, 1950).<br />
Nach heutiger Sicht ist die bei geeigneter<br />
Wahl eines theoretischen Ansatzes überflüssig<br />
(Zimmermann, 1975).<br />
Ist außerdem ein Skalarprodukt für alle<br />
Paare a, b das Skalarprodukt als < a, b > =<br />
a1b1 + a2b2 + ... + anbn definiert, so läßt sich<br />
eine Norm durch |x| = < x, x > ^(1/2) einführen.<br />
Gilt für diese Norm, daß sie nichtnegativ<br />
ist, den Wert Null nur für x = 0<br />
annimmt, Homogenität bei der Multiplikation<br />
mit Zahlen und die Dreiecksungleichung<br />
gelten, so spricht man von einem<br />
euklidischen Raum.<br />
Ein Beispiel für einen dreidimensionalen<br />
( n = 3 ) euklidischen Raum ist der physikalische<br />
Raum (im Kleinen) um uns. Er<br />
besitzt die wichtige Eigenschaft der Zerlegbarkeit<br />
in orthogonale Unterräume.<br />
Zwei Unterräume sind orthogonal zueinander,<br />
wenn das Skalarprodukt je eines<br />
Vektors aus einem mit einem Vektor aus<br />
dem anderen Unterraum verschwindet.<br />
Geometrisch läßt sich Orthogonalität von<br />
Vektoren als Rechtwinkligkeit repräsentieren.<br />
Durch einen geeigneten Operator : V <br />
V läßt sich ein Vektor des Raumes auf einen<br />
Unterraum abbilden, beispielsweise<br />
ein Punkt x des dreidimensionalen Raumes<br />
V in eine Ebene U des gleichen Raumes V.<br />
Der Raum der Befunde<br />
Zimmermann (1975) hat ein einfaches<br />
räumliches Modell aufgestellt, aus dessen<br />
einziger Grundannahme die sogenannten<br />
Axiome der traditionellen Theorie rein<br />
logisch ableitbar sind. Er machte sich dabei<br />
zunutze, daß geläufige statistische Parameter,<br />
wie die Kovarianz, anschauliche geometrische<br />
Repräsentationen besitzen.<br />
Der Begriff des Raumes<br />
Eine Menge von Elemente a, b,... , für die<br />
eine kommutative ,assoziative und umkehrbare<br />
Verknüpfung , die Summe,
Ist die Abbildung so gewählt, daß die<br />
Differenz c des Bildes b = (x) und des<br />
Urbildes x orthogonal zu allen Elementen<br />
U ist, so spricht man von einer Projektion<br />
auf U. Es gilt dann x = b c. Diese Zerlegung<br />
von x ist eindeutig. Man sagt, diese<br />
beiden Unterräume sind Orthogonalkomplemente<br />
voneinander.<br />
Ein für die Testtheorie wichtiger Satz<br />
konstatiert die folgenden Gleichheiten:<br />
a, b ab | a | | b | cos<br />
(1.1)<br />
1<br />
n<br />
i<br />
i<br />
m it 0 .<br />
Daraus folgt ,daß das Skalarprodukt < a,b><br />
dividiert durch |a| uns |b| gleich dem cos <br />
ist, also zwischen -1 und +1 liegt. Auf<br />
Grund dieser Ungleichung kann man den<br />
Korrelationskoeffizienten geometrisch<br />
durch den Kosinus des von den Testvektoren<br />
eingeschlossenen Winkels repräsentieren.<br />
Auf diese Weise werden Tests als<br />
Vektoren der Länge ihrer Standardabweichungen<br />
in einer Richtung repräsentiert,<br />
die durch ihre Korrelation mit Bezugstests<br />
gegeben ist.<br />
Summen von Zufallsgrößen<br />
Werden die Zufallsgrößen X,Y : Ω → <br />
als stets auf die Komponenten ω Ω, z. B.<br />
Rohwertklassen, bezogen zusammengezählt,<br />
so ist die Operation additiv:<br />
(X Y)(ω) : = X(ω) +Y(ω) für jedes ω.<br />
Beispiel: Sei X die Auswertung der einer<br />
Aufgabensammlung der weiblichen Vpn.,<br />
Y die entsprechende Auswertung der ännlichen,<br />
so ist die Summe eine Zufallgröße,<br />
über alle Personen. Sie besitzt Erwartungswert<br />
und Varianz.<br />
Produkte von X und Y<br />
Der Begriff des (auf jede Ausprägung ω<br />
der Zufallsgrößen X und Y bezogenen)<br />
Produktes von Zufallsgrößen ist definiert.als<br />
(X Y)(ω) := X(ω)Y(ω) für jedes ω.<br />
Beispiel: Die Berechnung der Produktes<br />
der Ergebnisse X und Y aus dem vorangegangenen<br />
Beispiel. Auch hier ist der Bezug<br />
wieder auf die Ausprägungen ω der Zufallsgrößen.<br />
Produktbildung geht ein in die<br />
Berechnung der Kovarianz<br />
cov(X,Y) = (XY) - (X) (Y).<br />
Zimmermann (1975)hat gezeigt, daß die<br />
Repräsentation der Addition und Multiplikation<br />
von Testergebnissen als reellwertige<br />
Zufallsgrößen X über einem gemeinsamen<br />
Wahrscheinlichkeitsraum < Ω, , > die<br />
Grundbegriffe der klassischen Testtheorie<br />
als die Eigenschaften einer geometrischen<br />
extensiven Struktur repräsentierbar macht.<br />
Sie gestattet eine besonders transparente<br />
Darstellung der Theorie.<br />
Ein (reeller) Hilbert-Raum<br />
ist definiert als vollständiger linearer Vektorraum<br />
über , in dem ein skalares Vektorprodukt<br />
(X,Y) = Σ XY gegeben ist, bei<br />
dem stets gilt (X,X) ≥ 0, und aus (X,X) = 0<br />
folgt X = 0. Ein Beispiel ist der gewöhnliche<br />
uns umgebende dreidimensionale<br />
Raum. Bei den Anwendungen aus der<br />
Testtheorie ist die Anzahl der Dimensionen,<br />
über die bei der Skalarproduktbildung<br />
zu summieren ist, meist gleich der Anzahl<br />
der vorkommenden Testwerte. Ein dreidimensionales<br />
Beispiel ist ein Test, dessen
Ergebnisse in der Menge Ω = { niedrig,<br />
mittel, hoch} liegen. Kommen als Testergebnisse<br />
die Zahlen von Null richtigen<br />
Antworten bis 45 richtige Antworten vor<br />
(Progressive Matrices Test), dann ist der<br />
Raum von der Dimensionalität 46. Die<br />
Dimensionalität kann bei kontinuierlichen<br />
Testwerten, z.B. Reaktionszeiten, über alle<br />
Grenzen wachsen. Vollständig bedeutet<br />
dann, daß jede Cauchy-Folge von Vektoren<br />
gegen einen festen Grenzvektor konvergiert.<br />
Geometrische Interpretation der Kovarianz<br />
als Skalarprodukt zweier Zufallsgrößen X<br />
und Y.(Für diese Beispiel werden der einfachen<br />
Schreibweise halber Erwartungswerte<br />
von X = Y = 0 vorausgesetzt):<br />
Anstelle von cov(X,Y) = XY kann man<br />
wie in der Algebra schreiben cov(X,Y) =<br />
||X|| ||Y|| cos . Unmittelbar ist ersichtlich,<br />
dass nun die Standardabweichungen von X<br />
und Y als Vektorlängen und die Korrelation<br />
zweier Tests als Kosinus des von ihren<br />
Vektoren eingeschlossenen Winkels repräsentiert<br />
sind. Diese Repräsentation wird<br />
meistens mehr als dreidimensional ausfallen,<br />
weil die empirischen Winkel im Dreidimensionalen<br />
nicht immer „passen“. Eine<br />
Aufgabe der Theorie psychologischer<br />
<strong>Diagnostik</strong> besteht in der Aufdeckung des<br />
Zusammenhangs der beiden geometrischen<br />
Repräsentationen.<br />
Andere Aufgaben sind die Bestimmung der<br />
Voraussetzungen, die ein Test besitzen<br />
muß, um eine von Null verschieden Validität<br />
erreichen zu können, Die Untersuchung<br />
der Abhängigkeit dieser Voraussetzungen<br />
von der Testlänge, die Konstruktion von<br />
sogenannten Paralleltests, mit deren Hilfe<br />
die Reproduzierbarkeit von Testergebnissen<br />
an den gleichen Personen ohne erneute<br />
Verwendung der gleichen Testaufgaben<br />
möglich wird, und vieles mehr.<br />
Historische Anmerkung.<br />
Die psychologischen <strong>Diagnostik</strong> hat bereits<br />
in der ersten Hälfte des zwanzigsten Jahrhunderts<br />
versucht, eine geschlossene Theorie<br />
zu entwickeln, die sich aus wenigen<br />
Grundannahmen rein logisch ableiten läßt<br />
Gulliksen, 1950, führt fünf solche Annahmen<br />
auf, aus denen sich Antworten auf die<br />
genannten Fragen und andere ableiten<br />
lassen.Es sind dies – neben der Annahme<br />
dass für alle vorkommenden Zufallsgrößen<br />
Erwartungswerte und Varianzen existieren<br />
und endliche Werte annehmen –<br />
Fünf „Axiome“:<br />
Die Zufallsgröße X , die das Testergebnis<br />
ausmacht, ist in einen „wahren Wert“, T,<br />
und eine Fehlerkomponente , E, additiv<br />
dekomponierbar:<br />
X = T + E.<br />
E = 0, die Fehlerkomponente ist unsystematisch.<br />
TE = 0, wahrer Wert und Fehler korrelieren<br />
nicht.<br />
E1E2 = 0, Fehler in verschiedenen Tests<br />
korrelieren nicht,<br />
E1T21 = 0, Fehler eines Tests korrelieren<br />
nicht mit dem wahren Wert eines anderen<br />
Tests.<br />
Der „wahre“ Wert<br />
Die klassische Testtheorie faßt den Erwartungswert<br />
( Mx | B) der „wahren“ Werte,<br />
als gleich dem stets existierenden Erwartungswert<br />
der („Roh-“)Werte X auf. ( Mx<br />
| B ) = ( X | B) für alle B . Dabei ist<br />
B die Menge der Antwortmuster.<br />
„Wahrer“ Wert einer Person<br />
Um diesen zu finden, muß man mittels f<br />
eine Person α aus der Menge Φ wählen und<br />
dann über deren Menge γ (α) von Antwortmustern<br />
Mx(ω) = ( (X | γ (α) ) für<br />
jedes ω Ω bestimmen. Die Größe Mx ist<br />
auf die Person bezogen konstant. Sie ist<br />
gleich ihrem Erwartungswert.<br />
Die Bestimmung von Mx als Operator
Mx = (X | f) o f ist eine zusammengesetzte<br />
Abbildung, wobei X und f über dem<br />
gleichen Wahrscheinlichkeitsraum definiert<br />
sind. Nur auf die B bedingt, macht<br />
Mx aus der Zufallsgröße X eine neue Zufallsgröße<br />
Mx, im Raum aus einem Vektor<br />
einen neuen. Man spricht deshalb von einem<br />
Operator Mx.<br />
Mx ein linearer Operator<br />
Kovarianzen<br />
cov(Mx,Y) = cov(X,My) = cov(Mx,My),<br />
weil (MxY) = (Mxy) = (MxMy)<br />
= (MxMy ) = (XMy). Weiterhin gilt<br />
cov(Mx,Y) = (MxY) - ( (Mx)) (Y) =<br />
(MxMy) - ((Mx))((My)) =<br />
cov(Mx,My).<br />
Es gilt Mx+y(ω) = ( X + Y | γ(ω))<br />
= ( X | γ(ω)) + ( Y | γ(ω))<br />
= Mx(ω) + My(ω), für jedes<br />
ω Ω<br />
und deshalb Additivität<br />
Mx+y = Mx + My,<br />
außerdem Homogenität<br />
Mαx = α Mx, für alle α .<br />
Reliabilität als True-Score Anteil<br />
Satz 1: ² (X, Mx) = var(Mx) / var(X).<br />
Beweis: Einsetzen von<br />
cov(Mx,X) = cov(Mx,Mx) = var(Mx)<br />
in die Definition von<br />
² := cov(X, Mx)²/ (var(X)var(Mx)). <br />
Sonderfall: Konstanten<br />
Sei Y eine auf jeder Äquivalenzklasse von<br />
Ω konstante Zufallsgröße.<br />
Dann gilt wegen der Linearität<br />
Mxy(ω) = ( XY | (ω) )<br />
=(X| (ω) ) Y(ω)<br />
=Mx (ω) Y(ω), für jedes ω Ω<br />
und deshalb Mxy = Mx Y.<br />
Wegen ( Mx | Ω) = ( X | Ω)<br />
gilt ( Mx ) = (X). Außerdem<br />
Mx-x = Mx - ( Mx).<br />
Validität höchstens gleich Reliabilität<br />
Satz 2: (X, My) (X, Mx).<br />
Beweis: Wegen cov(Mx,My)² <br />
var(Mx)var(My),<br />
der Schwarzschen Ungleichung, und wegen<br />
cov(Mx,Y) = cov(X,My)<br />
nach Einsetzen unter Benutzung von Satz<br />
1.<br />
Bedingt unabhängige Zufallsgrößen<br />
X1 und X2 sind bedingt unabhängige Zufallsgrößen<br />
in Bezug auf f, wenn für alle<br />
(ω) B aus < Ω, , > die Zufallgrößen<br />
X1 | (ω) und X2 | (ω) unabhängig<br />
sind. Für sie ist die bedingte Erwartung
ihres Produkts gleich dem Produkt ihrer<br />
bedingten Erwartungen:<br />
Satz: Mx1x2 = Mx1 Mx2,<br />
Beweis: Wegen<br />
Mx1x2 = (X1X2| (ω))<br />
= (X1 |(ω))( X2 |(ω))<br />
=Mx1(ω)Mx2(ω), für jedes ω Ω.<br />
Paralleltests<br />
Zufallsgrößen X1 und X2 sind bedingt auf<br />
f identisch verteilt, wenn für alle D Λdie<br />
Zufallsgrößen X1|D und X2|D identisch<br />
verteilt sind, d. h., die induzierten Wahrscheinlichkeitsverteilungen<br />
Px1|D und<br />
PX2|D sind gleich.<br />
Wenn dies für X1 und X2 der Fall ist, so<br />
gilt Mx1 = Mx2, aber nicht ohne weiteres<br />
die Umkehrung.<br />
Paralleltest-Korrelation als Reliabilität<br />
Satz 3: Seien X1 und X2 bedingt unabhängige,<br />
bedingt identisch verteilte Zufallsgrößen.<br />
Dann gilt<br />
ρ(X1,X2) = var(Mx1) / var (X1).<br />
Beweis:<br />
cov(X1,X2)=X1X2 - X1X2<br />
=Mx1x2 - Mx1 Mx2, wegen Mx =<br />
X,<br />
=Mx1,Mx2 - Mx1Mx2, wegen Mx1x2<br />
= Mx1Mx2,<br />
=cov(Mx1,Mx2) = var(Mx ) = var(Mx2),<br />
und Einsetzen in<br />
(X1,X2) = cov(X1,X2)/(X1X2)<br />
Def.: Zufallsgrößen X1 und X2 sind bezogen<br />
auf f bedingt unkorreliert, wenn für<br />
alle D Λ die Zufallsgrößen X1|D und<br />
X2|D unkorreliert sind, d. h.<br />
cov(X1|D,X2|D) = 0.<br />
Bedingt unabhängige Zufallsgrößen sind<br />
bedingt unkorreliert, aber i. a. nicht umgekehrt.<br />
X1 und X2 sind bedingt unkorreliert,<br />
gdw. Mx1x2 = Mx1 Mx2.<br />
Testverlängerung durch parallele<br />
Teile<br />
Satz 4: Seien X1, X2, ...Xn bedingt unabhängige,<br />
bedingt identisch verteilte Zufallsgrößen<br />
und Sn = X1 + X2 + ... + Xn.<br />
Es gilt<br />
ρ²(Sn,Msn)<br />
= n ρ²(X1,Mx) /[1 +(n-1) ²(X1,Mx1)].<br />
Beweis: Da X1, X2, ...Xn bedingt unabhängig<br />
und bedingt identisch verteilt sind,<br />
gilt cov(Xi,Xj)=cov(Mxi,Mxj)=var(Mx1)<br />
für i,j=1,2,...,n. Außerdem gilt,<br />
wie im Beweis von Satz 3 Var(Sn)=<br />
Σvar(Xi)+cov(Xi,Xj)=n var(X1)+n (n-<br />
1)var(Mx1),<br />
und var((Msn)= n² var(Mx1). Wegen<br />
ρ²(Sn,Msn) = var(Msn/var(Sn) und<br />
ρ²(X1,Mx1)= var(Mx1)/varX1) nach Einsetzen<br />
gilt wegen ²(X,Mx) = var(Mx)/<br />
var(X) die Behauptung.<br />
Der Meßfehler<br />
Def: Das Komplement der bedingten Erwartung<br />
von X bezogen auf f ist eine Zufallsgröße<br />
(X – Mx) : Ω , gegeben durch<br />
(X - Mx)() =X() –Mx(), für jedes <br />
Ω.<br />
Bezeichnet man den Identitätsoperator mit<br />
1, so lässt sich 1 – M als der Operator auffassen,<br />
der aus der Zufallsgröße X die Zufallsgröße<br />
X – Mx macht. Mx-Mx =0 wegen<br />
MMx= Mx und
Mx-Mx = (X – Mx) = 0, wegen Mx<br />
= X.<br />
True-score und Fehler unkorreliert<br />
Weiterhin gilt<br />
[(X – Mx)Y] = (XY)-(MxY) =<br />
(XY) - (XMy) = [X(Y-My)], und<br />
[(X-Mx)(y – My)] = (XY) - (MxMy)<br />
= (XY)- (MxY). Weil (X – Mx) = (Y<br />
– My) = 0,<br />
ist hierdurch bewiesen, daß cov(X –<br />
Mx),Y) =cov(X,Y – My)=cov(X – Mx,Y –<br />
My),<br />
speziell:<br />
cov(X – Mx,X) = cov(X-Mx,Y – My) =<br />
var(X – Mx).<br />
Außerdem: cov(X – Mx,My) = cov(X,My<br />
– MMy) = cov(X,0) = 0. Also:<br />
Cov(X-Mx,Mx) = 0.<br />
Geometrische Repräsentation<br />
und m Testwiederholungen, ist L2() ein<br />
n-dimensionaler Euklidischer Raum und<br />
L2() ein m-dimensionaler Unterraum.<br />
Das Skalarprodukt zweier auf den Erwartungswert<br />
bezogenen Zufallsgrößen ist ihre<br />
Kovarianz<br />
< (X - X, Y - Y > = cov(X,Y).<br />
Standardabweichung entspricht der<br />
Vektorlänge<br />
Die Norm einer auf ihren Erwartungswert<br />
bezogene Zufallsgröße ist ihre Standardabweichung.<br />
|| X - X || = X .<br />
Für eine Zufallgröße X L2() ist die<br />
bedingte Erwartung Mx durch die Projektion<br />
von X auf L2() gegeben.<br />
Fehlerverteilung als othogonale<br />
Projektion<br />
Das Komplement der bedingten Erwartung<br />
X – Mx ist die Projektion von X auf<br />
das orthogonale Komplement von L2().<br />
Sei < Ω, , > ein Wahrscheinlichkeitsraum<br />
und eine -Algebra, die<br />
durch den zufälligen Punkt f : Ω induziert<br />
ist. Sämtliche Zufallgrößen mit endlicher<br />
Varianz, die auf < Ω, , > definiert<br />
sind, bilden den Hilbert-Raum L2().<br />
Er besitzt das Skalarprodukt < X1, X2 > =<br />
(X1X2) und die Norm ||X|| = X² .<br />
L2() bildet einen abgeschlossenen Unterraum<br />
von L2().<br />
Bei endlichen Wahrscheinlichkeitsräumen,<br />
wenn Ω n Elemente und m<br />
Elemente enthält, also z. B. bei N Tests<br />
Der Operator M, der jedem X seine bedingte<br />
Erwartung Mx zuordnet, und der<br />
Operator 1 – M , der jedem X das Komplement<br />
der bedingten Erwartung X - M<br />
zuordnet, sind orthogonale Projektionen.<br />
X² = T² + E² als Satz des Pythagoras<br />
Jede Zufallsgröße X L2() ist die eindeutige<br />
Summe einer Zufallgröße Mx im<br />
Unterraum L2() und einer Zufallsgröße X<br />
– Mx im orthogonalen Komplement von<br />
L2(). Es gilt<br />
||X||² = || Mx ||² + || X – Mx ||² ,
das bedeutet var(X) = var (Mx) + Var ( X –<br />
Mx).<br />
MMx = Mx und ( 1 – M)x-Mx = X –M<br />
gelten, weil Projektionsoperatoren die Eigenschaft<br />
der Idempotenz besitzen.<br />
Mx-Mx = 0 und ( 1 –M)Mx =0 weil beide<br />
Male das orthogonale Komplement eines<br />
Unterraumes auf den Nullvektor projiziert<br />
wird.<br />
True-score und Fehler unkorreliert<br />
Daß cov (Mx Y – My) = 0, oder daß der<br />
wahre Wert eines Tests mit dem Fehlerwert<br />
eines anderen Tests unkorreliert ist,<br />
gilt, weil jeder Vektor in L2() orthogonal<br />
zu jedem Vektor im othogonalen Komplement<br />
von L2() ist.<br />
Die Gleichheit cov(X, Mx) = var(Mx) entspricht<br />
< X - X, Mx-x> = || X – Mx||² , und<br />
cov((X, X-Mx) = var (X-Mx) wegen < X -<br />
X, X –Mx> = || X – Mx ||². Das sind Eigenschaften<br />
aller orthogonaler Projektionen.<br />
Traditionelle Darstellung der gleichen<br />
Sachverhalte<br />
Die Überslegenheit des zeitgenössischen<br />
Zugangs wird besonders deutlich, wenn<br />
man diese Ergebnisse in traditioneller Weise<br />
ableitet, wie es z. B. Gulliksen (1950)<br />
tut:<br />
Paralleltest-Korrelation<br />
Zu diesem Zweck werden Paralleltests so definiert,<br />
daß ihre Interkorrelation gleich der Reliabilität<br />
wird: (Mindestens) drei Tests sind parallel, wenn<br />
Sie gleiche Erwartungswerte , gleiche Varianzen<br />
und gleiche Interkorrelationen aufweisen und die<br />
True-Scores der Personen gleich sind.<br />
Paralleltestkorrelation gleich Reliabilität<br />
ρ xx´= T²/ X²<br />
cov( X , X ´) cov( X , X ´)<br />
XX ´ 2<br />
X X ´<br />
X<br />
cov( X , X ´) E ( X * X ´) E ( X ) E ( X ´),<br />
E ( X * X ´) E (( T e) * ( T ´ e´))<br />
E ( TT ´ Te´ eT ´ ee´) E ( TT ´) E ( Te´)<br />
E ( eT ´) E ( ee´). E ( X ) E ( X ´)<br />
E ( T e) * E ( T e´) E ( T ) E ( T )<br />
E ( T ) E ( e) E ( e´) E ( T ) E ( ee´).<br />
cov( X , X ´ ) ²( T )<br />
Varianzverdoppelung i. a. nicht additiv<br />
2<br />
x y<br />
E (( X Y )²) ( E ( X Y ))²<br />
E ( X ² 2 XY Y ²)<br />
( E ( X )² 2 E ( X ) E ( Y ) E ( Y )²)<br />
E ( X ²) 2 E ( XY ) E ( Y ²)<br />
E ( X )² 2 E ( x) E ( Y ) E ( Y )²<br />
2 2 2 2<br />
2 cov( X , Y ) 2<br />
x y x y x y xy<br />
Reliabilität bei doppelter Testlänge<br />
Varianzen bei doppelter Länge<br />
´ ´<br />
x y , x y<br />
x y ´ ´<br />
x y<br />
´ ´<br />
cov( X Y , X Y )<br />
´ ´<br />
1, 2 , 1 2<br />
cov(2T e e 2 T e e )<br />
2<br />
x y<br />
cov(2 T, 2 T )<br />
2 2<br />
x y<br />
x y xy<br />
2 cov( , ) (1 )<br />
Zu beachten ist, daß sich bei doppelter Länge die<br />
True-Varianz vervierfacht, während sich die Fehler-<br />
Varianz nur verdoppelt. Dieser quadratische Anstieg<br />
gegenüber einem linearen bringt den Gewinn<br />
an Reliabilität und gilt auch bei allgemeiner Testverlängerung<br />
um das n-fache.<br />
Reliabilität bei n-facher Testlänge<br />
n n n<br />
X Y , e e , T T<br />
i i i<br />
i 1 i 1 i 1<br />
n n n<br />
2<br />
x<br />
2<br />
Yi YiYj<br />
i 1 i 1 j 1<br />
,<br />
j<br />
2<br />
i<br />
xy<br />
n n n<br />
2<br />
Yi TiTj Ti Tj<br />
i 1 i 1 j 1<br />
,<br />
j<br />
i
Bei Parallelität wird daraus wegen<br />
2 2<br />
n n<br />
x y yy´<br />
[1 ( 1) ]<br />
2 2<br />
n ²<br />
T<br />
T1<br />
2 2<br />
n<br />
e<br />
e1<br />
Spearman-Brown (1907):<br />
YY ´<br />
n<br />
Y 1Y<br />
1 '<br />
1 ( n 1)<br />
Y 1Y<br />
1 '<br />
Reliabilität und Testlänge graphisch<br />
Man sieht, dass auch diese Darstellung<br />
schlüssig ist, selbst wenn sie auf Voraussetzungen<br />
begründet ist, die sich aus dem<br />
Zimmermannschen (1975) Ansats als Sätzt<br />
ableiten lassen.<br />
Literatur<br />
Bamberg, G. (1972). Statistische Entscheidungstheorie.<br />
Würzburg: Physica-Verlag.<br />
Bosch, K. (1976). Elementare Einführung<br />
in die Wahrscheinlichkeitsrechnung. Reinbeck:<br />
Rowohlt.<br />
Bosch, K. (1982). Elementare Einführung<br />
in die angewandte Statistik. Braunschweig:<br />
Vieweg.<br />
Testlänge und Validität<br />
2<br />
X<br />
k<br />
, Y<br />
l<br />
2<br />
2 2<br />
X<br />
k<br />
Validität:Verlängerung nur des Tests<br />
X<br />
2<br />
k<br />
, Y<br />
( X , Y )<br />
1 ( k 1) ( X , X ') 1 ( l 1) ( Y , Y ')<br />
2<br />
X<br />
k<br />
, Y<br />
k<br />
2<br />
kl<br />
2<br />
( X , Y )<br />
X<br />
Validität und Testlänge n graphisch für verschiedene<br />
Reliabilitäten<br />
l<br />
Y<br />
2 2<br />
X<br />
k<br />
1 ( k 1) ( X , X ')<br />
k<br />
l<br />
, Y<br />
Y<br />
Fischer, G. (1974). Einführung in die<br />
Theorie psychologischer Tests. Bern: Huber.<br />
(Kap. 1 - 19).<br />
Gulliksen, H. Theory of Mental Tests, New<br />
York, Wiley, 1950.<br />
Lord, F. M. & Novick, M. R. : Statistical<br />
Theories of Mental Test Scores.Reading,<br />
Addison-Wesley, 1968.<br />
Zimmerman, D. W. : Probability Space,<br />
Hilbert Space and the Axioms of Test Theory.<br />
Psychometrika, 40, (3) 395 – 412,<br />
1975<br />
Lindgren, B.W. (1971). Elements of decision<br />
theory. New York: MacMillan.<br />
(Wird fortgesetzt.)