03.06.2014 Aufrufe

Psychologische Diagnostik - Universität Regensburg

Psychologische Diagnostik - Universität Regensburg

Psychologische Diagnostik - Universität Regensburg

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Psychologische</strong> <strong>Diagnostik</strong><br />

True score Theorie<br />

WS 2010/11<br />

Prof. Dr. Jan Drösler<br />

Universität <strong>Regensburg</strong><br />

Einführung<br />

Wissenschaftliche Durchdringung der<br />

Psychodiagnostik ist erforderlich, weil<br />

intuitive Anwendung von „Menschenkenntnis“<br />

im wesentlichen zu Selbsttäuschung<br />

führt. Die Erfahrung zeigt, daß freihändige<br />

Verfahren der psychologischen <strong>Diagnostik</strong>,<br />

etwa Untersuchungsgespräche aus<br />

dem Stegreif, in der Regel von verschwindender<br />

Gültigkeit sind.<br />

Ein verbreiteter Fehler der Psychodiagnostik<br />

besteht darin, den Unterschied von<br />

Testergebnis und dessen Bedeutung zu<br />

übersehen. Beispiel: Testergebnis ist „kann<br />

[Oachkoatzlschwoaf] korrekt aussprechen“,<br />

Bedeutung : „ist ein Eingeborener“<br />

bzw. „kein solcher“ Zuordnung von Ergebnis<br />

(Befund, U) zu Bedeutung, (Kriterium<br />

, Θ )m allgemeinen nur stochastisch<br />

als p(Θ | U).<br />

Rückgriff auf mehrere Befunde.<br />

Das Grundproblem der Psychodiagnostik<br />

ist überraschenderweise die Auswertung<br />

der Ergebnisse von Mehrfachzugriffen,<br />

also die Auswertung eines „Tests“. Ist es<br />

vertretbar, „Testpunkte“ zu addieren und<br />

Die so entstandenen Summen zu interpretieren?<br />

Beispiel: vier Zugriffe („Items“):<br />

Nur naive Personen, wie solche, die sogenanntes<br />

„Ranking“ betreiben, halten hier<br />

nur fünf verschiedene Antwortmuster für<br />

möglich. In Wirklichkeit sind es 16, allgemein<br />

zwei hoch die Anzahl der Aufgaben.<br />

Das wissenschaftliche Problem der psychologischen<br />

<strong>Diagnostik</strong> besteht darin,<br />

nachzuweisen, dass Versuchspersonen mit<br />

der gleichen Anzahl korrekter Lösungen<br />

psychologisch äquivalent sind.<br />

Verschiedene Zugänge<br />

1 Meßtheoretisch : Formuliere die Voraussetzungen<br />

in empirischer Sprache und<br />

prüfe sie.<br />

2 Statistisch a: Sorge für die Erschöpfungseigenschaft<br />

der erwünschten Summenstatistik,<br />

oder b: Zeige empirisch die


(stochastische) Abhängigkeit der Testskala<br />

von der Kriteriumsskala.<br />

Als Gültigkeit oder Validität wird die Bedeutung<br />

eines Untersuchungsergebnisses<br />

über sich selbst hinaus bezeichnet. Zur<br />

Erreichung einer wissenschaftliche Nachprüfbarkeit<br />

von Untersuchungsergebnissen<br />

ist Objektivität der Untersuchung geboten.<br />

Das Verfahren muß so organisiert sein, daß<br />

die Ergebnisse nicht von der Person des<br />

Untersuchers abhängen.<br />

Dennoch lässt sich die gewünschte Reproduzierbarkeit<br />

der Ergebnisse nicht erreichen.<br />

Wiederholungen einer Untersuchung<br />

am gleichen Probanden fallen unterschiedlich<br />

aus. Sie sind im einzelnen nicht vorhersagbar.<br />

Die Psychologie ist zu der Feststellung<br />

veranlasst, das menschliches Verhalten,<br />

sowohl das Antwortverhalten in<br />

einem Test, wie auch das Verhalten in Bezug<br />

auf das die Bedeutung des Tests tragenden<br />

Kriteriums zufällig ist. Verhalten<br />

ist nicht im einzelnen, sondern nur als Angabe<br />

einer Menge von möglichen Ergebnissen<br />

vorhersagbar.<br />

Testverfahren<br />

Ein Quintupel < Ω, , , f, X > ist ein<br />

Testverfahren, wenn Ω eine Menge von<br />

Elementarantworten zu einer Aufgabensammlung,<br />

eine σ-Algebra von Teilmengen<br />

aus Ω ist, ein Wahrscheinlichkeitsmaß<br />

auf , f : Ω → Φ<br />

eine Abbildung in die Menge Φ der untersuchten<br />

Personen und X : Ω → eine Zufallsgröße<br />

ist, z.B. die Summe der richtigen<br />

Lösungen.<br />

Beispiel (Thurstone, 1943). Instruktion:„Markiere<br />

den Bereich, der von einer<br />

gestrichelten und einer durchgezogenen<br />

Figur eingeschlossen ist“.<br />

Ein Beispiel eines Antwortmusters für<br />

einen Test, der aus nur einer Aufgabe besteht,<br />

ist die Menge Ω = {„richtig“,<br />

„falsch“}. Bei einem Test mit mehreren<br />

Aufgaben besteht diese Ereignismenge<br />

meist aus der Menge der durchnumerierten<br />

Antwortmöglichkeiten bzw. der Menge<br />

der namentlich gekennzeichnete durchnumerierten<br />

Antwortprotokolle.<br />

Aufgabe der psychologischen <strong>Diagnostik</strong><br />

ist es, den mit einem bestimmten Ergebnis<br />

oder einer logischen Kombination von<br />

mehreren Ergebnissen verbundenen Grad<br />

an Gewißheit z. B. einer korrekten Lösung<br />

für eine Person zu bestimmen.<br />

Der naturwissenschaftliche Wahrheitsbegriff<br />

wird auch in der psychologischen<br />

<strong>Diagnostik</strong> eingesetzt. Diagnosen sind nur<br />

dann wahr, wenn sie als Prognosen verstanden<br />

werden können und tatsächlich<br />

eintreffen. Der Grad, mit dem das empirisch<br />

der Fall ist, heißt Validität. Um den<br />

Begriff der Validität begründen zu können,<br />

sind einige Voraussetzungen zu klären.<br />

Skalierung der Gewissheit nach Kolmogorov<br />

(1933).<br />

Sei Ω eine Menge von Ergebnissen. Alle<br />

logischen Kombinationen der Elemente<br />

von Ω sollen verfügbar sein. Das geschieht<br />

mittels einer<br />

σ-Algebra von Teilmengen von Ω . Sie<br />

ist bezüglich dem Mengendurchschnitt <br />

und der Mengenvereinigung auch gegenüber<br />

abzählbarer und abzählbar unendlicher<br />

Anwendung abgeschlossen. Letztere<br />

Vereinbarung ist für die Behandlung von<br />

Mengenfolgen erforderlich, die in den<br />

Anwendungen der Wahrscheinlichkeitstheorie<br />

vorkommen.<br />

Damit ist die Verfügbarkeit der denkbaren<br />

logischen Kombinationen von Elementen<br />

aus Ω gegeben. Weil eine solche Mengen-


algebra umkehrbar eindeutig auf die Aussagenlogik<br />

abbildbar ist, lassen sich die<br />

Verknüpfungen und auch als „und“<br />

bzw. „oder“ lesen. Besteht also die Ergebnismenge<br />

Ω aus den Antwortmustern, dann<br />

lässt sich aus die Menge der Protokolle<br />

herausgreifen, die beispielsweise die dritte<br />

und die fünfte Aufgabe als richtig beantwortet<br />

ausweisen.<br />

Ein Paar < Ω, > heißt meßbarer Raum.<br />

Auf ihm ist ein Maß μ einführbar, das die<br />

Eigenschaften besitzt, die uns beispielsweise<br />

von der Flächenmessung her geläufig<br />

sind: Ein Maß ist eine gegenüber disjunkten<br />

Elementen additive,<br />

(A B) = (A) + (B) gdw. A B =,<br />

nichtnegative Abbildung nach ,<br />

(A) 0 für alle A , mit μ( ) = 0.<br />

Wahrscheinlichkeit als spezielles Maß der<br />

Gewissheit. Die Wahrscheinlichkeit ist<br />

ein auf μ( Ω) = 1 normiertes Maß auf dem<br />

messbaren Raum < Ω, >. Das Tripel <<br />

Ω, , > bildet einen Wahrscheinlichkeitsraum.<br />

Seine Einführung im Zusammenhang der<br />

Testtheorie ermöglicht die wissenschaftliche<br />

Analyse des zufälligen Antwortverhalten<br />

der untersuchten Personen und<br />

deren Testergebnisse als Zufallsgrößen.<br />

Zufallsgrößen sind Abbildungen der<br />

Grundmenge Ω eines Wahrscheinlichkeitsraumes<br />

< Ω, , > in die reellen Zahlen<br />

, so daß die Umkehrabbildung existiert<br />

und ihre Bilder in liegen. Beispiele sind<br />

alle zahlenmäßigen Testauswertungen,<br />

etwa die Rohwerte, die Versuchspersonen<br />

an einem Intelligenztest erzielt haben. In<br />

diesem Falle besteht Ω wieder aus der<br />

Menge aller möglichen Antwortmuster des<br />

Tests. Die Meßbarkeit beispielsweise der<br />

Abbildung „Intelligenzquotient“ (IQ) ermöglicht<br />

bei gegebenem IQ mittels Umkehrabbildung<br />

die Bestimmung der Wahrscheinlichkeit<br />

des Auftretens einer Person<br />

mit mindestens diesem IQ .<br />

Schwache Truescore-Theorie<br />

Truescore Theorie ist dadurch gekennzeichnet,<br />

daß sie die Testrohwerte als Befunde<br />

einer diagnostischen Untersuchung<br />

in zwei Komponenten aufspaltet, den sogenannten<br />

wahren Anteil und die Fehlerkomponente.<br />

Schwache Truescore-Theorie<br />

verzichtet dabei auf Annahmen über die<br />

Verteilungen dieser Komponenten oder der<br />

Rohwerte selbst. Sie setzt lediglich die<br />

Existenz niederer Momente dieser Verteilungen<br />

voraus. Unter diesen Momenten<br />

sind vor allem der Erwartungswert, die<br />

Varianz und im zweidimensionalen Falle<br />

die Kovarianz zu nennen.<br />

Der Erwartungswert einer Zufallgröße<br />

X ist definiert als X = X p(X), wobei<br />

das Produkt der Ausprägung der Zufallsgröße<br />

und der entsprechenden Auftretenswahrscheinlichkeit<br />

über den gesamten Bereich<br />

von X zu summieren, (im kontinuierlichen<br />

Falle, z. B. bei Reaktionszeiten, zu<br />

integrieren) ist. Die Erwartungswertbildung<br />

ist ein linearer Operator:<br />

(X + Y) = (X) + (Y)<br />

( X) = (X), <br />

(Additivität),<br />

(Homogenität).<br />

Der Erwartungswert sollte nicht mit dem<br />

(Stichproben-)Mittelwert verwechselt werden.<br />

Dieser ist als Summe der mit den<br />

Häufigkeiten gewichtete Summe der verschiedenen<br />

Realisierungen einer Zufallgröße,<br />

dividiert durch deren Anzahl definiert.<br />

Er dient meist zur Schätzung des<br />

Erwartungswerts. Die Varianz einer Zufallsgröße<br />

X ist definiert als var(X) =<br />

²(X) = X² - (X)².<br />

Die Kovarianz zweier Zufallsgrößen X und<br />

Y ist definiert als cov(X,Y) = XY - X<br />

Y. Validität wird als statistischer Korrelationskoeffizient<br />

zwischen Test und Kriterium<br />

ausgedrückt. Ein Korrelationskoeffizient<br />

xy ist die auf das geometrische Mittel<br />

der Varianzen [²(x)²(y)] normierte<br />

Kovarianz von X und X: xy = cov(X,Y)/<br />

[²(X)²(Y)] Validitätskoeffizienten,<br />

lassen sich wie die Erfahrung gelehrt hat,


von Null für freihändiges Vorgehen mittels<br />

objektiver Tests auf Werte um 0,55 (für<br />

einen zweijährigen Prognosezeitraum) erhöhen.<br />

Testverfahren<br />

Ein Quintupel < Ω, , , f, X > ist ein<br />

Testverfahren, wenn Ω die Ergebnismenge<br />

ist (in der Anwendung meist diejenige<br />

Menge von Aufgabenprotokollen, die die<br />

kleinste Auswertungseinheiten sind),<br />

eine σ-Algebra von Teilmengen aus Ω<br />

ist, ein Wahrscheinlichkeitsmaß auf ,f : Ω → Φ eine zufällige Abbildung<br />

in die Menge Φ der untersuchten Personen,<br />

mit der die Testprotokolle den untersuchten<br />

Personen zugeordnet werden, und X :<br />

Ω → , der Rohwert, eine Zufallsgröße<br />

ist. Die untersuchte Person wird als zufällig<br />

aus der Personenmenge Φ ausgewählt<br />

betrachtet.f : Ω → Φ , ω α Auch hier ist<br />

damit impliziert, daß die Umkehrabbildung<br />

f^(-1) existiert und ihre Bilder in einer σ-<br />

Algebra über Ω liegen. Mittels f^(-1)(α)<br />

= B ist die Teilmenge B aller von einer<br />

bestimmten Person α erzeugten Antwortmuster<br />

.Mittels f wird demnach die<br />

Menge aller Antwortprotokolle Ω in eine<br />

Menge von Äquivalenzklassen Ω/ f = <br />

zerlegt. Jede Äquivalenzklasse enthält alle<br />

Antwortprotokolle einer bestimmten Person<br />

f(ω) Wenn bei Zufallsgrößen, wie es<br />

Testergebnisse sind, Varianzen und Kovarianzen<br />

gegeben sind, so kann man deren<br />

Definition leicht in ein allgemeineres algebraisches<br />

Konzept einbringen, das interessante<br />

Möglichkeiten des Theoretisierens<br />

eröffnet.<br />

Die einfachste Zufallsgröße<br />

Besonders einfache Zufallgrößen kommen<br />

häufig in der Psychologie vor und besitzen<br />

die Ausprägungen Null und Eins. Beispiele<br />

von Ereignismengen, die zu derartigen<br />

Zufallsgrößen führen. {ja, nein}, {stimme<br />

zu, stimme nicht zu}, {männlich weiblich},<br />

{richtig, falsch}, {Kopf, Wappen},<br />

{sechs gewürfelt, andere Augenzahl gewürfelt}.<br />

Da nur zwei Zahlenwerte mit<br />

bestimmten Wahrscheinlichkeiten anfallen<br />

, spricht man von einer Zweipunktverteilung.<br />

Die elementare Beobachtung<br />

Zweipunktverteilungen beschreiben das<br />

Verhalten bei einer gegebenen Alternative.<br />

Man könnte u. a. an „Tests“ denken, die<br />

aus einer einzigen Aufgabe bestehen. Das<br />

wissenschaftliche Problem lautet: Besitzt<br />

die Beobachtung einer bestimmten Alternative<br />

irgendeine Bedeutung über sich<br />

selbst hinaus?<br />

Ergebnis und Bedeutung<br />

Untersucht wird, ob das Ergebnis mit irgend<br />

einer infragekommenden Bedeutung<br />

in Zusammenhang steht. Da von zufälligen<br />

Ereignissen die Rede ist, wird nach einem<br />

Zusammenhang in Wahrscheinlichkeit<br />

gesucht.<br />

Unabhängigkeit zweier Ereignisse A und B<br />

liegt vor, wenn gilt P(A | B) = P(A). Abhängigkeit<br />

ist gegeben, wenn statt dessen<br />

die Ungleichheit gilt.<br />

P(A | B) ≠ P(A).<br />

Empirische Überprüfung<br />

Zur Prüfung der Abhängigkeit eines Ergebnisses<br />

und dessen mutmaßlicher Bedeutung<br />

ist eine empirische Untersuchung<br />

erforderlich. Beispiel: Bedeutet die Verwicklung<br />

in einen Verkehrsunfall, daß die<br />

Person als „unvorsichtig“ zu charakterisieren<br />

ist? Wir beobachten 100 Versuchspersonen<br />

über ein Jahr:<br />

Zusammenhang von Beobachtung<br />

und Bedeutung<br />

Die Ereignisse A und B sind stochastisch<br />

unabhängig, wenn die bedingte Wahrscheinlichkeit<br />

von A gegeben B gleich der<br />

Unbedingten Wahrscheinlichkeit von A ist:


er-<br />

17<br />

(22)<br />

Ziel<br />

reicht<br />

„nicht<br />

gelöst“<br />

Ziel nicht 37<br />

erreicht (32)<br />

„gelöst“<br />

25<br />

(20)<br />

25<br />

(30)<br />

Summe<br />

42<br />

62<br />

Summe 54 50 104<br />

Falsche Entscheidungen<br />

Man vermeidet die Blamage, fälschlich<br />

einen (neuen) Effekt für die Wissenschaft<br />

zu behaupten, wenn man die entsprechende<br />

Irrtumswahrscheinlichkeit „der ersten Art“<br />

möglichst klein ( 0,01 oder 0,05) ansetzt.<br />

Einen bestehenden Effekt zu übersehen gilt<br />

als weniger ehrenrührig. Die entsprechende<br />

Irrtumswahrscheinlichkeit „der zweiten<br />

Art“ wird höher angesetzt (> 0.2).<br />

( A | B ) = ( A ).<br />

Diese Beziehung ist empirisch prüfbar<br />

Kontingenztafel<br />

Die Nullhypothese<br />

Fehlende stochastische Abhängigkeit liegt<br />

vor, wenn die Beobachtungen in allen vier<br />

Feldern proportional zu den Randsummen<br />

auftreten. Genau dann sind nämlich die<br />

bedingten Wahrscheinlichkeitsschätzungen<br />

gleich den unbedingten. Man berechnet<br />

deshalb die unter der Nullhypothese erwarteten<br />

Häufigkeiten durch Multiplikation<br />

der zugehörigen Randsummen und Division<br />

durch die Gesamtsumme<br />

Zufallskritische Prüfung<br />

Die „Nullhypothese“ ist statistisch prüfbar,<br />

sobald man über eine Prüfgröße verfügt.<br />

Für Kontingenztafeln wurde diese von<br />

Pearson entwickelt. Er wies nach, daß die<br />

Summe der quadrierten Differenzen von<br />

beobachteten und erwarteten Häufigkeiten,<br />

bezogen auf die erwarteten Häufigkeiten,<br />

χ²-verteilt mit einem Freiheitsgrad ist. Hier<br />

ergibt sich χ² = 3,6, nicht signifikant. Die<br />

Nullhypothese wird beibehalten<br />

Ansatz der klassischen Testtheorie<br />

Die klassische Testtheorie geht davon aus,<br />

daß zwischen dem Testergebnis und seiner<br />

Bedeutung (dem Kriterium) streng zu unterscheiden<br />

ist. Sie stellt in Rechnung, daß<br />

das Kriterium durch das Testergebnis nicht<br />

sicher, sondern nur in Wahrscheinlichkeit<br />

determiniert ist. Grund dafür sei eine Unschärfe<br />

des Testergebnisses.<br />

Reproduzierbarkeit von Testergebnissen<br />

Der empirische Ansatz zur Bearbeitung<br />

dieses Programms ist die Bestimmung der<br />

Unschärfe des Testergebnisses an Hand<br />

seiner Reproduzierbarkeit (Reliabilität). Zu<br />

diesem Zweck sind psychologische Untersuchungsverfahren<br />

stets mehrfach an den<br />

gleichen Personen anzuwenden. Das erzeugt<br />

offenkundige neue Schwierigkeiten<br />

und verlangt deshalb nach einer Theoretischen<br />

Aufarbeitung.<br />

Alternative Darstellungen<br />

Die Reproduzierbarkeit von Testergebnissen lässt<br />

sich auf verschiedene, grundsätzlich gleichwertige<br />

Weisen darstellen. Damit man Zeichnungen herstellen<br />

kann, werden vorübergehend Verteilungsannahmen<br />

für die Befunde eingeführt. Sie sollen unimodal<br />

und symmetrisch im Sinne der Gaußschen<br />

Normalverteilung auftreten.


f( x )<br />

1<br />

2<br />

2 e<br />

x 2<br />

Es ergibt sich für die Testergebnisse die bekannte<br />

glockenförmige Verteilungsdichte:<br />

2<br />

Nun kann man die gemeinsame (zweidimensionale)<br />

Verteilungsdichte zeichen. Graph der gemeinsamen<br />

Dichte für rho = 0,8 :<br />

Isodensiten<br />

Normalverteilte Testergebnisse (Erwartungswert<br />

null, Varianz eins).<br />

Bedingte Verteilungsdichte<br />

Manchmal verzichtet man auf eine perspektivisch<br />

dreidimensionale Darstellung und gibt den Sachverhalt<br />

durch Ellipsen in der x-y Ebene wieder.<br />

Diese „Isodensiten“ hängen mit der zweidimensionalen<br />

Verteilungsdichte so zusammen, wie die<br />

folgende Abbildung zeigt.<br />

Will man den Grad der Reproduzierbarkeit graphisch<br />

darstellen, so bezieht man sich auf eine<br />

zweidimensionale Verteilungsdichte von, beispielsweise<br />

Testdurchführung und einer Testwiederholung<br />

nach zwei Wochen. Um diese zweidimensionale<br />

Dichte zeichen zu können, bedarf es<br />

einer Annahme über die bedingten Verteilungsdichten.<br />

Das sind die Ergebnisse der Wiederholungsuntersuchung,<br />

abgetragen für ein festes Ergebnis in<br />

der ersten Testdurchführung. Hier wird angenommen,<br />

eine brauchbare Wiederholbarkeit liege vor,<br />

dea erste Testergebnis bestimme denMittelwert der<br />

bedingten Verteilungen linear. Man spricht von<br />

einer lineare Regression, E(Y|x) = ρ x. Die bedingte<br />

Varianz sei 1 – ρ².<br />

fb ( y,<br />

x )<br />

Gemeinsame Verteilungsdichte<br />

Multipliziert man die bedingte Dichte fb(x,y) [ sie<br />

wird sonst durch f (y | x) abgekürzt] mit der unbedingte<br />

Dichte f (x), so erhält man die gemeinsame<br />

Dichte f (x,y):<br />

f ( x,<br />

y )<br />

1<br />

2<br />

1<br />

2<br />

e<br />

2 e<br />

( y x )<br />

2<br />

2<br />

2 ( 1 )<br />

1<br />

x 2 2 x y y 2<br />

2<br />

2 ( 1 )<br />

1<br />

2<br />

2<br />

Zweidimensionales Streuungsdiagramm<br />

Schließlich ist auch eine graphische Darstellung<br />

von zweidimensionalen Stichproben üblich. Jede<br />

Versuchsperson ist durch zwei Werte charakterisiert,<br />

ihren Wert in der ersten Untersuchung und<br />

ihren Wiederholungswert. Benutzt man diese beiden<br />

Werte als x- und y-Wert in einem Koordinatensystem,<br />

so entsteht ein Streuungsdiagramm:


definiert ist, für die weiterhin eine assoziative<br />

Verknüpfung . , die skalare Multiplikation<br />

mit Zahlen definiert ist, heißt<br />

Raum, seine Elemente Vektoren.<br />

Zweck der formalen Testtheorie<br />

Ziel einer formalisierten Testtheorie ist es, beweisbare<br />

Aussagen über die Reproduzierbarkeit (Reliabilität)<br />

und die diagnostische Bedeutung (Validität)<br />

der Befunde (Testergebnisse) zu tätigen. Das<br />

bezieht sich z. B. auf die Abhängigkeit dieser Gegebenheiten<br />

von der Länge des Tests oder auf deren<br />

Zusammenhang untereinander.<br />

Traditionelle Theorie<br />

Bis in die siebziger Jahre galt es als erforderlich,<br />

detaillierte Annahmen über die<br />

Ursache der Unschärfe der Befunde und<br />

ihren stochastischen Zusammenhang mit<br />

anderen Größen, z. B. dem reproduzierten<br />

Befund aufzustellen (Gulliksen, 1950).<br />

Nach heutiger Sicht ist die bei geeigneter<br />

Wahl eines theoretischen Ansatzes überflüssig<br />

(Zimmermann, 1975).<br />

Ist außerdem ein Skalarprodukt für alle<br />

Paare a, b das Skalarprodukt als < a, b > =<br />

a1b1 + a2b2 + ... + anbn definiert, so läßt sich<br />

eine Norm durch |x| = < x, x > ^(1/2) einführen.<br />

Gilt für diese Norm, daß sie nichtnegativ<br />

ist, den Wert Null nur für x = 0<br />

annimmt, Homogenität bei der Multiplikation<br />

mit Zahlen und die Dreiecksungleichung<br />

gelten, so spricht man von einem<br />

euklidischen Raum.<br />

Ein Beispiel für einen dreidimensionalen<br />

( n = 3 ) euklidischen Raum ist der physikalische<br />

Raum (im Kleinen) um uns. Er<br />

besitzt die wichtige Eigenschaft der Zerlegbarkeit<br />

in orthogonale Unterräume.<br />

Zwei Unterräume sind orthogonal zueinander,<br />

wenn das Skalarprodukt je eines<br />

Vektors aus einem mit einem Vektor aus<br />

dem anderen Unterraum verschwindet.<br />

Geometrisch läßt sich Orthogonalität von<br />

Vektoren als Rechtwinkligkeit repräsentieren.<br />

Durch einen geeigneten Operator : V <br />

V läßt sich ein Vektor des Raumes auf einen<br />

Unterraum abbilden, beispielsweise<br />

ein Punkt x des dreidimensionalen Raumes<br />

V in eine Ebene U des gleichen Raumes V.<br />

Der Raum der Befunde<br />

Zimmermann (1975) hat ein einfaches<br />

räumliches Modell aufgestellt, aus dessen<br />

einziger Grundannahme die sogenannten<br />

Axiome der traditionellen Theorie rein<br />

logisch ableitbar sind. Er machte sich dabei<br />

zunutze, daß geläufige statistische Parameter,<br />

wie die Kovarianz, anschauliche geometrische<br />

Repräsentationen besitzen.<br />

Der Begriff des Raumes<br />

Eine Menge von Elemente a, b,... , für die<br />

eine kommutative ,assoziative und umkehrbare<br />

Verknüpfung , die Summe,


Ist die Abbildung so gewählt, daß die<br />

Differenz c des Bildes b = (x) und des<br />

Urbildes x orthogonal zu allen Elementen<br />

U ist, so spricht man von einer Projektion<br />

auf U. Es gilt dann x = b c. Diese Zerlegung<br />

von x ist eindeutig. Man sagt, diese<br />

beiden Unterräume sind Orthogonalkomplemente<br />

voneinander.<br />

Ein für die Testtheorie wichtiger Satz<br />

konstatiert die folgenden Gleichheiten:<br />

a, b ab | a | | b | cos<br />

(1.1)<br />

1<br />

n<br />

i<br />

i<br />

m it 0 .<br />

Daraus folgt ,daß das Skalarprodukt < a,b><br />

dividiert durch |a| uns |b| gleich dem cos <br />

ist, also zwischen -1 und +1 liegt. Auf<br />

Grund dieser Ungleichung kann man den<br />

Korrelationskoeffizienten geometrisch<br />

durch den Kosinus des von den Testvektoren<br />

eingeschlossenen Winkels repräsentieren.<br />

Auf diese Weise werden Tests als<br />

Vektoren der Länge ihrer Standardabweichungen<br />

in einer Richtung repräsentiert,<br />

die durch ihre Korrelation mit Bezugstests<br />

gegeben ist.<br />

Summen von Zufallsgrößen<br />

Werden die Zufallsgrößen X,Y : Ω → <br />

als stets auf die Komponenten ω Ω, z. B.<br />

Rohwertklassen, bezogen zusammengezählt,<br />

so ist die Operation additiv:<br />

(X Y)(ω) : = X(ω) +Y(ω) für jedes ω.<br />

Beispiel: Sei X die Auswertung der einer<br />

Aufgabensammlung der weiblichen Vpn.,<br />

Y die entsprechende Auswertung der ännlichen,<br />

so ist die Summe eine Zufallgröße,<br />

über alle Personen. Sie besitzt Erwartungswert<br />

und Varianz.<br />

Produkte von X und Y<br />

Der Begriff des (auf jede Ausprägung ω<br />

der Zufallsgrößen X und Y bezogenen)<br />

Produktes von Zufallsgrößen ist definiert.als<br />

(X Y)(ω) := X(ω)Y(ω) für jedes ω.<br />

Beispiel: Die Berechnung der Produktes<br />

der Ergebnisse X und Y aus dem vorangegangenen<br />

Beispiel. Auch hier ist der Bezug<br />

wieder auf die Ausprägungen ω der Zufallsgrößen.<br />

Produktbildung geht ein in die<br />

Berechnung der Kovarianz<br />

cov(X,Y) = (XY) - (X) (Y).<br />

Zimmermann (1975)hat gezeigt, daß die<br />

Repräsentation der Addition und Multiplikation<br />

von Testergebnissen als reellwertige<br />

Zufallsgrößen X über einem gemeinsamen<br />

Wahrscheinlichkeitsraum < Ω, , > die<br />

Grundbegriffe der klassischen Testtheorie<br />

als die Eigenschaften einer geometrischen<br />

extensiven Struktur repräsentierbar macht.<br />

Sie gestattet eine besonders transparente<br />

Darstellung der Theorie.<br />

Ein (reeller) Hilbert-Raum<br />

ist definiert als vollständiger linearer Vektorraum<br />

über , in dem ein skalares Vektorprodukt<br />

(X,Y) = Σ XY gegeben ist, bei<br />

dem stets gilt (X,X) ≥ 0, und aus (X,X) = 0<br />

folgt X = 0. Ein Beispiel ist der gewöhnliche<br />

uns umgebende dreidimensionale<br />

Raum. Bei den Anwendungen aus der<br />

Testtheorie ist die Anzahl der Dimensionen,<br />

über die bei der Skalarproduktbildung<br />

zu summieren ist, meist gleich der Anzahl<br />

der vorkommenden Testwerte. Ein dreidimensionales<br />

Beispiel ist ein Test, dessen


Ergebnisse in der Menge Ω = { niedrig,<br />

mittel, hoch} liegen. Kommen als Testergebnisse<br />

die Zahlen von Null richtigen<br />

Antworten bis 45 richtige Antworten vor<br />

(Progressive Matrices Test), dann ist der<br />

Raum von der Dimensionalität 46. Die<br />

Dimensionalität kann bei kontinuierlichen<br />

Testwerten, z.B. Reaktionszeiten, über alle<br />

Grenzen wachsen. Vollständig bedeutet<br />

dann, daß jede Cauchy-Folge von Vektoren<br />

gegen einen festen Grenzvektor konvergiert.<br />

Geometrische Interpretation der Kovarianz<br />

als Skalarprodukt zweier Zufallsgrößen X<br />

und Y.(Für diese Beispiel werden der einfachen<br />

Schreibweise halber Erwartungswerte<br />

von X = Y = 0 vorausgesetzt):<br />

Anstelle von cov(X,Y) = XY kann man<br />

wie in der Algebra schreiben cov(X,Y) =<br />

||X|| ||Y|| cos . Unmittelbar ist ersichtlich,<br />

dass nun die Standardabweichungen von X<br />

und Y als Vektorlängen und die Korrelation<br />

zweier Tests als Kosinus des von ihren<br />

Vektoren eingeschlossenen Winkels repräsentiert<br />

sind. Diese Repräsentation wird<br />

meistens mehr als dreidimensional ausfallen,<br />

weil die empirischen Winkel im Dreidimensionalen<br />

nicht immer „passen“. Eine<br />

Aufgabe der Theorie psychologischer<br />

<strong>Diagnostik</strong> besteht in der Aufdeckung des<br />

Zusammenhangs der beiden geometrischen<br />

Repräsentationen.<br />

Andere Aufgaben sind die Bestimmung der<br />

Voraussetzungen, die ein Test besitzen<br />

muß, um eine von Null verschieden Validität<br />

erreichen zu können, Die Untersuchung<br />

der Abhängigkeit dieser Voraussetzungen<br />

von der Testlänge, die Konstruktion von<br />

sogenannten Paralleltests, mit deren Hilfe<br />

die Reproduzierbarkeit von Testergebnissen<br />

an den gleichen Personen ohne erneute<br />

Verwendung der gleichen Testaufgaben<br />

möglich wird, und vieles mehr.<br />

Historische Anmerkung.<br />

Die psychologischen <strong>Diagnostik</strong> hat bereits<br />

in der ersten Hälfte des zwanzigsten Jahrhunderts<br />

versucht, eine geschlossene Theorie<br />

zu entwickeln, die sich aus wenigen<br />

Grundannahmen rein logisch ableiten läßt<br />

Gulliksen, 1950, führt fünf solche Annahmen<br />

auf, aus denen sich Antworten auf die<br />

genannten Fragen und andere ableiten<br />

lassen.Es sind dies – neben der Annahme<br />

dass für alle vorkommenden Zufallsgrößen<br />

Erwartungswerte und Varianzen existieren<br />

und endliche Werte annehmen –<br />

Fünf „Axiome“:<br />

Die Zufallsgröße X , die das Testergebnis<br />

ausmacht, ist in einen „wahren Wert“, T,<br />

und eine Fehlerkomponente , E, additiv<br />

dekomponierbar:<br />

X = T + E.<br />

E = 0, die Fehlerkomponente ist unsystematisch.<br />

TE = 0, wahrer Wert und Fehler korrelieren<br />

nicht.<br />

E1E2 = 0, Fehler in verschiedenen Tests<br />

korrelieren nicht,<br />

E1T21 = 0, Fehler eines Tests korrelieren<br />

nicht mit dem wahren Wert eines anderen<br />

Tests.<br />

Der „wahre“ Wert<br />

Die klassische Testtheorie faßt den Erwartungswert<br />

( Mx | B) der „wahren“ Werte,<br />

als gleich dem stets existierenden Erwartungswert<br />

der („Roh-“)Werte X auf. ( Mx<br />

| B ) = ( X | B) für alle B . Dabei ist<br />

B die Menge der Antwortmuster.<br />

„Wahrer“ Wert einer Person<br />

Um diesen zu finden, muß man mittels f<br />

eine Person α aus der Menge Φ wählen und<br />

dann über deren Menge γ (α) von Antwortmustern<br />

Mx(ω) = ( (X | γ (α) ) für<br />

jedes ω Ω bestimmen. Die Größe Mx ist<br />

auf die Person bezogen konstant. Sie ist<br />

gleich ihrem Erwartungswert.<br />

Die Bestimmung von Mx als Operator


Mx = (X | f) o f ist eine zusammengesetzte<br />

Abbildung, wobei X und f über dem<br />

gleichen Wahrscheinlichkeitsraum definiert<br />

sind. Nur auf die B bedingt, macht<br />

Mx aus der Zufallsgröße X eine neue Zufallsgröße<br />

Mx, im Raum aus einem Vektor<br />

einen neuen. Man spricht deshalb von einem<br />

Operator Mx.<br />

Mx ein linearer Operator<br />

Kovarianzen<br />

cov(Mx,Y) = cov(X,My) = cov(Mx,My),<br />

weil (MxY) = (Mxy) = (MxMy)<br />

= (MxMy ) = (XMy). Weiterhin gilt<br />

cov(Mx,Y) = (MxY) - ( (Mx)) (Y) =<br />

(MxMy) - ((Mx))((My)) =<br />

cov(Mx,My).<br />

Es gilt Mx+y(ω) = ( X + Y | γ(ω))<br />

= ( X | γ(ω)) + ( Y | γ(ω))<br />

= Mx(ω) + My(ω), für jedes<br />

ω Ω<br />

und deshalb Additivität<br />

Mx+y = Mx + My,<br />

außerdem Homogenität<br />

Mαx = α Mx, für alle α .<br />

Reliabilität als True-Score Anteil<br />

Satz 1: ² (X, Mx) = var(Mx) / var(X).<br />

Beweis: Einsetzen von<br />

cov(Mx,X) = cov(Mx,Mx) = var(Mx)<br />

in die Definition von<br />

² := cov(X, Mx)²/ (var(X)var(Mx)). <br />

Sonderfall: Konstanten<br />

Sei Y eine auf jeder Äquivalenzklasse von<br />

Ω konstante Zufallsgröße.<br />

Dann gilt wegen der Linearität<br />

Mxy(ω) = ( XY | (ω) )<br />

=(X| (ω) ) Y(ω)<br />

=Mx (ω) Y(ω), für jedes ω Ω<br />

und deshalb Mxy = Mx Y.<br />

Wegen ( Mx | Ω) = ( X | Ω)<br />

gilt ( Mx ) = (X). Außerdem<br />

Mx-x = Mx - ( Mx).<br />

Validität höchstens gleich Reliabilität<br />

Satz 2: (X, My) (X, Mx).<br />

Beweis: Wegen cov(Mx,My)² <br />

var(Mx)var(My),<br />

der Schwarzschen Ungleichung, und wegen<br />

cov(Mx,Y) = cov(X,My)<br />

nach Einsetzen unter Benutzung von Satz<br />

1.<br />

Bedingt unabhängige Zufallsgrößen<br />

X1 und X2 sind bedingt unabhängige Zufallsgrößen<br />

in Bezug auf f, wenn für alle<br />

(ω) B aus < Ω, , > die Zufallgrößen<br />

X1 | (ω) und X2 | (ω) unabhängig<br />

sind. Für sie ist die bedingte Erwartung


ihres Produkts gleich dem Produkt ihrer<br />

bedingten Erwartungen:<br />

Satz: Mx1x2 = Mx1 Mx2,<br />

Beweis: Wegen<br />

Mx1x2 = (X1X2| (ω))<br />

= (X1 |(ω))( X2 |(ω))<br />

=Mx1(ω)Mx2(ω), für jedes ω Ω.<br />

Paralleltests<br />

Zufallsgrößen X1 und X2 sind bedingt auf<br />

f identisch verteilt, wenn für alle D Λdie<br />

Zufallsgrößen X1|D und X2|D identisch<br />

verteilt sind, d. h., die induzierten Wahrscheinlichkeitsverteilungen<br />

Px1|D und<br />

PX2|D sind gleich.<br />

Wenn dies für X1 und X2 der Fall ist, so<br />

gilt Mx1 = Mx2, aber nicht ohne weiteres<br />

die Umkehrung.<br />

Paralleltest-Korrelation als Reliabilität<br />

Satz 3: Seien X1 und X2 bedingt unabhängige,<br />

bedingt identisch verteilte Zufallsgrößen.<br />

Dann gilt<br />

ρ(X1,X2) = var(Mx1) / var (X1).<br />

Beweis:<br />

cov(X1,X2)=X1X2 - X1X2<br />

=Mx1x2 - Mx1 Mx2, wegen Mx =<br />

X,<br />

=Mx1,Mx2 - Mx1Mx2, wegen Mx1x2<br />

= Mx1Mx2,<br />

=cov(Mx1,Mx2) = var(Mx ) = var(Mx2),<br />

und Einsetzen in<br />

(X1,X2) = cov(X1,X2)/(X1X2)<br />

Def.: Zufallsgrößen X1 und X2 sind bezogen<br />

auf f bedingt unkorreliert, wenn für<br />

alle D Λ die Zufallsgrößen X1|D und<br />

X2|D unkorreliert sind, d. h.<br />

cov(X1|D,X2|D) = 0.<br />

Bedingt unabhängige Zufallsgrößen sind<br />

bedingt unkorreliert, aber i. a. nicht umgekehrt.<br />

X1 und X2 sind bedingt unkorreliert,<br />

gdw. Mx1x2 = Mx1 Mx2.<br />

Testverlängerung durch parallele<br />

Teile<br />

Satz 4: Seien X1, X2, ...Xn bedingt unabhängige,<br />

bedingt identisch verteilte Zufallsgrößen<br />

und Sn = X1 + X2 + ... + Xn.<br />

Es gilt<br />

ρ²(Sn,Msn)<br />

= n ρ²(X1,Mx) /[1 +(n-1) ²(X1,Mx1)].<br />

Beweis: Da X1, X2, ...Xn bedingt unabhängig<br />

und bedingt identisch verteilt sind,<br />

gilt cov(Xi,Xj)=cov(Mxi,Mxj)=var(Mx1)<br />

für i,j=1,2,...,n. Außerdem gilt,<br />

wie im Beweis von Satz 3 Var(Sn)=<br />

Σvar(Xi)+cov(Xi,Xj)=n var(X1)+n (n-<br />

1)var(Mx1),<br />

und var((Msn)= n² var(Mx1). Wegen<br />

ρ²(Sn,Msn) = var(Msn/var(Sn) und<br />

ρ²(X1,Mx1)= var(Mx1)/varX1) nach Einsetzen<br />

gilt wegen ²(X,Mx) = var(Mx)/<br />

var(X) die Behauptung.<br />

Der Meßfehler<br />

Def: Das Komplement der bedingten Erwartung<br />

von X bezogen auf f ist eine Zufallsgröße<br />

(X – Mx) : Ω , gegeben durch<br />

(X - Mx)() =X() –Mx(), für jedes <br />

Ω.<br />

Bezeichnet man den Identitätsoperator mit<br />

1, so lässt sich 1 – M als der Operator auffassen,<br />

der aus der Zufallsgröße X die Zufallsgröße<br />

X – Mx macht. Mx-Mx =0 wegen<br />

MMx= Mx und


Mx-Mx = (X – Mx) = 0, wegen Mx<br />

= X.<br />

True-score und Fehler unkorreliert<br />

Weiterhin gilt<br />

[(X – Mx)Y] = (XY)-(MxY) =<br />

(XY) - (XMy) = [X(Y-My)], und<br />

[(X-Mx)(y – My)] = (XY) - (MxMy)<br />

= (XY)- (MxY). Weil (X – Mx) = (Y<br />

– My) = 0,<br />

ist hierdurch bewiesen, daß cov(X –<br />

Mx),Y) =cov(X,Y – My)=cov(X – Mx,Y –<br />

My),<br />

speziell:<br />

cov(X – Mx,X) = cov(X-Mx,Y – My) =<br />

var(X – Mx).<br />

Außerdem: cov(X – Mx,My) = cov(X,My<br />

– MMy) = cov(X,0) = 0. Also:<br />

Cov(X-Mx,Mx) = 0.<br />

Geometrische Repräsentation<br />

und m Testwiederholungen, ist L2() ein<br />

n-dimensionaler Euklidischer Raum und<br />

L2() ein m-dimensionaler Unterraum.<br />

Das Skalarprodukt zweier auf den Erwartungswert<br />

bezogenen Zufallsgrößen ist ihre<br />

Kovarianz<br />

< (X - X, Y - Y > = cov(X,Y).<br />

Standardabweichung entspricht der<br />

Vektorlänge<br />

Die Norm einer auf ihren Erwartungswert<br />

bezogene Zufallsgröße ist ihre Standardabweichung.<br />

|| X - X || = X .<br />

Für eine Zufallgröße X L2() ist die<br />

bedingte Erwartung Mx durch die Projektion<br />

von X auf L2() gegeben.<br />

Fehlerverteilung als othogonale<br />

Projektion<br />

Das Komplement der bedingten Erwartung<br />

X – Mx ist die Projektion von X auf<br />

das orthogonale Komplement von L2().<br />

Sei < Ω, , > ein Wahrscheinlichkeitsraum<br />

und eine -Algebra, die<br />

durch den zufälligen Punkt f : Ω induziert<br />

ist. Sämtliche Zufallgrößen mit endlicher<br />

Varianz, die auf < Ω, , > definiert<br />

sind, bilden den Hilbert-Raum L2().<br />

Er besitzt das Skalarprodukt < X1, X2 > =<br />

(X1X2) und die Norm ||X|| = X² .<br />

L2() bildet einen abgeschlossenen Unterraum<br />

von L2().<br />

Bei endlichen Wahrscheinlichkeitsräumen,<br />

wenn Ω n Elemente und m<br />

Elemente enthält, also z. B. bei N Tests<br />

Der Operator M, der jedem X seine bedingte<br />

Erwartung Mx zuordnet, und der<br />

Operator 1 – M , der jedem X das Komplement<br />

der bedingten Erwartung X - M<br />

zuordnet, sind orthogonale Projektionen.<br />

X² = T² + E² als Satz des Pythagoras<br />

Jede Zufallsgröße X L2() ist die eindeutige<br />

Summe einer Zufallgröße Mx im<br />

Unterraum L2() und einer Zufallsgröße X<br />

– Mx im orthogonalen Komplement von<br />

L2(). Es gilt<br />

||X||² = || Mx ||² + || X – Mx ||² ,


das bedeutet var(X) = var (Mx) + Var ( X –<br />

Mx).<br />

MMx = Mx und ( 1 – M)x-Mx = X –M<br />

gelten, weil Projektionsoperatoren die Eigenschaft<br />

der Idempotenz besitzen.<br />

Mx-Mx = 0 und ( 1 –M)Mx =0 weil beide<br />

Male das orthogonale Komplement eines<br />

Unterraumes auf den Nullvektor projiziert<br />

wird.<br />

True-score und Fehler unkorreliert<br />

Daß cov (Mx Y – My) = 0, oder daß der<br />

wahre Wert eines Tests mit dem Fehlerwert<br />

eines anderen Tests unkorreliert ist,<br />

gilt, weil jeder Vektor in L2() orthogonal<br />

zu jedem Vektor im othogonalen Komplement<br />

von L2() ist.<br />

Die Gleichheit cov(X, Mx) = var(Mx) entspricht<br />

< X - X, Mx-x> = || X – Mx||² , und<br />

cov((X, X-Mx) = var (X-Mx) wegen < X -<br />

X, X –Mx> = || X – Mx ||². Das sind Eigenschaften<br />

aller orthogonaler Projektionen.<br />

Traditionelle Darstellung der gleichen<br />

Sachverhalte<br />

Die Überslegenheit des zeitgenössischen<br />

Zugangs wird besonders deutlich, wenn<br />

man diese Ergebnisse in traditioneller Weise<br />

ableitet, wie es z. B. Gulliksen (1950)<br />

tut:<br />

Paralleltest-Korrelation<br />

Zu diesem Zweck werden Paralleltests so definiert,<br />

daß ihre Interkorrelation gleich der Reliabilität<br />

wird: (Mindestens) drei Tests sind parallel, wenn<br />

Sie gleiche Erwartungswerte , gleiche Varianzen<br />

und gleiche Interkorrelationen aufweisen und die<br />

True-Scores der Personen gleich sind.<br />

Paralleltestkorrelation gleich Reliabilität<br />

ρ xx´= T²/ X²<br />

cov( X , X ´) cov( X , X ´)<br />

XX ´ 2<br />

X X ´<br />

X<br />

cov( X , X ´) E ( X * X ´) E ( X ) E ( X ´),<br />

E ( X * X ´) E (( T e) * ( T ´ e´))<br />

E ( TT ´ Te´ eT ´ ee´) E ( TT ´) E ( Te´)<br />

E ( eT ´) E ( ee´). E ( X ) E ( X ´)<br />

E ( T e) * E ( T e´) E ( T ) E ( T )<br />

E ( T ) E ( e) E ( e´) E ( T ) E ( ee´).<br />

cov( X , X ´ ) ²( T )<br />

Varianzverdoppelung i. a. nicht additiv<br />

2<br />

x y<br />

E (( X Y )²) ( E ( X Y ))²<br />

E ( X ² 2 XY Y ²)<br />

( E ( X )² 2 E ( X ) E ( Y ) E ( Y )²)<br />

E ( X ²) 2 E ( XY ) E ( Y ²)<br />

E ( X )² 2 E ( x) E ( Y ) E ( Y )²<br />

2 2 2 2<br />

2 cov( X , Y ) 2<br />

x y x y x y xy<br />

Reliabilität bei doppelter Testlänge<br />

Varianzen bei doppelter Länge<br />

´ ´<br />

x y , x y<br />

x y ´ ´<br />

x y<br />

´ ´<br />

cov( X Y , X Y )<br />

´ ´<br />

1, 2 , 1 2<br />

cov(2T e e 2 T e e )<br />

2<br />

x y<br />

cov(2 T, 2 T )<br />

2 2<br />

x y<br />

x y xy<br />

2 cov( , ) (1 )<br />

Zu beachten ist, daß sich bei doppelter Länge die<br />

True-Varianz vervierfacht, während sich die Fehler-<br />

Varianz nur verdoppelt. Dieser quadratische Anstieg<br />

gegenüber einem linearen bringt den Gewinn<br />

an Reliabilität und gilt auch bei allgemeiner Testverlängerung<br />

um das n-fache.<br />

Reliabilität bei n-facher Testlänge<br />

n n n<br />

X Y , e e , T T<br />

i i i<br />

i 1 i 1 i 1<br />

n n n<br />

2<br />

x<br />

2<br />

Yi YiYj<br />

i 1 i 1 j 1<br />

,<br />

j<br />

2<br />

i<br />

xy<br />

n n n<br />

2<br />

Yi TiTj Ti Tj<br />

i 1 i 1 j 1<br />

,<br />

j<br />

i


Bei Parallelität wird daraus wegen<br />

2 2<br />

n n<br />

x y yy´<br />

[1 ( 1) ]<br />

2 2<br />

n ²<br />

T<br />

T1<br />

2 2<br />

n<br />

e<br />

e1<br />

Spearman-Brown (1907):<br />

YY ´<br />

n<br />

Y 1Y<br />

1 '<br />

1 ( n 1)<br />

Y 1Y<br />

1 '<br />

Reliabilität und Testlänge graphisch<br />

Man sieht, dass auch diese Darstellung<br />

schlüssig ist, selbst wenn sie auf Voraussetzungen<br />

begründet ist, die sich aus dem<br />

Zimmermannschen (1975) Ansats als Sätzt<br />

ableiten lassen.<br />

Literatur<br />

Bamberg, G. (1972). Statistische Entscheidungstheorie.<br />

Würzburg: Physica-Verlag.<br />

Bosch, K. (1976). Elementare Einführung<br />

in die Wahrscheinlichkeitsrechnung. Reinbeck:<br />

Rowohlt.<br />

Bosch, K. (1982). Elementare Einführung<br />

in die angewandte Statistik. Braunschweig:<br />

Vieweg.<br />

Testlänge und Validität<br />

2<br />

X<br />

k<br />

, Y<br />

l<br />

2<br />

2 2<br />

X<br />

k<br />

Validität:Verlängerung nur des Tests<br />

X<br />

2<br />

k<br />

, Y<br />

( X , Y )<br />

1 ( k 1) ( X , X ') 1 ( l 1) ( Y , Y ')<br />

2<br />

X<br />

k<br />

, Y<br />

k<br />

2<br />

kl<br />

2<br />

( X , Y )<br />

X<br />

Validität und Testlänge n graphisch für verschiedene<br />

Reliabilitäten<br />

l<br />

Y<br />

2 2<br />

X<br />

k<br />

1 ( k 1) ( X , X ')<br />

k<br />

l<br />

, Y<br />

Y<br />

Fischer, G. (1974). Einführung in die<br />

Theorie psychologischer Tests. Bern: Huber.<br />

(Kap. 1 - 19).<br />

Gulliksen, H. Theory of Mental Tests, New<br />

York, Wiley, 1950.<br />

Lord, F. M. & Novick, M. R. : Statistical<br />

Theories of Mental Test Scores.Reading,<br />

Addison-Wesley, 1968.<br />

Zimmerman, D. W. : Probability Space,<br />

Hilbert Space and the Axioms of Test Theory.<br />

Psychometrika, 40, (3) 395 – 412,<br />

1975<br />

Lindgren, B.W. (1971). Elements of decision<br />

theory. New York: MacMillan.<br />

(Wird fortgesetzt.)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!