Konzeptuelles und prozedurales Wissen als latente Variablen: Ihre ...
Konzeptuelles und prozedurales Wissen als latente Variablen: Ihre ...
Konzeptuelles und prozedurales Wissen als latente Variablen: Ihre ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Validierung kognitiver Modelle mittels Strukturgleichungsmodellen 119<br />
Nach der Datenerhebung sind die Daten zu bereinigen. Ausreißer können die<br />
Parameterschätzung verzerren <strong>und</strong> sollten eliminiert werden. Einige Schätzalgorithmen<br />
können mit missing data umgehen, andere nicht. Nach der Entscheidung für einen<br />
Schätzalgorithmus sind gegebenenfalls Fälle mit fehlenden Daten von der Analyse<br />
auszuschließen. In großen Datensätzen können die fehlenden Daten alternativ durch<br />
multiple imputations geschätzt werden (Raykov et al., 1991).<br />
Im nächsten Arbeitsschritt sind die deskriptiven Eigenschaften der Daten zu<br />
überprüfen. Die Mittelwerte <strong>und</strong> Varianzen der manifesten <strong>Variablen</strong> sollten im Bereich<br />
derselben Größenordnung liegen, um Konvergenzprobleme zu vermeiden (Muthén &<br />
Muthén, 1998-2004b, S. 321).<br />
Von großer Wichtigkeit ist die Überprüfung der Verteilungseigenschaften der<br />
manifesten <strong>Variablen</strong>. Der älteste <strong>und</strong> aufgr<strong>und</strong> mehrerer Vorzüge am häufigsten genutzte<br />
Schätzalgorithmus zur Parameterbestimmung ist der maximum-likelihood estimator (Rost,<br />
2004, S. 303-308). Seine Anwendung setzt allerdings die multivariate Normalverteilung<br />
der gemessenen <strong>Variablen</strong> voraus. Notwendige, aber nicht hinreichende Bedingung für<br />
multivariate Normalverteilung ist die univariate Normalverteilung der einzelnen <strong>Variablen</strong>.<br />
Ist keine multivariate Normalverteilung gegeben, kann einer der anderen inzwischen<br />
entwickelten Schätzalgorithmen genutzt werden. Übersichten über sie <strong>und</strong> ihre<br />
Eigenschaften geben unter anderem Muthén <strong>und</strong> Muthén (1998-2004b, S. 398-402) sowie<br />
Bollen (1989, S. 104-123).<br />
Eine positive Eigenschaft des maximum-likelihood estimators ist, dass er den<br />
Modellfit in Form eines Chi-Quadrat-Wertes bestimmt (Rost, 2004, S. 336). Auf<br />
Gr<strong>und</strong>lage dieser Werte ist der Chi-Quadrat-Differenz-Test (Steiger, Shapiro, & Browne,<br />
1985) möglich, der die Fits zweier Modelle miteinander vergleicht. Dabei muss das eine<br />
Modell durch Hinzufügen von Restriktionen, zum Beispiel der Fixierung von freien<br />
Parametern, aus dem anderen ableitbar sein. Das restriktivere der beiden Modelle wird<br />
dann <strong>als</strong> genestetes (geschachteltes) Modell bezeichnet, weil es einen Spezialfall darstellt,<br />
der unter das allgemeinere Modell fällt. Man kann dann mit Hilfe eines Chi-Quadrat-<br />
Differenz-Tests die Hypothese überprüfen, dass das genestete Modell (aufgr<strong>und</strong> der<br />
zusätzlichen Restriktionen) einen schlechteren Modellfit hat <strong>als</strong> das ursprüngliche Modell.<br />
Falls dies signifikant der Fall ist, sind die zusätzlichen Restriktionen zu verwerfen <strong>und</strong> das<br />
ursprüngliche Modell ist beizubehalten (Bollen, 1989, S. 289-291).<br />
Der Chi-Quadrat-Differenz-Test ist eines der wichtigsten Mittel zum Modellvergleich<br />
<strong>und</strong> zur Modelloptimierung. Das ist einer der Gründe, warum der maximum-likelihood