01.03.2014 Aufrufe

PISA 2012: Die Studie im Überblick - Bifie

PISA 2012: Die Studie im Überblick - Bifie

PISA 2012: Die Studie im Überblick - Bifie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Datenerhebung und -verarbeitung 45<br />

Datenerfassung und Bewertung der<br />

Schülerantworten auf offene Fragen<br />

Bevor mit der Erfassung der Daten aus den Testheften und<br />

Schülerfragebögen begonnen wird, wird eine Rücklaufkontrolle<br />

der Testmaterialien durchgeführt. <strong>Die</strong>se fand in Öster<br />

reich <strong>im</strong> Mai <strong>2012</strong> statt. Dabei wurde für jede Schule<br />

dokumentiert, ob die Materialien vollständig retourniert<br />

worden waren. Zusätzlich wurde für jeden/jede Schüler/in<br />

notiert, ob die ihm/ihr zugeordneten Testinstrumente bearbeitet<br />

oder unbearbeitet retourniert wurden. <strong>Die</strong> Protokolle<br />

aller Testsitzungen wurden gesammelt, kontrolliert und zu<br />

einem späteren Zeitpunkt analysiert.<br />

Im nächsten Schritt wurden die Schülerantworten aus den<br />

Testheften und Schülerfragebögen elektronisch erfasst. <strong>Die</strong>s<br />

erfolgte bei <strong>PISA</strong> <strong>2012</strong> größtenteils automatisiert, indem<br />

die Testhefte und Fragebögen mithilfe von Scannern und<br />

einer Spezialsoftware verarbeitet wurden. Alle Antworten<br />

in den Schülerfragebögen, bei denen die Jugendlichen<br />

eine Antwort ankreuzen mussten, sowie Antworten auf<br />

Multiple-Choice-Fragen (s. Tabelle 6.2) wurden von der<br />

Scansoftware automatisch erkannt und erfasst. Konnte das<br />

Programm eine Antwort nicht eindeutig lesen, wurde der<br />

entsprechende Eintrag von speziell geschulten Personen manuell<br />

eingegeben („Verifikation“). Im Vergleich zur manuellen<br />

Dateneingabe sind bei der automatisierten Datenerfassung<br />

sowohl der zeitliche Aufwand als auch die Fehlerquote<br />

geringer.<br />

<strong>Die</strong> Qualität der Daten wurde durch Kontrollen während<br />

der Datenerfassung und umfangreiche File-Cleaning-Prozeduren<br />

auf nationaler und internationaler Ebene <strong>im</strong> Anschluss<br />

an die Datenerfassung sichergestellt.<br />

<strong>Die</strong> frei formulierten Antworten der Schüler/innen auf die<br />

offenen Fragen (s. Tabelle 6.2) in den Testheften und <strong>im</strong><br />

Computertest wurden mithilfe einer Online-Codiersoftware<br />

des internationalen Konsortiums elektronisch codiert<br />

(s. „Coding“).<br />

<strong>Die</strong> restlichen Antwortdaten aus dem Computertest, die<br />

keine Bewertung erforderten, lagen bereits in elektronischer<br />

Form vor und mussten daher nicht weiter bearbeitet werden.<br />

<strong>Die</strong> Bewertungsrichtlinien für die offenen Fragen<br />

Um zu gewährleisten, dass die frei formulierten Schülerantworten<br />

in allen Teilnehmerländern einheitlich bewertet („co -<br />

diert“) werden, gibt es präzise Coding Guides, in denen die<br />

notwendigen Bewertungsrichtlinien für die offenen Fragen<br />

<strong>im</strong> Detail ausgeführt werden.<br />

<strong>Die</strong>se umfangreichen Coding Guides wurden ins Deutsche<br />

übersetzt und anschließend wie die Testaufgaben international<br />

verifiziert. Zusätzlich zu den Richtlinien in den Coding<br />

Guides wurde ein internationales Training veranstaltet, bei<br />

dem Vertreter/innen aus allen teilnehmenden Ländern anhand<br />

von konkreten Schülerantworten die Anwendung der<br />

Codes übten und diskutierten. Ziel der Schulung war es,<br />

einen internationalen Konsens zu erreichen, der eine konsistente<br />

Anwendung der Richtlinien gewährleistete und damit<br />

den Prozess des Codings standardisierte.<br />

Das Coding<br />

Generell werden bei <strong>PISA</strong> Schülerantworten auf offene Fragen<br />

nicht in „richtig“ oder „falsch“ eingeteilt, sondern je nach<br />

Qualität des Ergebnisses erhalten die Schüler/innen für ihre<br />

Antworten Punkte: Full Credit bedeutet, dass die Schüler/<br />

innen alle möglichen Punkte für ihre Antwort erhalten, Partial<br />

Credit heißt, dass sie einen Teil der Punkte erhalten und<br />

bei No Credit wird kein Punkt vergeben bzw. der Code 0.<br />

Welche Antworten Full Credit, Partial Credit oder No Credit<br />

erhalten, ist in den Coding Guides für jede Aufgabe festgehalten.<br />

Dabei werden akzeptable Lösungsansätze und -wege<br />

beschrieben sowie gängige Missverständnisse und Fehler erläutert.<br />

Zu jedem Code sind in den Bewertungsrichtlinien<br />

auch mehrere Beispiele von Schülerantworten aufgeführt.<br />

<strong>Die</strong> Aufgabenbeispiele in Kapitel 3 beinhalten jeweils die dazugehörenden<br />

Bewertungsrichtlinien.<br />

Single und Multiple Coding<br />

Bei <strong>PISA</strong> gibt es zwei Coding-Designs: das Single Coding<br />

und das Multiple Coding. Als Single Coding wird die „normale“<br />

Prozedur des Codings von Schülerantworten bezeich-<br />

Aufgabenformat Antworttypen Bewertung<br />

Multiple-Choice-Aufgaben nur eine korrekte Antwort kein Coding erforderlich<br />

komplexe Multiple-Choice-Aufgaben<br />

kurze, offene Aufgaben<br />

Serie von Richtig/Falsch- bzw.<br />

Ja/Nein-Antworten<br />

kurze, selbst konstruierte<br />

verbale/numerische Antwort<br />

kein Coding erforderlich<br />

teilweise Coding erforderlich; je nach<br />

Bewertungsvorschriften<br />

lange, offene Aufgaben längere, selbst konstruierte verbale Antwort Coding laut Bewertungsvorschriften<br />

Tabelle 6.2 Aufgabenformate und erforderliche Bewertung der Schülerantworten

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!