DiNa04_08_Inhalt:DiNa 04-04 (4er) - Hochschule Coburg

hs.coburg.de

DiNa04_08_Inhalt:DiNa 04-04 (4er) - Hochschule Coburg

Evaluation von

Lehrveranstaltungen

Birgit Hawelka

Im Zuge der Einführung einer systematischen Qualitätssicherung von Lehre in den Hoch -

schulen kommt Evaluationsstudien ein hoher Stellenwert zu (Mandl & Reinmann-Roth -

meier, 2000; Wissenschaftsrat, 1996). Insbesondere die Evaluation durch Befra gung

von Studierenden hat sich quasi als Standard an den Universitäten durchgesetzt. Nach

dem Bayerischen Hochschulgesetz (Artikel 30) ist die Studiendekanin bzw. der Studien -

dekan jeder Fakultät „verantwortlich für die Evaluation der Lehre unter Einbe ziehung

studentischer Bewertungen“. In der Praxis werden daher in der Regel am Ende eines

Se mesters fakultätsweit die Lehrveranstaltungen mittels eines zentral erstellten und weitgehend

standardisierten Evaluationsbogens durch Studierende bewertet.

Dieses Vorgehen ist zweifelsohne praktikabel, da damit rasch eine Vielzahl an Veran -

staltungen mit beliebiger Teilnehmerzahl evaluiert werden kann. Allerdings sind mit dieser

Vorgehensweise auch Nachteile verbunden, denn ein einheitliches Instrumentarium

übersieht weitgehend die Komplexität von Lehre als Gegenstand von Evaluation und die

zentrale Vorgehensweise birgt die Gefahr mangelnder Akzeptanz durch die evaluierten

Dozentinnen und Dozenten.

Komplexität des Gegenstandes. Die Lehre an Hochschulen ist keinesfalls ein homo ge -

nes Ge bilde, vielmehr unterscheiden sich einzelne Lehrangebote sowohl inhaltlich als

auch struk turell wesentlich voneinander. Das Spektrum der Veranstaltungsformen reicht

von Vor le sungen mit mehr als 500 Teilnehmerinnen und Teilnehmern über Seminare,

Pro seminare, Übungen usw. bis hin zu kleinen Kolloquien mit nur wenigen Studie ren -

den. Um die wesentlichen Determinanten erfolgreichen didaktischen Handelns erfassen

und bewerten zu können, müssen Evaluationsstudien immer situative Besonderheiten in

ausreichendem Maße berücksichtigen. Eine konkrete Festlegung und Operationa li sie -

rung der jeweiligen Bewertungskriterien kann daher kaum durch einen einzigen standardisierten

Fragebogen, sondern ausschließlich innerhalb eines spezifischen Kontextes

erfolgen (Mandl & Reinmann-Rothmeier, 2000).

Gefahr mangelnder Akzeptanz. Ein Evaluationsdesign mit extern festgelegten Güte kri -

terien beschneidet in gravierender Weise die Handlungs- und Entscheidungs mög lich kei -

ten der Dozentinnen und Dozenten. Lehrende erleben daher Evaluationen häufig eher

als Kontrollinstrument denn als Anhaltspunkt und Motivation zur Verbesserung der Leh re

(Kromrey, 2001). Dies wiederum bedingt eine geringe Akzeptanz der Ergebnisse und

erklärt, warum in zahlreichen Fällen Evaluationen kaum zu nachhaltigen Verbes se run gen

der Lehrqualität führen (Rindermann, 1996). Um diesem Problem zu begegnen, schlugen

Henninger und Balk (2001) die Durchführung einer integrativen Evaluation vor.

Theoretischer Hintergrund

20

Kerngedanke integrativer Evaluationen ist es, nicht anhand von extern definierten Qua -

litätskriterien die Evaluation durchzuführen, sondern die Qualitätsvorstellungen der Leh -

renden an den Hochschulen zu berücksichtigen. Dadurch werden die Dozentinnen und

Dozenten nicht Objekte von Evaluation, sondern zu informiert handelnden Personen,

die ihre als subjektiv wichtig wahrgenommenen Bewertungskriterien in den Evaluations -

prozess einfließen lassen können. Abbildung 1 zeigt den Evaluationsprozess einer integrativen

Evaluation im Überblick.


Klärung der Zielsetzung

Bei der Evaluation von Veranstaltungen

der Hochschullehre geht es immer darum,

die Qualität einer Lehrveranstaltung zu be -

werten. Dennoch kann Evaluation un ter -

schiedliche Ziele verfolgen. Grund le gend

kann zwischen summativer und forma -

tiver Evalua tion unterschieden werden.

Entwicklung von

Interventionen

Klärung der Zielsetzung

Klärung des

Evaluationsdesigns

Summative Evaluationsstudien liefern ein

abschließendes Bild über die Qualität und

Wirksamkeit einer bereits abgehaltenen

Lehrveranstaltung. Überprüft wird in der

Regel, wie gut eine Maßnahme im Ver -

gleich zu anderen abschneidet oder in

welchem Aus maß die intendierten Ziele

erreicht wurden. Aufgrund dieser Ziel set -

zungen übernehmen summative Evalua -

tionen vorrangig eine Beurteilungs- oder

Disziplinierungsfunktion (Will, Winteler

& Krapp, 1986).

Rückmeldung von

Evaluationsinformationen

Formative, prozessbegleitende Evaluation hingegen hat zum Ziel, mögliche Mängel

aufzudecken und die Lehrveranstaltung zu verbessern. In diesem Fall übernehmen Eva -

luationsstudien eine Steuerungs- und Optimierungsfunktion (Will et al., 1986). Sie sollen

dazu dienen, aus den gewonnenen Daten den weiteren Handlungsbedarf zu ermitteln

und konkrete Verbesserungsvorschläge zu entwickeln (Wottawa, 2006).

Schaffung einer

Vergleichsgrundlage für

die Evaluationsergebnisse

Projektspezifische

Evaluationsinstrumente

Abbildung 1: Modell der integrativen

Evaluation (nach Henninger & Balk, 2001)

Klärung des Evaluationsdesigns

Das Evaluationsdesign wird im Wesentlichen durch den Zeitpunkt der Datenerhebung,

die Art der Datenerhebung und den inhaltlichen Fokus bestimmt.

Zeitpunkt der Datenerhebung

Was die Frage nach dem Zeitpunkt der Evaluation betrifft, ergibt sich die Antwort

schon aus der Betrachtung des vorherigen Abschnitts: Evaluation, die der Rückmeldung

der Lehrqualität aus studentischer Sicht und somit nicht der Disziplinierung der Lehren -

den, sondern der Verbesserung der Lehre dienen soll, muss während einer laufenden

Lehrveranstaltung, d. h. in der Regel in der Mitte des Semesters, durchgeführt werden.

Nur dann haben Dozentinnen und Dozenten die Möglichkeit, anhand der Rückmeldung

ihr Lehrverhalten zu modifizieren.

Art der Datenerhebung

Bei der Art der Datenerhebung sind drei grundsätzliche Vorgehensweisen denkbar:

(1) Einsatz von Online-Bögen; (2) Evaluationsbögen werden in Papierform ausgeteilt

mit der Bitte, sie in Ruhe auszufüllen und an einem vereinbarten Ort abzugeben; (3)

Frage bögen werden direkt ausgegeben, in der Veranstaltung von den Studierenden

ausgefüllt und am Ende wieder eingesammelt.

(1) Aus organisatorischer Sicht ist der Einsatz von Online-Bögen am günstigsten. Durch

die Publikation im Internet entfallen Kopierkosten, und es muss kein Personal zum Aus -

teilen und Einsammeln der Bögen bereitgestellt werden. Zudem entfällt die zeitaufwendige

Datenerfassung; zumeist werden die Daten automatisiert ausgewertet. Allerdings

21


nimmt dieses Vorgehen ein wesentliches messtechnisches Problem in Kauf: Da eine On -

line-Evaluation eine aktive Beteiligung der Studierenden außerhalb der Lehrveranstal -

tung verlangt, nehmen womöglich v. a. die sehr zufriedenen bzw. äußerst unzufriedenen

Studierenden teil. Die Mehrheit der einigermaßen zufriedenen Studierenden ist aufgrund

mangelnder Motivation zur Mitwirkung bei der Datenerhebung oftmals stark un -

terrepräsentiert (Kromrey, 2001). Zudem bewerten Studierende in solchen Online-Ver -

fahren häufig mehrere besuchte Lehrveranstaltungen direkt hintereinander, wodurch die

Gefahr besteht, dass die einzelne Lehrveranstaltung lediglich aufgrund eines recht globalen

Gesamteindrucks bewertet wird.

(2) Durch das Austeilen gedruckter Evaluationsbögen mit zeitversetzter Datenerhebung

entstehen grundsätzlich dieselben Probleme wie bei Online-Bögen. Auch hier ist eine

Verzerrung des Datensatzes durch extrem selektiven Rücklauf zu erwarten. Gleichzeitig

ist bei dieser Methode der organisatorische Aufwand hoch, da die Bögen gedruckt,

ver teilt, erfasst und ausgewertet werden müssen.

(3) Derselbe organisatorische Aufwand besteht auch dann, wenn die Bögen in der Ver -

anstaltung ausgefüllt und eingesammelt werden. Dennoch führt das direkte Einsammeln

von gedruckten Bögen in der Veranstaltung zum höchsten Rücklauf. Auch das Problem

der Verzerrung durch eine selektive Stichprobe und den zeitlichen Abstand zur Veran -

staltung ist verringert.

Abbildung 2: Bedingungsmodell

des Lehrerfolgs

(nach Rindermann, 2001)

Inhaltlicher Fokus

Der inhaltliche Fokus von Lehrevaluationen ist zweifelsohne die Lehrqualität. Unabhän -

gig davon, welche Ziele mit einer Evaluationsstudie verbunden sind und zu welchem Zeit -

punkt die Untersuchung durchgeführt wird, ist die zentrale Frage bei der Beur tei lung

von Lehrveranstaltungen, welche Merkmale gute Lehre kennzeichnen.

Daher steht an erster Stelle dessen, was Scriven (1982) als „logic of evaluation“ be -

schreibt, die Formulierung von Wertkriterien, die eine Maßnahme erfüllen muss, um als

qualitativ hochwertig gelten zu können. Die Problematik dabei liegt in der Komplexität

des Evaluationsgegenstandes. Objektive und allgemeingültige Qualitätsmerkmale von

Thema

Überschneidungen

Anforderungen

Besuchszahl

Prüfung

Besuchsgrund

Veranstaltungstyp

22

Strukturierung/Klarheit

Breite/Auseinandersetzung

Verarbeitungstiefe

Lehrkompetenz/Rhetorik

Engagement/Motivierung

Kooperativität/Klima

Interaktion (Förderung/Leitung)

Betreuung/Feedback

---------------------------------------

Wissenschaftliche

Fachkompetenz

Lehrperson

Rahmenbedingungen

Studierende

Vorwissen/-interesse

Fähigkeiten

Fleiß/Arbeitsbelastung

Beteiligung

Referate

Störungen

Fehlzeiten

Lehrerfolg

Interessantheit der

Veranstaltung

Allgemeine

Veranstaltungsqualität

---------------------------------------

Lerngewinn

Kompetenzerwerb

Einstellungsänderung

Wecken von Interesse


Hochschullehre existieren nicht. Hochschullehre kann zugleich in einer Hinsicht von ausgezeichneter

Qualität, in anderer Hinsicht dagegen mangelhaft sein. Es sind daher verschiedene

Dimensionen von Qualität zu unterscheiden (Kromrey, 2001).

Rindermann (2001) identifiziert vier grundlegende Determinanten von Lehrqualität: die

didaktische Kompetenz der Lehrpersonen, die beteiligten Studierenden, die Rahmen be -

dingungen, unter denen Lehre stattfindet, sowie den Lehrerfolg. Diese Dimensionen operationalisiert

Rindermann (2001) durch verschiedene Faktoren (siehe Abb. 2).

Projektspezifische Evaluationsinstrumente

Sind die Bewertungskriterien für eine Lehrveranstaltung geklärt, können die konkreten

Items für einen Fragebogen formuliert werden. Dabei darf die Forderung nach integrativer

und kontextspezifischer Definition von Evaluationskriterien keinesfalls gleichgesetzt

werden mit einem Plädoyer für ad hoc erstellte Evaluationsbögen. Vielmehr muss die

Ba sis jeder sachgerechten Evaluation eine theoretisch begründete Vorgehensweise sein,

die Erkenntnisse der pädagogisch-psychologischen Grundlagenforschung berücksichtigt.

Andernfalls besteht die Gefahr, dass mit schnell gestrickten „alles-in-allem-Fragebögen“

(Kromrey, 2001, S. 19) Studierende ebenso ad hoc und relativ unreflektiert ihr Urteil

abgeben.

Auch aus methodischer Sicht gelten daher dieselben Gütekriterien, die für die Erstellung

von Fragebögen in allen anderen sozialwissenschaftlichen Studien Anwendung finden:

Objektivität, Reliabilität und Validität (Bortz & Döring, 2006). Die Objektivität einer Evaluation

durch Fragebogen ist weitgehend gegeben, wenn die Ergebnisse von der auswertenden

Person unabhängig sind. Dies ist dann der Fall, wenn die Evaluation durch

eine externe, nicht im Institut verankerte Stelle durchgeführt wird.

Die Ergebnisse einer Evaluation sind valide, wenn sie das Lehrgeschehen angemessen

abbilden. Zur Bestimmung der Validität müsste daher das Ergebnis studentischer Lehr -

evaluation mit dem Urteil externer Gutachterinnen bzw. Gutachter zu ein und derselben

Veranstaltung verglichen werden. Verschiedenen Metaanalysen zufolge liegt die Vali di tät

studentischer Lehrevaluation bei einem Wert von r = .54 und ist damit durchaus ak zep -

tabel (Rindermann, 2001). Zu beachten ist, dass verschiedene Variablen die Eva lua tionsergebnisse

positiv oder negativ verzerren können. Einen wesentlichen Einfluss auf die

Validität von Lehrevaluationen durch Studierende haben beispielsweise die (Un-)Sym -

pathie der Lehrperson oder das (Des-)Interesse der Studierenden am Thema (Greimel-

Fuhr mann & Geyer, 2005). Unter diesem Aspekt macht es Sinn, diese und andere Bias-

Variablen in dem Fragebogen zu erheben und in die Auswertung einfließen zu lassen.

Die Reliabilität bezeichnet die Zuverlässigkeit, mit der ein Messverfahren den Evalua -

tionsgegenstand erfasst. In der Regel sind die Items in Evaluationsbögen am ehesten

reliabel, wenn sie sich auf konkrete Verhaltensweisen oder Umstände beziehen (z. B.

„Der Stoff wird anhand konkreter Beispiele veranschaulicht“). Sie werden weniger re -

liabel, je allgemeiner die zu bewertenden Aussagen formuliert werden (z. B. „Die Do -

zen tin bzw. der Dozent gestaltet die Veranstaltung didaktisch geschickt“).

Schaffung einer Vergleichsgrundlage

für die Evaluationsergebnisse

Ein häufiger Kritikpunkt an studentischer Lehrevaluation ist die mangelnde Nachvoll -

zieh barkeit der Bewertungsgrundlagen der Studierenden (Henninger & Balk, 2001).

Es wird unterstellt, sie würden überzogen und unrealistisch bewerten bzw. wären als

„All tagsevaluatoren“ (Kromrey, 2001, S. 20) nicht in der Lage, die Qualität einer

23


Lehr ver anstaltung zu beurteilen. Eine Einordnung der individuellen Evaluations er geb -

nisse könne durch die Schaffung einer Vergleichsgrundlage erfolgen.

Oftmals geschieht dies, indem auf Fakultäts- bzw. Universitätsebene interindividuelle

Ver gleiche oder Rankings aus den Evaluationsergebnissen hergestellt werden. In der Tat

wird dadurch auf den ersten Blick die Interpretation der individuellen Evaluations er geb -

nisse erleichtert. Damit diese Gegenüberstellung aussagekräftig ist, darf der Vergleich

freilich nur zwischen vergleichbaren Veranstaltungen gezogen werden. Eine wesentliche

Bias-Variable ist in diesem Zusammenhang die Art des Kurses (Pflichtveranstaltung vs.

freiwillig besuchte Veranstaltung), denn bei fakultativ wählbaren Veranstaltungen ist

meist der Teil der Studierenden, der die Veranstaltung negativ einschätzt, zum Zeit punkt

der Datenerhebung längst nicht mehr anwesend, weshalb im Vergleich zu Pflicht ver an -

staltungen ein positiver Bias entsteht (Kromrey, 2001).

Einen anderen Ansatz verfolgt das Modell der integrativen Evaluation von Henninger

und Balk (2001). Sie schlagen vor, zu Beginn einer Lehrveranstaltung die Erwartungs -

haltung der Studierenden abzufragen, was dann als Referenzmaß für die spätere Eva -

luation dient. Somit können unrealistische Haltungen bereits im Vorfeld einer Veranstal -

tungsreihe erhoben und mit den Studierenden diskursiv geklärt werden.

Rückmeldung von Evaluationsinformationen

Aus der Perspektive, dass Lehrevaluation der Verbesserung der Lehre durch das Auf de -

cken der Stärken und Schwächen einer Lehrveranstaltung aus studentischer Sicht dient,

ist eine Rückmeldung der Evaluationsergebnisse an die jeweiligen Lehrenden selbstverständlich

(Henninger & Balk, 2001). Nur durch eine detaillierte Rückmeldung der Er -

geb nisse erhalten die Lehrpersonen Anhaltspunkte für eine Verbesserung des eigenen

Lehrverhaltens (Balk, 2000).

Gleichzeitig empfiehlt es sich auch, dass die Dozentinnen und Dozenten den Studieren -

den, die ja maßgeblich an der Evaluation beteiligt sind, die Ergebnisse rückmelden.

Dadurch können aus den standardisierten Ergebnissen differenzierte Hinweise zur Ver -

besserung der eigenen Lehre gewonnen werden. Zugleich wird dadurch der Anschein

vermieden, Lehrevaluation sei ein bloßes Ritual (Kromrey, 2001).

Entwicklung von Interventionen

Evaluation alleine ist zwar eine wesentliche Voraussetzung zur Qualitätssicherung der

Lehre, kann aber per se noch keine Verbesserung der Lehrqualität bewirken. Ganz im

Gegenteil ist es streng genommen eine ökonomische Fehlleistung, wenn mit hohem personellem

und finanziellen Aufwand zwar nach Ansatzpunkten zur Verbesserung der

Lehrqualität gesucht wird, aber daraus keine Interventionen abgeleitet werden (Marsh

& Roche, 1997). Zwei denkbare Interventionen sind hochschuldidaktische Weiter bil -

dungen und Lehrberatungen.

24

Während in den USA hochschuldidaktische Weiterbildung bereits seit Jahren flächendeckend

eingeführt ist, befindet sich in Deutschland dieser Zweig der Qualitäts ent wick -

lung erst am Anfang. Dennoch belegen die Teilnehmerinnen- und Teilnehmerzahlen entsprechender

Angebote, dass Hochschuldozentinnen und -dozenten trotz der Konkur renz

dieser Angebote zu Forschungs- und Verwaltungstätigkeiten in steigendem Maße bereit

sind, in ihre Weiterbildung der Lehrkompetenz zu investieren (Hawelka, Wen dorff &

Gruber, 2006). Um aber flächendeckende Schulung zu ermöglichen, ist ein Ausbau der

derzeit bestehenden Trainingsangebote unabdingbar.


Lehrberatungen stellen im hochschuldidaktischen Angebot in Deutschland noch eine Sel -

tenheit dar. Als Modell für eine effektive Nutzung von Evaluationsergebnissen kann das

Verfahren der Universität Berkeley gelten (Rindermann, 2001). Hier werden die Eva lua -

tionsergebnisse durch hochschuldidaktische Beraterinnen und Berater an die Leh renden

übermittelt. Im persönlichen Gespräch werden dann Ansatzpunkte zur Verbes se rung der

Lehre erarbeitet. Gleichzeitig wird die Lehrtechnik besonders gut evaluierter Dozen tin nen

und Dozenten als Informationsquelle herangezogen. Um die Lehrenden zur Einhaltung

der Interventionsmaßnahmen zu verpflichten, beschränkt sich der Kon takt zu hochschul -

didaktischen Beraterinnen und Beratern nicht auf ein punktuelles Ge spräch, sondern wird

kontinuierlich aufrecht erhalten. Nach einer gewissen Zeitspanne erfolgt dann eine er -

neute Evaluation zur Überprüfung der Ergebnisse.

Anregungen zur Reflexion und Tipps für die Praxis

Studentische Lehrevaluation ist ein adäquates Mittel, wenn es darum geht, Stärken und

Schwächen einer Lehrveranstaltung aus studentischer Sicht aufzudecken. Voraussetzung

dafür ist aber, dass bei der Auswahl, Operationalisierung und Gewichtung der Eva lua -

tionskriterien ein individuelles Vorgehen gewählt wird, in das die jeweiligen Dozen tin -

nen und Dozenten einbezogen werden.

Im Sinne einer integrativen Evaluation ist es daher notwendig, dass jede Dozentin und

jeder Dozent ihre bzw. seine eigenen Vorstellungen dessen, was gute Lehre kennzeichnet,

reflektiert. Als Grundlage für eine solche Reflexion wurde im vorherigen Abschnitt

das Bedingungsmodell des Lehrerfolgs nach Rindermann (2001; siehe Abb. 2) be schrieben.

Abbildung 3 zeigt exemplarisch das Ergebnis einer solchen Reflexion im Rahmen

einer hochschuldidaktischen Weiterbildung zum Thema Evaluation an der Universität

Regensburg.

Abbildung 3: Bedingungsmodell des

Lehrerfolgs aus der Sicht von Lehrenden

Einbettung in Curriculum

Gruppengröße

Zeit

Homogenität der Studierenden

Tutorien

Raum (Luft, Licht, Stühle, ...)

Arbeitsmaterialien

Transparenz der Prüfungsanforderungen

Effiziente Wissensvermittlung

Methodenvielfalt

Performance

Konstruktive Kritik

Pünktlichkeit

Moderation

Klare Strukturierung

Intrinsische Motivation

Rhetorik

Selbstkritik

Empathie

Lehrperson

Rahmenbedingungen

Studierende

Interesse

Bereitschaft zur aktiven Mitarbeit

Nachbereitung/Vorbereitung

Motivation

Ehrgeiz

disziplin

Vorwissen

Regelmäßige Teilnahme

Lehrerfolg

Problemlösen

Praxisbezug (Anwen dungs -

fähigkeit)

Wissensaneignung

Nachhaltigkeit des Wissens

Begeisterung für das Fach

Kritisches Denken

Fächerübergreifender Transfer

25


Auf Basis einer solchen Reflexion besteht der nächste Schritt darin, projektspezifische

Evaluationsinstrumente zu erstellen. Dabei kann zur Vereinfachung der Auswahl korrekt

formulierter Items auf bestehende Inventare zurückgegriffen werden. Tabelle 1 zeigt

einen Überblick über verschiedene Inventare zur Lehrevaluation an Hochschulen.

Autoren

Diehl (2003)

Diehl (2003)

Rindermann und Amelang (1994)

Staufenbiel (2000)

Name des Inventars

Veranstaltungs-Beurteilung Vorlesung (VBVOR)

Veranstaltungs-Beurteilung Referate (VBREF)

Heidelberger Inventar zur Lehrveranstaltungs-

Evaluation (HILVE)

Fragebogen zur Evaluation von Vorlesungen

(FEVOR)

Eine Vergleichsgrundlage für die Evalua -

tions ergebnisse kann geschaffen werden,

indem zu Beginn der Lehrveranstaltung

die Stu die renden zu ihren Erwartungen

befragt werden. Möglichkeiten dazu wur -

den im vorherigen Ka pitel von Albert ernst

(in diesem Band) aufgezeigt.

Staufenbiel (2000)

Fragebogen zur Evaluation von Seminaren

Damit aus dem aus Evaluationsstudien ge -

(FESEM)

won nenen Datenmaterial auch tat säch lich

Staufenbiel (2000)

Fragebogen zur Evaluation von Praktika (FEPRA) kon kre te Verbesserungsmaßnahmen ab -

Tabelle 1: Überblick über

geleitet werden können, müssen die Er -

Inventare zur Lehrevaluation gebnisse de tailliert an die Dozentinnen und Dozenten rückgemeldet werden und An ge -

an Hochschulen

bote zur Intervention vorhanden sein. Erst dann wird Lehrevaluation auf die Akzep tanz

stoßen, die nötig ist, um handlungsregulierend zu wirken und zur nach haltigen Quali -

täts stei ge rung der Lehre beizutragen. Im vorherigen Abschnitt wurde be reits auf die

Not wendig keit der Rückmeldung nicht nur an die Dozentinnen und Dozen ten, sondern

auch an die Studierenden hingewiesen. Im persönlichen Gespräch mit den Stu die ren den

können Lehrende nochmals klären, welche Konsequenzen sie aus den Eva lua tions er gebnissen

ziehen und ob diese aus Sicht der Kursteilnehmerinnen und -teilnehmer sinnvoll

sind. Bei der Rückmeldung an Studierende sollten folgende Regeln beachtet werden:

• Wählen Sie nur wichtige Aspekte aus und nur solche, die auch durch Sie als

Dozentin bzw. Dozent beeinflussbar sind.

• Melden Sie auch positiv evaluierte Aspekte zurück.

• Sie müssen sich nicht rechtfertigen. Beim Feedback geht es nicht um Anklage und

Verteidigung, sondern um ein konstruktives Gespräch zur Verbesserung der

Lehrqualität.

• Teilen Sie den Studierenden Ihre Konsequenzen aus den Evaluationsergebnissen mit.

Als mögliche Interventionsmaßnahmen wurde auf die Angebote zur hochschuldidakti -

schen Weiterbildung bzw. Lehrberatungen verwiesen. An den Universitäten, an denen

solche Angebote nicht vorhanden sind, können die Lehrende selbst Interventionen entwickeln,

indem sie sich gezielt einige Punkte aus den Evaluationsergebnissen herausgreifen

und reflektieren, wie diese Schwachpunkte verbessert werden können.

26


Literatur

• Balk, M. (2000). Evaluation von Lehrveranstaltungen. Die Wirkung von Evaluationsrückmeldung.

Frankfurt am Main: Lang.

• Bortz, J. & Döring, N. (2006). Forschungsmethoden und Evaluation (4. Aufl.).

Berlin: Springer.

• Diehl, J. M. (2003). Normierung zweier Fragebögen zur studentischen Beurteilung

von Vorlesungen und Seminaren. Psychologie in Erziehung und Unterricht, 24,

61 – 65.

• Greimel-Fuhrmann, B. & Geyer, A. (2005). Die Wirkung von Interesse und Sym pathie

auf die Gesamtbeurteilung in der Lehrevaluation – Direkte und indirekte Effekte

unter Berücksichtigung des Lehrverhaltens. Empirische Pädagogik, 19, 103 – 120.

• Hawelka, B., Wendorff, J. A. & Gruber, H. (2006). ProfiLehre – Hochschuldidaktische

Weiterbildung in Bayern: Konzeption und Akzeptanz (Schriftenreihe Nr. 3).

Regens burg: Zentrum für Hochschul- und Wissenschaftsdidaktik.

• Henninger, M. & Balk, M. (2001). Integrative Evaluation: Ein Ansatz zur Erhöhung

der Akzeptanz von Lehrevaluation an Hochschulen (Forschungsbericht Nr. 133).

München: Ludwig-Maximilians-Universität, Lehrstuhl für Empirische Pädagogik und

Pädagogische Psychologie.

• Kromrey, H. (2001). Studierendenbefragung als Evaluation der Lehre. Anforderungen

an Methodik und Design. In U. Engel (Hrsg.), Hochschulranking. Zur Qualitätsbe

wer tung von Studium und Lehre (S. 11 – 47). Frankfurt am Main: Campus.

• Mandl, H. & Reinmann-Rothmeier, G. (2000). Vom Qualitätsbewußtsein über Selbstevaluation

und maßgeschneidertes Vorgehen zur Transfersicherung. In P. Schenkel,

S.-O. Tergan & A. Lottmann (Hrsg.), Qualitätsbeurteilung multimedialer Lern- und

Informationssysteme. Evaluationsmethoden auf dem Prüfstand (S. 89 – 105). Nürnberg:

Bildung und Wissen.

• Marsh, H. W. & Roche, L. A. (1997). Making students’ evaluation of teaching effectiveness

effective. American Psychologist, 52, 1187 – 1198.

• Rindermann, H. (1996). Zur Qualität studentischer Lehrveranstaltungsevaluationen:

Eine Antwort auf Kritik an der Lehrevaluation. Zeitschrift für Pädagogische Psycho logie,

10, 129 – 145.

• Rindermann, H. (2001). Lehrevaluation – Einführung und Überblick zu Forschung

und Praxis der Lehrveranstaltungsevaluation an Hochschulen. Mit einem Beitrag zur

Evaluation computerbasierten Unterrichts. Landau: Verlag Empirische Pädagogik.

• Rindermann, H. & Amelang, M. (1994). Das Heidelberger Inventar zur Lehr ver anstaltungs-Evaluation

(HILVE). Heidelberg: Asanger.

• Scriven, M. (1982). The logic of evaluation. Inverness, CA: Edgepress.

• Staufenbiel, T. (2000). Fragebogen zur Evaluation von universitären Lehrveran staltungen

durch Studierende und Lehrende. Diagnostica, 46, 169 – 181.

• Will, H., Winteler, A. & Krapp, A. (1986). Von der Erfolgskontrolle zur Evaluation.

In H. Will, A. Winteler & A. Krapp (Hrsg.), Evaluation in der beruflichen Aus- und

Weiterbildung. Konzepte und Strategien (S. 11 – 42). München: Ehrenwirth.

• Wissenschaftsrat (1996). Empfehlungen zur Stärkung der Lehre in den Hochschulen

durch Evaluation. Köln: Wissenschaftsrat.

• Wottawa, H. (2006). Evaluation. In A. Krapp & B. Weidenmann (Hrsg.), Pädagogische

Psychologie (S. 649 – 674). Weinheim: Beltz PVU.

27

Weitere Magazine dieses Users
Ähnliche Magazine