QiW - UniversitätsVerlagWebler
QiW - UniversitätsVerlagWebler
QiW - UniversitätsVerlagWebler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>QiW</strong><br />
W.-D. Webler • „Wieviel Wissenschaft braucht die Evaluation?”<br />
Feststellung einer Entwicklung, die aus Sachgründen (und<br />
um der Qualität dieser Arbeit willen) geändert werden<br />
muss. Das liegt an der Tatsache, dass „Higher Education”<br />
kein Lehrgebiet, geschweige Diplom- oder Bachelor-Studium<br />
darstellt. (Auf Masterstufe existieren mittlerweile Angebote,<br />
die aber bisher - verglichen mit der Zahl in diesem<br />
Themengebiet tätiger Kolleg/innen - relativ selten genutzt<br />
werden). Unter dieser Perspektive ist es z.B. zu bedauern,<br />
dass es drei getrennte Gesellschaften für Hochschulforschung,<br />
für Hochschuldidaktik (die in ihrem empirischen<br />
Teil immer ein Teil der Hochschulforschung war) und für<br />
Evaluation gibt (wobei klar ist, dass hochschulbezogene<br />
Evaluation nur eines von mehreren großen Teilgebieten der<br />
Evaluation darstellt). Professionalisierung müsste nicht zuletzt<br />
an einer gründlicheren und ausreichend breiten Feldkenntnis<br />
der Hochschulen ansetzen. Auch in einem engeren<br />
Sinne ist detailliertere Feldkenntnis notwendig: Wer<br />
Studium und Lehre nicht nur strukturell, sondern prozedural<br />
evaluiert, sollte genaue Kenntnis a) von Lernbedürfnissen<br />
und Lernprozessen haben sowie b) von guter Lehre (am<br />
besten breite eigene Lehrerfahrung). Also davon haben,<br />
wie - unter welchen Rahmenbedingungen und in welchen<br />
Prozessen - Menschen (am besten) lernen, wie - in welchen<br />
Prozessen - Kompetenzen erworben werden (wie verläuft<br />
Kompetenzerwerb? Woran ist er erkennbar? Wie kann er<br />
beobachtet oder sogar gemessen werden? Gibt es Indikatoren<br />
für Kompetenzerwerb?). Sind Kompetenzen überhaupt<br />
lehrbar? Es müssen genauere Kenntnisse (und am besten<br />
Erfahrungen) vorhanden sein, wie gelehrt wird, welche<br />
Möglichkeiten zur Verfügung stehen (Methodenspektrum),<br />
woran gute Lehre erkennbar ist (Qualitätsmerkmale guter<br />
Lehre) usw. Da gibt es auch organisatorische Nachteile: Oft<br />
sind Evaluationsprozesse, sind Aufgaben der Qualitätssicherung<br />
isoliert von Aufgaben der Personalentwicklung,<br />
des Auf- und Ausbaus der Lehrkompetenz angesiedelt. Mit<br />
letzterem ist nicht eine koordinierende, organisatorische<br />
Zuständigkeit, sondern die moderierende Tätigkeit in Ausund<br />
Weiterbildung gemeint. Vorteile haben diejenigen, die<br />
selbst eines der neuen curricularen Programme zum Erwerb<br />
der Lehrkompetenz (im Umfang von mindestens 250 Stunden<br />
- internationaler Standard 300-350 Stunden) erfolgreich<br />
durchlaufen haben.<br />
Gefahr der disziplinären Abschottung: Die Anfänge der<br />
hochschulbezogenen Evaluation in den 70er bis 90er Jahren<br />
des abgelaufenen Jahrhunderts waren weitgehend von<br />
Soziologen sowie Politikwissenschaftlern geprägt (u.a.<br />
wegen der anfänglichen soziologischen Prägung des MPI<br />
für Bildungsforschung Berlin, der Starnberger Gruppe, des<br />
IWT Bielefeld und der soziologischen Anteile im IZHD Bielefeld<br />
und IZHD Hamburg), die aber eng mit anderen Disziplinen<br />
(z.B. der Bildungsökonomie, dem Hochschulrecht,<br />
der Psychologie, der Geschichte, der Hochschularchitektur<br />
usw.) in hochschulbezogenen Projekten kooperierten.<br />
Nicht zufällig existierte über 25 Jahre eine ständige „Arbeitsgruppe<br />
Hochschulforschung” mit interdisziplinärer Zusammensetzung<br />
unter dem Dach der Deutschen Gesellschaft<br />
für Soziologie, die alle diese Aktivitäten focussierte.<br />
Innerhalb der Psychologie bildete sich allmählich ein eigenes<br />
Gebiet „Evaluationsforschung”, in einigen Studiengängen<br />
sogar als eigener Studienschwerpunkt. In der entscheidenden<br />
Phase der Expansion hochschulbezogener Evaluarischen<br />
Hochschulforschung und Wissenschaftsforschung in<br />
Deutschland geprägt. Dazu mussten eine entsprechende<br />
Methodik, Muster des Projektdesigns und der Auswertung<br />
entwickelt werden. Diese Projekte waren zwischen traditioneller<br />
Forschung und Aktionsforschung aufgespannt und<br />
lösten entsprechende wissenschaftstheoretische Grundsatzdebatten<br />
aus.<br />
Paradigmatisch für diese Debatte war die Begleitforschung<br />
bei der Entwicklung und Erprobung einer einstufigen Juristenausbildung<br />
mit 7 Begleitgruppen in 7 Bundesländern<br />
zwischen 1972 und 1982. Sieben Bundesländer hatten von<br />
der Experimentierklausel im Deutschen Richtergesetz Gebrauch<br />
gemacht und unterschiedliche Modelle einer einstufigen<br />
Juristenausbildung in die 10-jährige Erprobungsphase<br />
eingebracht. Am Ende der Erprobungsphase wollte<br />
der Bundesgesetzgeber (der die Juristenausbildung bundesweit<br />
einheitlich regelt) eines der Modelle wieder zur allein<br />
gültigen Norm erklären. Während das Bundesjustizministerium<br />
und letztlich der Gesetzgeber ein klassisches Forschungsdesign<br />
erwartete, in dem der Untersuchungsgegenstand<br />
konstant gehalten werden sollte (Erprobung und empirische<br />
Begleitung eines unveränderten Modells über 10<br />
Jahre; unverändert bedeutete gleichzeitig auch, keine Zwischenergebnisse<br />
an den untersuchten Fachbereich herauszugeben)<br />
erwarteten die beteiligten Fachbereiche laufende<br />
Rückmeldungen der Zwischenergebnisse aus der Begleitforschung,<br />
weil sie ihr Modell kontinuierlich optimieren wollten.<br />
Es liegt auf der Hand, dass beides nicht mit dem gleichen<br />
Projektdesign zu haben war - von den persönlichen<br />
(Rollen-)Konflikten der Mitglieder der Begleitforschungsgruppen<br />
in Richtung Bundesebene und in Richtung des untersuchten<br />
Fachbereichs ganz abgesehen (Nähere Details<br />
dazu: vgl. Webler 1981, 1983a, 1983b, 1993). Diese Konflikte<br />
erlebten praktisch alle begleitenden Gruppen. An dieser<br />
Konstellation und den Anforderungen entzündeten sich<br />
viele Grundsatzdebatten bezüglich der klassischen Forderungen<br />
an Forschung (Konstanz der Untersuchungseinheit,<br />
Nicht-Partizipation der untersuchten Klienten, Wiederholbarkeit<br />
des Settings und Wiederholbarkeit des Ergebnisses<br />
usw.). Im Ergebnis herrschte Konsens, dass Begleitforschung<br />
und Evaluation als anwendungsorientierte Varianten<br />
der empirischen Sozialforschung einige der klassischen Forderungen<br />
an Forschung nicht nur nicht erfüllen konnten,<br />
sondern bei Erfüllung sogar ihren Zweck verfehlen würden.<br />
Also wandelte sich der Forschungsbegriff in der Sozialforschung<br />
und unterschied zwei gleich berechtigte Arten: die<br />
alte Grundlagenforschung als „reine” Forschung und die Begleit-<br />
bzw. Evaluationsforschung (auch als Politikberatung<br />
entscheidungsorientiert unter Termindruck) mit teilweise<br />
anderen Leitbildern, aber auch Kompromissen („quick and<br />
dirty”) mit ursprünglichen Forderungen an Forschung. „Unsauber”<br />
ist diese Forschung in den Augen von Puristen<br />
schon deshalb, weil Messungen im verfügbaren Zeitraum<br />
und mit den verfügbaren Ressourcen im strengen Sinne<br />
nicht oder nur sehr eingeschränkt stattfinden (können).<br />
Lückenhafte Feldkenntnis über Hochschulen: Zunächst ist<br />
festzustellen, dass eine Reihe von Projektdesigns darunter<br />
leiden, dass Strukturen und Prozesse des Hochschulsystems<br />
und seiner gesellschaftlichen Einbettung von den jeweiligen<br />
Urhebern bisher nur unzureichend berücksichtigt werden.<br />
Das ist kein Vorwurf, keine Schuldzuweisung, sondern<br />
<strong>QiW</strong> 1+2/2009<br />
29