Protokoll AG 4 - evaluation-equal.de
Protokoll AG 4 - evaluation-equal.de
Protokoll AG 4 - evaluation-equal.de
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Benno Savioli (FEEDBACK Savioli & Duffner GbR /COMPASS GmbH, Bremen)<br />
Arbeitstagung Evaluation Augsburg 03.04.2003<br />
Bericht zur Arbeitsgruppe 4: Sozioökonomischer und operationeller Kontext,<br />
arbeitsmarktpolitische Wirkungen, Begleitsystem<br />
(Mo<strong>de</strong>ration: Nils Pagels, ZOOM – Gesellschaft für prospektive Entwicklungen e.V.,<br />
Göttingen; Input Programm<strong>evaluation</strong>: Axel Weise, COMPASS GmbH, Bremen; Input EP-<br />
Evaluation: Claudia Knobel, Institut für Wirtschaft, Arbeit und Kultur - IWAK – Uni<br />
Frankfurt/M)<br />
Der Workshop wur<strong>de</strong> mit 22 TeilnehmerInnen (TN) durchgeführt, die 20 EPen ab<strong>de</strong>ckten.<br />
Hinzu kamen ein Vertreter <strong>de</strong>r Technischen Hilfe (TH), zwei Vertreter <strong>de</strong>r nationalen EQUAL-<br />
Evaluierung sowie <strong>de</strong>r Mo<strong>de</strong>rator.<br />
Nach <strong>de</strong>r Begrüßung erfolgte zunächst <strong>de</strong>r Input <strong>de</strong>r Programm<strong>evaluation</strong> durch Axel Weise<br />
mit einer Darstellung <strong>de</strong>r für <strong>de</strong>n Workshop vorgesehenen Leitfragestellungen (Details s.<br />
beigefügte PPT-Datei: Input-<strong>AG</strong>4.PPT).<br />
Im Anschluss erfolgte zunächst eine Vorstellungsrun<strong>de</strong>, mit <strong>de</strong>r Zielsetzung einerseits einen<br />
Überblick über die beteiligten EP bzw. <strong>de</strong>ren Evaluationen zu erhalten und insbeson<strong>de</strong>re <strong>de</strong>n<br />
Status <strong>de</strong>r Evaluationen innerhalb <strong>de</strong>r jeweiligen EP und <strong>de</strong>n Stand ihrer Beauftragung zu<br />
erhalten und an<strong>de</strong>rerseits Erwartungen an die Veranstaltung äußern zu können.<br />
Die Vorstellungsrun<strong>de</strong> bestätigte nochmals unsere Einschätzung, dass die Evaluierungen<br />
sowohl<br />
• hinsichtlich <strong>de</strong>r formalen Einbettung in die EPen (Teilprojekt/ externe Evaluierung /Teil<br />
<strong>de</strong>r Koordination) als auch<br />
• bezüglich <strong>de</strong>r Aufgabenstellung (summative / formative Evaluierung bzw. Qualitätssicherung,<br />
Gesamt-EP-/Teilprojekt-Evaluierung --> mögliche diffuse Rollenzuweisung)<br />
und –<br />
• hinsichtlich <strong>de</strong>s Stands <strong>de</strong>r Umsetzung stark variieren (von „seit Interessensbekundungen<br />
dabei“ bis „beginnt <strong>de</strong>mnächst“); das Gros <strong>de</strong>r beteiligten Evaluationen scheint<br />
erst seit relativ kurzer Zeit - Mitte bis En<strong>de</strong> <strong>de</strong>s letzten Jahres - aktiv zu sein.<br />
Die breite Fächerung bestätigte sich auch hinsichtlich <strong>de</strong>r offenbar höchst unterschiedlichen<br />
Ressourcen (absolut sowie anteilig zu EP-Gesamtkosten), die für Evaluierungsaufgaben<br />
verfügbar sind – ohne dass dieser durchaus wichtige Aspekt in <strong>de</strong>r Vorstellungsrun<strong>de</strong><br />
zahlenmäßig darstellbar gewesen wäre.<br />
EP-Input<br />
Im Anschluss stellte Claudia Knobel ihren Evaluierungsansatz für die EP MARE bzw. die von<br />
Ihr zu evaluieren<strong>de</strong>n Teilprojekte dar (Details s. beigefügte PPT-Datei: Input-EP-<br />
<strong>AG</strong>4.PPT.ppt). Hierbei han<strong>de</strong>lt es sich um ein Beispiel einer indikator-basierten, teilprojekt-
orientierten Evaluierung, die nicht die gesamte EP ab<strong>de</strong>cken soll, son<strong>de</strong>rn für Teilprojekte im<br />
Sinne eines QMS-Prozesses Standards setzen und überprüfbar machen soll. 1<br />
Im weiteren Verlauf <strong>de</strong>s Workshops wur<strong>de</strong> <strong>de</strong>utlich, dass eine einfache „Abarbeitung“ <strong>de</strong>r<br />
Leitfragestellungen teilweise zugunsten <strong>de</strong>r Klärung vielfältiger Informationsbedürfnisse<br />
zurückstehen musste.<br />
Dennoch lässt sich festhalten, dass bezüglich <strong>de</strong>r arbeitsmarktpolitischen Wirkungen und<br />
<strong>de</strong>ren Messung in mehrfacher Hinsicht (naheliegen<strong>de</strong>) Fragen aufgeworfen wur<strong>de</strong>n:<br />
1. Welche Relevanz hat dieser Aspekt für die Programmbewertung angesichts<br />
experimenteller Designs auf EP-Ebene / systemorientierter EPen ohne größere TN-<br />
Zahlen sowie prozessorientierter Evaluationsansätze?<br />
2. Wie soll gegebenenfalls <strong>de</strong>r Effekt <strong>de</strong>finiert und operationalisiert wer<strong>de</strong>n (Beschäftigung<br />
nach Maßnahmeteilnahme?), womit sollen Effekte gemessen wer<strong>de</strong>n und zu welchem<br />
Messzeitpunkt?<br />
3. Worin besteht <strong>de</strong>r relevante Kontext / welche Aspekte wer<strong>de</strong>n in Kontextanalysen<br />
berücksichtigt (sozio-ökonomische Rahmendaten zur Bestimmung von<br />
Kontingentindikatoren; eher operationelle /institutionelle Kontexte - z.B. rechtliche<br />
Rahmenbedingungen <strong>de</strong>r Interventionen und ihres Umfel<strong>de</strong>s …).<br />
Die bislang gewählten bzw. vorgesehenen Ansätze und Instrumente <strong>de</strong>r Evaluationen sind<br />
sehr vielfältig: Sie reichen von Kontaktgesprächen bis Fallstudien, von prozess-orientierten<br />
Ansätzen bis Vergleichsgruppenanalysen, schließen <strong>de</strong>n Einsatz betriebswirtschaftlicher<br />
Planungs- und Controlling-Verfahren (Balanced Score Card) ebenso ein wie<br />
Fragebogenerhebungen und SWOT-Analysen. Dementsprechend vielfältig (o<strong>de</strong>r<br />
uneinheitlich – je nach Sichtweise) sind die zu erwarten<strong>de</strong>n Informationen, woran sich<br />
unmittelbar weitere Fragestellungen anknüpfen:<br />
• Wie <strong>de</strong>finiert sich das Verhältnis von EP- und Programm<strong>evaluation</strong> inhaltlich, d.h. wo<br />
en<strong>de</strong>t <strong>de</strong>r Aufgabenbereich <strong>de</strong>r EP-Evaluatoren bzw. beginnt <strong>de</strong>r Aufgabenbereich<br />
<strong>de</strong>r nationalen Evaluierung? An<strong>de</strong>rs gefragt: Welche Fragestellungen sind bei<strong>de</strong>n<br />
Evaluationsebenen gemeinsam und welche sind jeweils nur von spezifischem<br />
Interesse?<br />
• Lässt sich auf Grundlage <strong>de</strong>r vorhan<strong>de</strong>nen Evaluierungsansätze überhaupt ein<br />
gemeinsamer Nenner an Informationen (und abgeleiteten Daten) <strong>de</strong>finieren?<br />
• Welche Rolle kann das Stammblatt /MEPHISTO für die Evaluation bei<strong>de</strong>r Ebenen<br />
spielen? 2<br />
1<br />
2<br />
Ein weiterer Evaluationsauftrag für die EP-Prozesse wur<strong>de</strong> zwar vergeben, aber nicht<br />
durchgeführt, da die AuftragnehmerIn vom Auftrag zurücktrat.<br />
Damit zusammenhängend stellte sich auch die Frage nach <strong>de</strong>m Stellenwert <strong>de</strong>r Teilprojekte<br />
für die jeweilige Gesamt-EP (strategisches Element <strong>de</strong>r Innovation o<strong>de</strong>r eher Basis nationaler<br />
Ko-Finanzierung?): Was geschieht, wenn Partner ausschei<strong>de</strong>n und/o<strong>de</strong>r Projekte wegbrechen<br />
– wer<strong>de</strong>n eher gleichartige Projekte gesucht o<strong>de</strong>r neue Partner?
Die ersten bei<strong>de</strong>n Punkte konnten erwartungsgemäß nicht abschließend behan<strong>de</strong>lt wer<strong>de</strong>n.<br />
Der letzte Punkt war jedoch unter zwei Aspekten aufschlussreich:<br />
1. Nicht wenigen Anwesen<strong>de</strong>n war we<strong>de</strong>r das Stammblatt noch MEPHISTO wirklich<br />
bekannt, was auf eine nicht optimale interne Kommunikationsstruktur innerhalb <strong>de</strong>r EPen<br />
bzw. zwischen EP-Koordination und Evaluation verweist. Offensichtlich waren in <strong>de</strong>n<br />
Regionalkonferenzen <strong>de</strong>r TH zur Einführung <strong>de</strong>s Stammblattes die EP-Evaluatoren nicht<br />
hinreichend systematisch vertreten.<br />
2. Die Anwesen<strong>de</strong>n erhoben auch auf Nachfrage weniger Einwän<strong>de</strong> gegen diese Form <strong>de</strong>r<br />
strukturierten Datenerhebung als seitens <strong>de</strong>r Vertreter <strong>de</strong>r nationalen Evaluation erwartet,<br />
obwohl mögliche Akzeptanzprobleme bei Trägern, TeilnehmerInnen und beteiligten<br />
Unternehmen gesehen wur<strong>de</strong>n. Von einigen Teilnehmer wur<strong>de</strong> sogar bemängelt, dass die<br />
abgefragte Informationsstruktur <strong>de</strong>n Beson<strong>de</strong>rheiten von EQUAL als innovativem und<br />
experimentellem Programm nicht hinreichend Rechnung trage und es wur<strong>de</strong> nach <strong>de</strong>r<br />
grundsätzlichen Erweiterbarkeit von MEPHISTO für zusätzliche Informationen gefragt.<br />
Der Vertreter <strong>de</strong>r technischen Hilfe hat eine Prüfung dieser Möglichkeiten in Aussicht<br />
gestellt, wenn die aktuellen Aufgaben <strong>de</strong>r Einführung erfolgreich abgeschlossen wären.<br />
FAZIT:<br />
Abgesehen von Ängsten, seitens <strong>de</strong>r nationalen Evaluation nachträglich mit Anfor<strong>de</strong>rungen<br />
überzogen zu wer<strong>de</strong>n, die sich mit bereits implementierten Konzepten und/o<strong>de</strong>r materiellen<br />
Restriktionen <strong>de</strong>r einzelnen Evaluationen nicht vereinbaren ließen, bestand ein<br />
grundsätzlicher Bedarf an konkreten Orientierungen bzw. an gemeinsamen Vereinbarungen<br />
zur Definition von Daten- und Berichtsstrukturen. Es wur<strong>de</strong> seitens <strong>de</strong>r Vertreter <strong>de</strong>r<br />
nationalen Evaluation betont, dass diese einen solchen Prozess initiieren und koordinieren<br />
wolle, aber ein dialogisches Verfahren angesichts <strong>de</strong>r fortgeschrittenen Programmumsetzung<br />
und <strong>de</strong>r sehr differenten Strukturen <strong>de</strong>r EP-Evaluationen für angemessen halte<br />
und die Berücksichtigung <strong>de</strong>r sehr unterschiedlichen Ressourcen im Blicke habe.<br />
Für diesen Prozess wur<strong>de</strong>n verschie<strong>de</strong>ne Arbeitsschritte vereinbart:<br />
1. Auswertung <strong>de</strong>r Augsburger Tagung und Übermittlung <strong>de</strong>r Workshop-Unterlagen an die<br />
Teilnehmen<strong>de</strong>n.<br />
2. Aufbau einer technischen Austauschplattform für die unterschiedlichen Erhebungsinstrumente<br />
<strong>de</strong>r einzelnen Evaluationen sowie für weitere Materialien seitens <strong>de</strong>r<br />
nationalen Evaluation (z.B. Berichte, Konzeptpapiere …).<br />
3. Benennung von AnsprechpartnerInnen in <strong>de</strong>r nationalen Evaluation, wobei noch offen<br />
blieb, ob diese Benennungen EP-spezifisch o<strong>de</strong>r themenorientiert erfolgen wird.<br />
4. Organisation weiterer Arbeitstreffen zwischen nationaler Evaluation und EP-Evaluationen,<br />
wobei eingefor<strong>de</strong>rt wur<strong>de</strong>, diese mit einem größeren zeitlichen Vorlauf für die<br />
TeilnehmerInnen planbarer zu gestalten.<br />
5. Soweit noch nicht geschehen, wur<strong>de</strong>n die Teilnehmen<strong>de</strong>n gebeten, Evaluationskonzepte,<br />
Erhebungsmaterialien etc. <strong>de</strong>r nationalen Evaluation zur Auswertung zur Verfügung zu<br />
stellen.