12.04.2015 Aufrufe

Protokoll AG 4 - evaluation-equal.de

Protokoll AG 4 - evaluation-equal.de

Protokoll AG 4 - evaluation-equal.de

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Benno Savioli (FEEDBACK Savioli & Duffner GbR /COMPASS GmbH, Bremen)<br />

Arbeitstagung Evaluation Augsburg 03.04.2003<br />

Bericht zur Arbeitsgruppe 4: Sozioökonomischer und operationeller Kontext,<br />

arbeitsmarktpolitische Wirkungen, Begleitsystem<br />

(Mo<strong>de</strong>ration: Nils Pagels, ZOOM – Gesellschaft für prospektive Entwicklungen e.V.,<br />

Göttingen; Input Programm<strong>evaluation</strong>: Axel Weise, COMPASS GmbH, Bremen; Input EP-<br />

Evaluation: Claudia Knobel, Institut für Wirtschaft, Arbeit und Kultur - IWAK – Uni<br />

Frankfurt/M)<br />

Der Workshop wur<strong>de</strong> mit 22 TeilnehmerInnen (TN) durchgeführt, die 20 EPen ab<strong>de</strong>ckten.<br />

Hinzu kamen ein Vertreter <strong>de</strong>r Technischen Hilfe (TH), zwei Vertreter <strong>de</strong>r nationalen EQUAL-<br />

Evaluierung sowie <strong>de</strong>r Mo<strong>de</strong>rator.<br />

Nach <strong>de</strong>r Begrüßung erfolgte zunächst <strong>de</strong>r Input <strong>de</strong>r Programm<strong>evaluation</strong> durch Axel Weise<br />

mit einer Darstellung <strong>de</strong>r für <strong>de</strong>n Workshop vorgesehenen Leitfragestellungen (Details s.<br />

beigefügte PPT-Datei: Input-<strong>AG</strong>4.PPT).<br />

Im Anschluss erfolgte zunächst eine Vorstellungsrun<strong>de</strong>, mit <strong>de</strong>r Zielsetzung einerseits einen<br />

Überblick über die beteiligten EP bzw. <strong>de</strong>ren Evaluationen zu erhalten und insbeson<strong>de</strong>re <strong>de</strong>n<br />

Status <strong>de</strong>r Evaluationen innerhalb <strong>de</strong>r jeweiligen EP und <strong>de</strong>n Stand ihrer Beauftragung zu<br />

erhalten und an<strong>de</strong>rerseits Erwartungen an die Veranstaltung äußern zu können.<br />

Die Vorstellungsrun<strong>de</strong> bestätigte nochmals unsere Einschätzung, dass die Evaluierungen<br />

sowohl<br />

• hinsichtlich <strong>de</strong>r formalen Einbettung in die EPen (Teilprojekt/ externe Evaluierung /Teil<br />

<strong>de</strong>r Koordination) als auch<br />

• bezüglich <strong>de</strong>r Aufgabenstellung (summative / formative Evaluierung bzw. Qualitätssicherung,<br />

Gesamt-EP-/Teilprojekt-Evaluierung --> mögliche diffuse Rollenzuweisung)<br />

und –<br />

• hinsichtlich <strong>de</strong>s Stands <strong>de</strong>r Umsetzung stark variieren (von „seit Interessensbekundungen<br />

dabei“ bis „beginnt <strong>de</strong>mnächst“); das Gros <strong>de</strong>r beteiligten Evaluationen scheint<br />

erst seit relativ kurzer Zeit - Mitte bis En<strong>de</strong> <strong>de</strong>s letzten Jahres - aktiv zu sein.<br />

Die breite Fächerung bestätigte sich auch hinsichtlich <strong>de</strong>r offenbar höchst unterschiedlichen<br />

Ressourcen (absolut sowie anteilig zu EP-Gesamtkosten), die für Evaluierungsaufgaben<br />

verfügbar sind – ohne dass dieser durchaus wichtige Aspekt in <strong>de</strong>r Vorstellungsrun<strong>de</strong><br />

zahlenmäßig darstellbar gewesen wäre.<br />

EP-Input<br />

Im Anschluss stellte Claudia Knobel ihren Evaluierungsansatz für die EP MARE bzw. die von<br />

Ihr zu evaluieren<strong>de</strong>n Teilprojekte dar (Details s. beigefügte PPT-Datei: Input-EP-<br />

<strong>AG</strong>4.PPT.ppt). Hierbei han<strong>de</strong>lt es sich um ein Beispiel einer indikator-basierten, teilprojekt-


orientierten Evaluierung, die nicht die gesamte EP ab<strong>de</strong>cken soll, son<strong>de</strong>rn für Teilprojekte im<br />

Sinne eines QMS-Prozesses Standards setzen und überprüfbar machen soll. 1<br />

Im weiteren Verlauf <strong>de</strong>s Workshops wur<strong>de</strong> <strong>de</strong>utlich, dass eine einfache „Abarbeitung“ <strong>de</strong>r<br />

Leitfragestellungen teilweise zugunsten <strong>de</strong>r Klärung vielfältiger Informationsbedürfnisse<br />

zurückstehen musste.<br />

Dennoch lässt sich festhalten, dass bezüglich <strong>de</strong>r arbeitsmarktpolitischen Wirkungen und<br />

<strong>de</strong>ren Messung in mehrfacher Hinsicht (naheliegen<strong>de</strong>) Fragen aufgeworfen wur<strong>de</strong>n:<br />

1. Welche Relevanz hat dieser Aspekt für die Programmbewertung angesichts<br />

experimenteller Designs auf EP-Ebene / systemorientierter EPen ohne größere TN-<br />

Zahlen sowie prozessorientierter Evaluationsansätze?<br />

2. Wie soll gegebenenfalls <strong>de</strong>r Effekt <strong>de</strong>finiert und operationalisiert wer<strong>de</strong>n (Beschäftigung<br />

nach Maßnahmeteilnahme?), womit sollen Effekte gemessen wer<strong>de</strong>n und zu welchem<br />

Messzeitpunkt?<br />

3. Worin besteht <strong>de</strong>r relevante Kontext / welche Aspekte wer<strong>de</strong>n in Kontextanalysen<br />

berücksichtigt (sozio-ökonomische Rahmendaten zur Bestimmung von<br />

Kontingentindikatoren; eher operationelle /institutionelle Kontexte - z.B. rechtliche<br />

Rahmenbedingungen <strong>de</strong>r Interventionen und ihres Umfel<strong>de</strong>s …).<br />

Die bislang gewählten bzw. vorgesehenen Ansätze und Instrumente <strong>de</strong>r Evaluationen sind<br />

sehr vielfältig: Sie reichen von Kontaktgesprächen bis Fallstudien, von prozess-orientierten<br />

Ansätzen bis Vergleichsgruppenanalysen, schließen <strong>de</strong>n Einsatz betriebswirtschaftlicher<br />

Planungs- und Controlling-Verfahren (Balanced Score Card) ebenso ein wie<br />

Fragebogenerhebungen und SWOT-Analysen. Dementsprechend vielfältig (o<strong>de</strong>r<br />

uneinheitlich – je nach Sichtweise) sind die zu erwarten<strong>de</strong>n Informationen, woran sich<br />

unmittelbar weitere Fragestellungen anknüpfen:<br />

• Wie <strong>de</strong>finiert sich das Verhältnis von EP- und Programm<strong>evaluation</strong> inhaltlich, d.h. wo<br />

en<strong>de</strong>t <strong>de</strong>r Aufgabenbereich <strong>de</strong>r EP-Evaluatoren bzw. beginnt <strong>de</strong>r Aufgabenbereich<br />

<strong>de</strong>r nationalen Evaluierung? An<strong>de</strong>rs gefragt: Welche Fragestellungen sind bei<strong>de</strong>n<br />

Evaluationsebenen gemeinsam und welche sind jeweils nur von spezifischem<br />

Interesse?<br />

• Lässt sich auf Grundlage <strong>de</strong>r vorhan<strong>de</strong>nen Evaluierungsansätze überhaupt ein<br />

gemeinsamer Nenner an Informationen (und abgeleiteten Daten) <strong>de</strong>finieren?<br />

• Welche Rolle kann das Stammblatt /MEPHISTO für die Evaluation bei<strong>de</strong>r Ebenen<br />

spielen? 2<br />

1<br />

2<br />

Ein weiterer Evaluationsauftrag für die EP-Prozesse wur<strong>de</strong> zwar vergeben, aber nicht<br />

durchgeführt, da die AuftragnehmerIn vom Auftrag zurücktrat.<br />

Damit zusammenhängend stellte sich auch die Frage nach <strong>de</strong>m Stellenwert <strong>de</strong>r Teilprojekte<br />

für die jeweilige Gesamt-EP (strategisches Element <strong>de</strong>r Innovation o<strong>de</strong>r eher Basis nationaler<br />

Ko-Finanzierung?): Was geschieht, wenn Partner ausschei<strong>de</strong>n und/o<strong>de</strong>r Projekte wegbrechen<br />

– wer<strong>de</strong>n eher gleichartige Projekte gesucht o<strong>de</strong>r neue Partner?


Die ersten bei<strong>de</strong>n Punkte konnten erwartungsgemäß nicht abschließend behan<strong>de</strong>lt wer<strong>de</strong>n.<br />

Der letzte Punkt war jedoch unter zwei Aspekten aufschlussreich:<br />

1. Nicht wenigen Anwesen<strong>de</strong>n war we<strong>de</strong>r das Stammblatt noch MEPHISTO wirklich<br />

bekannt, was auf eine nicht optimale interne Kommunikationsstruktur innerhalb <strong>de</strong>r EPen<br />

bzw. zwischen EP-Koordination und Evaluation verweist. Offensichtlich waren in <strong>de</strong>n<br />

Regionalkonferenzen <strong>de</strong>r TH zur Einführung <strong>de</strong>s Stammblattes die EP-Evaluatoren nicht<br />

hinreichend systematisch vertreten.<br />

2. Die Anwesen<strong>de</strong>n erhoben auch auf Nachfrage weniger Einwän<strong>de</strong> gegen diese Form <strong>de</strong>r<br />

strukturierten Datenerhebung als seitens <strong>de</strong>r Vertreter <strong>de</strong>r nationalen Evaluation erwartet,<br />

obwohl mögliche Akzeptanzprobleme bei Trägern, TeilnehmerInnen und beteiligten<br />

Unternehmen gesehen wur<strong>de</strong>n. Von einigen Teilnehmer wur<strong>de</strong> sogar bemängelt, dass die<br />

abgefragte Informationsstruktur <strong>de</strong>n Beson<strong>de</strong>rheiten von EQUAL als innovativem und<br />

experimentellem Programm nicht hinreichend Rechnung trage und es wur<strong>de</strong> nach <strong>de</strong>r<br />

grundsätzlichen Erweiterbarkeit von MEPHISTO für zusätzliche Informationen gefragt.<br />

Der Vertreter <strong>de</strong>r technischen Hilfe hat eine Prüfung dieser Möglichkeiten in Aussicht<br />

gestellt, wenn die aktuellen Aufgaben <strong>de</strong>r Einführung erfolgreich abgeschlossen wären.<br />

FAZIT:<br />

Abgesehen von Ängsten, seitens <strong>de</strong>r nationalen Evaluation nachträglich mit Anfor<strong>de</strong>rungen<br />

überzogen zu wer<strong>de</strong>n, die sich mit bereits implementierten Konzepten und/o<strong>de</strong>r materiellen<br />

Restriktionen <strong>de</strong>r einzelnen Evaluationen nicht vereinbaren ließen, bestand ein<br />

grundsätzlicher Bedarf an konkreten Orientierungen bzw. an gemeinsamen Vereinbarungen<br />

zur Definition von Daten- und Berichtsstrukturen. Es wur<strong>de</strong> seitens <strong>de</strong>r Vertreter <strong>de</strong>r<br />

nationalen Evaluation betont, dass diese einen solchen Prozess initiieren und koordinieren<br />

wolle, aber ein dialogisches Verfahren angesichts <strong>de</strong>r fortgeschrittenen Programmumsetzung<br />

und <strong>de</strong>r sehr differenten Strukturen <strong>de</strong>r EP-Evaluationen für angemessen halte<br />

und die Berücksichtigung <strong>de</strong>r sehr unterschiedlichen Ressourcen im Blicke habe.<br />

Für diesen Prozess wur<strong>de</strong>n verschie<strong>de</strong>ne Arbeitsschritte vereinbart:<br />

1. Auswertung <strong>de</strong>r Augsburger Tagung und Übermittlung <strong>de</strong>r Workshop-Unterlagen an die<br />

Teilnehmen<strong>de</strong>n.<br />

2. Aufbau einer technischen Austauschplattform für die unterschiedlichen Erhebungsinstrumente<br />

<strong>de</strong>r einzelnen Evaluationen sowie für weitere Materialien seitens <strong>de</strong>r<br />

nationalen Evaluation (z.B. Berichte, Konzeptpapiere …).<br />

3. Benennung von AnsprechpartnerInnen in <strong>de</strong>r nationalen Evaluation, wobei noch offen<br />

blieb, ob diese Benennungen EP-spezifisch o<strong>de</strong>r themenorientiert erfolgen wird.<br />

4. Organisation weiterer Arbeitstreffen zwischen nationaler Evaluation und EP-Evaluationen,<br />

wobei eingefor<strong>de</strong>rt wur<strong>de</strong>, diese mit einem größeren zeitlichen Vorlauf für die<br />

TeilnehmerInnen planbarer zu gestalten.<br />

5. Soweit noch nicht geschehen, wur<strong>de</strong>n die Teilnehmen<strong>de</strong>n gebeten, Evaluationskonzepte,<br />

Erhebungsmaterialien etc. <strong>de</strong>r nationalen Evaluation zur Auswertung zur Verfügung zu<br />

stellen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!