16.01.2014 Aufrufe

2013 09 22 20010 Projektbericht 5 Bezirke Berlin_final - SFBB

2013 09 22 20010 Projektbericht 5 Bezirke Berlin_final - SFBB

2013 09 22 20010 Projektbericht 5 Bezirke Berlin_final - SFBB

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Bestimmung steuerungsrelevanter Wirkungsindikatoren HzE in <strong>Berlin</strong> (5 <strong>Bezirke</strong>)<br />

Abschlussbericht für das Gesamtprojekt Wirkungsevaluation (2010 bis <strong>2013</strong>)<br />

Die Erhebungszeitpunkte<br />

Bei der retrospektiven Evaluation werden die Werte am Schluss der Hilfe rückblickend erhoben. Der Beurteiler<br />

muss sich daran erinnern, was das Problem und das vereinbarte Ziel war. Außerdem muss er sich an die<br />

Maßstäbe der Problembewertung erinnern, die er am Anfang angewendet hat. Retrospektive Einschätzungen<br />

sind äußerst fehleranfällig, weil Gewöhnungseffekte und nachträgliche Verklärungen oder Dramatisierungen<br />

die Urteile stark beeinflussen. Nach unseren Erfahrungen wirken sich bei der Urteilsbildung oft die letzten<br />

Ereignisse auf das Letzturteil aus. Wenn Familienhilfe beispielsweise in einer Krise endet oder in den letzten<br />

Wochen eine Verschlechterung eingetreten ist, gerät häufig der anfängliche Erfolg völlig aus dem Blick. Zum<br />

anderen ist nicht immer sichergestellt, dass bei einer rückblickendenden Bewertung die anfänglichen Ziele<br />

noch genau erinnert werden. Es würde natürlich helfen, wenn die Ziele am Anfang genau operationalisiert<br />

wurden und am Ende retrospektiv mit dem Wissen dieser anfänglichen Beauftragung eine Bewertung vorgenommen<br />

wird. In der Praxis können wir aber nicht davon ausgehen, dass am Schluss die anfänglichen Ziele<br />

immer noch aktuell sind, und wir können auch nicht davon ausgehen, dass die Zielvereinbarungen am Beginn<br />

so genau getroffen worden sind, dass sie am Ende einer Hilfe noch Bestand haben.<br />

Prospektive Evaluationen vermeiden die meisten Fehler der retrospektiven Wirkungseinschätzung. Die Daten<br />

werden zu Beginn, im Verlauf und am Ende der zu beurteilenden Intervention erhoben. Durch die zeitnahe<br />

Dokumentation vermeidet man Erinnerungsverzerrungen. Die Erhebung im Verlauf der Hilfen setzt aber voraus,<br />

dass die Maßstäbe über die Zeit stabil sind. Sollten diese sich mit der Zeit verschieben, weiß man am<br />

Schluss nicht, ob Veränderungen tatsächlich die Wirkungen von Interventionen widerspiegeln oder auf Verschiebungen<br />

der Maßstäbe. Prospektive Evaluationen sind wissenschaftlich zu empfehlen, haben aber den<br />

Nachteil einer langen Datenerhebungsphase.<br />

Einen guten Kompromiss bieten quasi-experimentelle Querschnittuntersuchungen. Wie bei der prospektiven<br />

Evaluation werden mindestens zwei Zeitpunkte dokumentiert, hier der Hilfebeginn und das Hilfeende. Es bedarf<br />

auch hier eines einheitlichen Beurteilungsmaßstabes. Es ist aber nicht nötig, jede Hilfe vom Anfang bis<br />

zum Ende zu verfolgen, indem man zwei Vergleichsgruppen bildet, in unserem Fall die Stichprobe der begonnenen<br />

in einem Zeitraum im Vergleich zu den beendeten Hilfen des Zeitraumes. Dieses Verfahren ist zeitökonomischer<br />

und eröffnet bei längerer Dauer die Möglichkeiten einer echten prospektiven Längsschnittuntersuchung.<br />

Die Stichprobe der beendeten Hilfen kann außerdem noch retrospektiv evaluiert werden.<br />

Der Detaillierungsgrad:<br />

Die Ziele der Intervention können sehr differenziert erfasst werden oder es wird ein eher generalisierter Blick<br />

auf die Ziele und deren Erreichung geworfen. Ein Beispiel für eine stark differenzierte Ziel-<br />

Wirkungsevaluation bei Erziehungshilfen ist die Dokumentation von smarten Handlungszielen. Diese können<br />

kaum kategorisiert werden, weil es eine nicht begrenzte Anzahl smarter Zielvereinbarungen geben kann. Der<br />

Nachteil stark differenzierter Ziele liegt darin, dass der Dokumentationsaufwand sehr hoch ist und die Menge<br />

der zusammengetragenen Information schwerlich eine allgemein gültige Aussage erlaubt.<br />

Die allgemeinste Form einer sehr wenig differenzierten Zielerreichung ist eine Ja-Nein Frage: Hat die Intervention<br />

gewirkt? Mit einer solchen allgemeinen Einschätzung kann Praxis in der Regel wenig anfangen. Abgesehen<br />

davon, dass auch von Interesse ist, worin denn die Wirkung besteht, sollte man berücksichtigen, dass<br />

Ziele in abgestuften Graden erreicht werden.<br />

Dazwischen liegt ein ganzes Spektrum von Detaillierungsgraden, auf dem man je nach Fragestellung und möglichem<br />

Aufwand die geeignete Form finden muss. Je differenzierter, desto höher der Aufwand und die zu<br />

verarbeitende Informationsmenge. Je weniger differenziert, desto geringer der Erkenntnisgewinn.<br />

Das Problem der Vergleichsgruppe.<br />

Die Überprüfung von Wirksamkeit einer Intervention setzt voraus, dass man eine Vergleichsgruppe definiert,<br />

bei der die Intervention nicht angewandt wurde (Schmidt, 2010). Dieser sogenannte „Goldstandard“ der Wirkungsevaluation<br />

kann allerdings in der Jugendhilfe in der Regel nicht angewandt werden, weil es aus ethischen<br />

und praktischen Gründen wahrscheinlich nicht gelingen wird, eine Gruppe zu bilden und im Verlauf der<br />

nächsten Jahre nachzuverfolgen, bei der ein entsprechender Bedarf existiert und keine Hilfe gewährt wurde.<br />

Falls eine solche Vergleichsstichprobe gefunden werden kann, stellt sich immer noch die Frage, ob es sich<br />

14

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!