KONTROL OG LÆRING - Akademisk Opgavebank
KONTROL OG LÆRING - Akademisk Opgavebank
KONTROL OG LÆRING - Akademisk Opgavebank
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>KONTROL</strong><br />
<strong>OG</strong> <strong>LÆRING</strong><br />
Evaluering af dansk<br />
mediebistand<br />
i et diskursanalytisk perspektiv<br />
Speciale i Medievidenskab, Aarhus Universitet<br />
Af:<br />
Line Thaudahl Jakobson, 19993271<br />
Anna Bak Larsen, 19993490<br />
Vejleder:<br />
Poul Erik Nielsen<br />
Februar 2005<br />
1
1. Indledning................................................................................................................8<br />
1.1. Indkredsning af problemfelt ...................................................................................8<br />
1.2. Problemformulering .............................................................................................10<br />
1.3. Læsevejledning....................................................................................................11<br />
1.3.1. Specialets første del: teoretisk og metodisk afsæt.................................11<br />
1.3.2. Specialets anden del: Analyse ...............................................................12<br />
1.4. Begrebsafklaring..................................................................................................14<br />
1.4.1. Mediebistand ..........................................................................................14<br />
1.4.2. Evaluering...............................................................................................16<br />
2. Teoretisk afsæt .....................................................................................................19<br />
2.1. Evaluering af mediebistand i et diskursperspektiv...............................................19<br />
2.1.1. Diskurs, magt og viden...........................................................................20<br />
2.1.2. Evaluering som diskursiv praktik ............................................................21<br />
2.2. Udviklings- og evalueringsdiskurser ....................................................................21<br />
2.3. Symbolsk interaktionisme ....................................................................................22<br />
2.3.1. Translation..............................................................................................22<br />
2.3.2. Praksisfællesskaber ...............................................................................23<br />
2.3.3. Grænseobjekter......................................................................................23<br />
2.4. Evaluering og dens genstand ..............................................................................25<br />
2.4.1. Indhold og tidsorientering .......................................................................25<br />
2.4.2. Identiteter og relationer...........................................................................27<br />
3. Udviklingsteoretiske diskurser ...........................................................................29<br />
3.1. Moderniseringsdiskursen.....................................................................................30<br />
3.1.1. Moderniseringsdiskursen og forholdet mellem donor og modtager .......31<br />
3.1.2. Kritik af moderniseringsdiskursen ..........................................................31<br />
3.2. Den kritiske udviklingsdiskurs..............................................................................32<br />
3.2.1. Den kritiske udviklingsdiskurs og forholdet mellem donor og modtager 33<br />
3.2.2. Kritik af den kritiske udviklingsdiskurs....................................................33<br />
3.3. Partnerskabets paradoks.....................................................................................34<br />
4. Evalueringsteoretiske diskurser .........................................................................36<br />
4.1. Distinktionen mellem kontrol- og læringsevalueringer.........................................36<br />
4.2. Evaluering som et redskab til kontrol...................................................................38<br />
4.2.1. Kontrolevalueringernes demokratiske legitimeringsgrundlag.................39<br />
4.2.2. Kravet om objektiv information ...............................................................39<br />
4.2.3. Fokus på resultater.................................................................................40<br />
4.2.4. Kritik af kontrolevalueringer....................................................................41<br />
4.3. Evaluering som et redskab til læring ...................................................................42<br />
4.3.1. Konsensusbaseret læring.......................................................................44<br />
4.3.2. Den participatoriske læringsdiskurs .......................................................46<br />
4.3.3. Opsummering: to forskellige læringsforståelser.....................................50<br />
4.4. Forskelle og ligheder mellem de to evalueringsteoretiske diskurser...................50<br />
4.4.1. En note om fremstillingen.......................................................................51<br />
4.4.2. Forskelle .................................................................................................51<br />
4.4.3. Ligheder..................................................................................................52<br />
2
5. Udviklings- og evalueringsteoretisk opsummering..........................................54<br />
5.1. Slægtskab mellem diskurser på tværs af felter ...................................................54<br />
5.2. En note om normativitet.......................................................................................55<br />
6. Metode ...................................................................................................................56<br />
6.1. Udvælgelse og behandling af empiri ...................................................................56<br />
6.1.1. Udvælgelse og databehandling af dokumenter......................................56<br />
6.1.2. Interviews ...............................................................................................61<br />
6.1.3. Fremstilling af empiri ..............................................................................64<br />
6.2. Undersøgelsens videnskabelighed......................................................................65<br />
6.2.1. Validitet...................................................................................................65<br />
6.2.2. Reliabilitet ...............................................................................................66<br />
6.2.3. Generaliserbarhed..................................................................................66<br />
6.3. Metodisk refleksion ..............................................................................................66<br />
7. Danidas evalueringspraksis ................................................................................69<br />
7.1. Evalueringer og reviews ......................................................................................69<br />
7.1.1. Offentliggørelse ......................................................................................69<br />
7.1.2. Organisatorisk forankring .......................................................................71<br />
7.1.3. Initiering ..................................................................................................74<br />
7.1.4. Design ....................................................................................................75<br />
7.1.5. Udførelse ................................................................................................76<br />
7.1.6. Opfølgning ..............................................................................................78<br />
7.1.7. Forskelle og ligheder mellem reviews og evalueringer ..........................79<br />
7.2. Danida, konsulenter og partnere – tre praksisfællesskaber ................................80<br />
7.2.1. Opdragsgiveren: Danida ........................................................................81<br />
7.2.2. Evaluatorerne: Eksterne konsulenter .....................................................82<br />
7.2.3. De evaluerede aktører: Danidas partnere..............................................83<br />
8. Forskellige forståelser af læring og kontrol ......................................................86<br />
8.1. Kontrol..................................................................................................................87<br />
8.1.1. Legitim kontrol ........................................................................................87<br />
8.1.2. Inspektion ...............................................................................................88<br />
8.2. Læring..................................................................................................................90<br />
8.2.1. Konsensusbaseret læring.......................................................................90<br />
8.2.2. Participatorisk læring..............................................................................92<br />
8.3. Kontrol og/eller læring?........................................................................................95<br />
8.3.1. Danida: Både-og.....................................................................................95<br />
8.3.2. Partnere og konsulenter: Enten-eller......................................................96<br />
8.4. Forskellige forståelser – forskellige interesser ....................................................97<br />
9. Evalueringer og reviews som grænseobjekter..................................................99<br />
9.1. Kontrol og læring i otte evaluerings- og reviewforløb ..........................................99<br />
9.1.1. Kontrol- og læringskomponenter i rapporterne ....................................100<br />
9.1.2. Oversigt over de analyserede rapporter...............................................105<br />
9.2. Præsentation af evaluerings- og reviewforløb ...................................................106<br />
9.2.1. To ’kontrolreviews’: Bangladesh og NSJ 03.........................................107<br />
9.2.2. Den generelle medieevaluering og Zambia 02: Både/og eller hverkeneller?...............................................................................................................108<br />
9.2.3. Evaluering og review af MISA – eksempler på læringsprocesser........111<br />
3
9.3. Opsamling..........................................................................................................113<br />
10. Konsulenten som stødpude mellem donor og modtager.............................114<br />
10.1. Den uafhængige, upartiske konsulent .............................................................114<br />
10.2. To fortællinger om utryghed og uafhængighed ...............................................115<br />
10.2.1. ”… sådan en nørd der, jamen altså, det skal han sgu da ikke have lov<br />
til” ....................................................................................................................115<br />
10.2.2. Høflighedssammensværgelsen..........................................................116<br />
10.3. Kunden har altid ret…......................................................................................119<br />
10.3.1. Viden er magt .....................................................................................119<br />
10.3.2. Økonomisk afhængighed ...................................................................121<br />
10.3.3. Uafhængighed avler afhængighed.....................................................122<br />
10.3.4. Partnernes syn på konsulenterne.......................................................123<br />
10.4. Konsulenten som modtagerens advokat .........................................................125<br />
10.4.1. Evnen til at stille de rigtige krav..........................................................126<br />
10.5. Splittelsen ........................................................................................................126<br />
10.5.1. De mange afsenderidentiteter ............................................................127<br />
10.5.2. Den vurderende konsulent .................................................................128<br />
10.5.3. At antaste fra et uantasteligt grundlag................................................129<br />
10.6. Den afhængige, partiske konsulent .................................................................130<br />
11. Den gode mediebistandsindsats ....................................................................132<br />
11.1. Kriterier og indikatorer .....................................................................................132<br />
11.1.1. Danidas projektevalueringsmodel ......................................................132<br />
11.2. Analyse: Fokus på output, outcome og/eller impact i kommissorier og rapporter<br />
..................................................................................................................................135<br />
11.2.1. Måling af output: Efficiens ..................................................................136<br />
11.2.2. Måling af outcome: Effektivitet ...........................................................137<br />
11.2.3. Måling af outcome: Bæredygtighed....................................................139<br />
11.2.4. Måling af impact: Virkning ..................................................................140<br />
11.2.5. Måling af impact: Relevans ................................................................141<br />
11.2.6. Konklusion ..........................................................................................142<br />
11.3. Den gode mediebistandsindsats......................................................................143<br />
11.3.1. Diskussion ..........................................................................................144<br />
11.3.2. Indikatorfiksering? ..............................................................................145<br />
11.3.3. En tvetydig anledning til identitetsartikulation ....................................146<br />
11.4. Hvorfor fokus på output? .................................................................................148<br />
11.4.1. Fraværet af et indikatorværktøj ..........................................................148<br />
11.4.2. Urealistiske kommissorier ..................................................................151<br />
11.4.3. Manglende tid under feltstudier ..........................................................154<br />
11.4.4. Opsummering .....................................................................................158<br />
12. Kontrol, læring og magt ...................................................................................160<br />
12.1. Partnernes opfølgning på reviews og evalueringer .........................................160<br />
12.1.1. Inddragelse og ejerskab som motivationsfaktor.................................161<br />
12.1.2. Frygten for sanktioner ........................................................................162<br />
12.1.3. Egenkontrol og konsensus .................................................................162<br />
12.1.4. Partnerskab og bekendelse................................................................167<br />
12.2. Danida som lærende organisation...................................................................168<br />
12.2.1. Ansvarliggørelsesfunktionen som motivationsfaktor ..........................168<br />
12.2.2. Rotationsordningen som barriere for organisatorisk læring ...............169<br />
12.2.3. Danidas identitet til forhandling? ........................................................172<br />
12.3. Delkonklusion...................................................................................................172<br />
4
13. Fremtidens evaluering af mediebistand.........................................................174<br />
13.1. Læring og/eller kontrol? ...................................................................................174<br />
13.1.1. Klarhed og konkretisering...................................................................175<br />
13.1.2. Prioritering ..........................................................................................175<br />
13.2. Vurdering af mediebistandens effekter på outcomeniveau .............................176<br />
13.3. Inddragelse af partnerne..................................................................................176<br />
13.4. Imødegå utrygheden........................................................................................178<br />
13.4.1. Reel uafhængighed? ..........................................................................178<br />
13.4.2. Nationalitet..........................................................................................178<br />
13.5. En styrket opfølgningspraksis..........................................................................180<br />
13.6. Opsummering ..................................................................................................181<br />
14. Konklusion ........................................................................................................182<br />
14.1. Resumé............................................................................................................182<br />
14.2. Besvarelse af specialets problemformulering..................................................184<br />
14.2.1. Læring og kontrol................................................................................184<br />
14.2.2. Samspillet mellem diskurs og diskursiv praktik ..................................185<br />
14.2.3. Fremtidens mediebistandsevaluering.................................................187<br />
14.3. Perspektivering ................................................................................................188<br />
Litteratur ..................................................................................................................190<br />
Bilagsoversigt .........................................................................................................197<br />
Abstract ...................................................................................................................199<br />
5
Figurer<br />
4a Kontrol- og læringsevalueringer<br />
4b Den lærende organisation<br />
4c Den evalueringsteoretiske kontroldiskurs<br />
4d Konsensusbaseret og participatorisk læringsevaluering<br />
4e Kontroldiskursen og den participatoriske læringsdiskurs<br />
6a Oversigt over analyserede dokumenter<br />
6b Oversigt over interviewpersoner<br />
6c Oversigt over evaluerings- og reviewforløb<br />
7a Organigram for Udenrigsministeriets Sydgruppe/Danida<br />
7b Oversigt over ansvarshavere i udførelse af reviews og evalueringer<br />
7c Projektcyklussens dokumenter<br />
7d Praksisfællesskabernes roller i forbondelse med review og<br />
evalueringer<br />
9a Tekstanalytiske parametre<br />
9b Kontrolevaluringens kommunikationsveje<br />
9c Den participatoriske evaluerings kommunikationsveje<br />
9d Kontrol- og læringskomponenter i review- og evalueringsrapporter<br />
9e Kontinuum over fordeling af lærings- og kontrolkomponenter<br />
11a Effektniveauer og evalueringskriterier i Danida<br />
11b Efficiensindikatorer<br />
11c Effektivitetsindikatorer<br />
11d Bæredygtighedsindikatorer<br />
11e Virkningsindikatorer<br />
11f Relevansindikatorer<br />
6
Forkortelser<br />
BFT Bistandsfaglig Tjeneste, Danida<br />
DAC Development Assistance Committee, OECD<br />
Danida Danish International Development Assistance<br />
EK Kontoret for Evaluering af udviklingsbistand (Evalueringskontoret),<br />
Danida<br />
Hivos Humanistisch Instituut voor Ontwikkelingssamenwerking (Hollandsk<br />
NGO)<br />
IMS International Media Support, dansk NGO<br />
IO Implementerende organisation<br />
KS Konsulent<br />
KVA Kontoret for kvalitetssikring af udviklingsbistanden, Danida<br />
LFA Logical Framework Approach<br />
MISA Media Institute of Southern Africa<br />
Norad Norwegian Agency for Development Cooperation<br />
NSJ Nordic SADC School of Journalism<br />
OECD Organisation for Economic Co-operation and Development<br />
<strong>OG</strong> Opdragsgiver<br />
PCR Project Completion Report<br />
PO Partnerorganisation<br />
SADC Southern African Development Community<br />
Sida Swedish International Development Cooperation Agency<br />
ToR Terms of Reference<br />
USAID US Agency for International Development<br />
Formalia<br />
Specialet har et samlet omfang på 203,3 normalsider og er skrevet i et tæt<br />
samarbejde. Formelt hæfter Line Thaudahl Jakobson for kapitlerne 3, 6-8, og Anna<br />
Bak Larsen for kapitlerne 2, 4, 9-11.<br />
For at sikre de deltagende interviewpersoner anonymitet og samtidig give vejleder og<br />
censor mulighed for at kigge os metodisk i kortene, er der udarbejdet to versioner af<br />
specialet: En klausuleret, udelukkende til vejleder og censor, og en offentlig, hvor<br />
transskriptioner, præsentation af interviewpersoner og andre passager, som kan<br />
bidrage til at identificere konkrete personer, er udeladt. Dette er den offentlige<br />
version.<br />
7
1. Indledning<br />
Ordet ’evaluering’ er i løbet af de seneste år blevet en integreret del af det danske<br />
sprog. Børnehavebørns kompetenceudvikling evalueres, og det samme gør alt fra<br />
erhvervsindsatser over tandplejeordninger til udviklingsbistand. Blandt andet gennem<br />
lovgivning og oprettelse af evalueringscentre udbredes fænomenet til stadig flere<br />
områder. Evalueringsaktiviteterne i den offentlige sektor herhjemme har nået et<br />
omfang, så forskere taler om en ”evalueringsbølge” (Rieper 2001), hvor evalueringer<br />
ofte udføres per automatik uden tanke for resultaternes brugbarhed og relevans<br />
(Dahler-Larsen 1998b:57). Det er imidlertid ikke ensbetydende med, at evalueringer<br />
er neutrale begivenheder. Tværtimod er de med til at forme den måde, mennesker og<br />
organisationer forstår sig selv og deres omgivelser på. En god skole er eksempelvis<br />
den, hvis elever får gode resultater i læseprøven, og en god hjemmehjælper er hende,<br />
der kan overholde tidsplanen. Over alt, hvor der evalueres, har de anvendte<br />
måleredskaber indflydelse på vores opfattelse af, hvad der er godt, og hvad der er<br />
skidt, og i sidste ende kan man argumentere for, at de er med til at konstruere vores<br />
billede af verden.<br />
Når flere og flere områder gøres til genstand for evaluering, er det derfor en<br />
overvejelse værd, hvad konsekvenserne er. For hvilke identiteter får de evaluerede<br />
aktører tildelt, og hvilke relationer etableres mellem mennesker og institutioner, når<br />
de evalueres? Hvilken viden genereres, og hvilken magt er det, der udøves i en<br />
evaluering? Man kan også sætte problematikken på spidsen og spørge, hvilket<br />
samfund evalueringerne i grunden er med til at skabe?<br />
Vil man besvare disse spørgsmål, er det oplagt at tage udgangspunkt i, hvad det er for<br />
et samfund, der har skabt fodfæste for evalueringerne – hvorfor den megen<br />
evaluering? Her viser det sig, at evalueringerne i den offentlige sektor foretages med<br />
henblik på at kontrollere, hvordan de offentlige midler bliver brugt, og samtidig skal<br />
de bidrage til at forbedre den evaluerede aktivitet ved at sikre en organisatorisk<br />
læreproces (Hansen 2001:114). Med andre ord er der et tvedelt formål med at<br />
evaluere: Kontrol og læring. Begge begreber er nært forbundne med et spørgsmål om<br />
magtudøvelse – for hvem er det, der kontrollerer hvem, og hvem definerer, hvad vi<br />
skal lære af evalueringerne?<br />
1.1. Indkredsning af problemfelt<br />
For at belyse denne problemstilling retter vi fokus mod evaluering af udviklings-<br />
bistand, og herunder beskæftiger vi os særligt med evaluering af støtten til fremme af<br />
frie medier – også kaldet mediebistand.<br />
8
At udviklingsbistand er interessant i et evalueringsperspektiv, skyldes først og<br />
fremmest, at det er den del af den statslige administration, som i længst tid har været<br />
genstand for evaluering, og at det desuden er et af de områder, der evalueres<br />
allermest set i forhold til dets samlede budget og aktivitetsniveau 1 . Således har man<br />
evalueret udviklingsbistand siden 1960’erne, mens andre sektorer først har fået faste<br />
evalueringsprocedurer fra midten af 1980’erne (Rieper 2001). I vores optik er<br />
udviklingsbistanden dog især interessant på grund af den ofte store fysiske og<br />
kulturelle afstand mellem de involverede aktører. At der er langt fra de politiske<br />
beslutningstagere i København og dem, der i sidste ende omsætter beslutninger og<br />
økonomiske midler til aktiviteter, øger på den ene side behovet for kontrol af,<br />
hvorvidt midlerne bruges ansvarligt. På den anden side skaber afstanden et behov for<br />
læring om relationer mellem årsag og virkning i udviklingsbistanden. Endvidere er<br />
der ofte et asymmetrisk magtforhold mellem på den ene side dem, der bestiller<br />
evalueringen, det vil sige donorerne af udviklingsbistand, og på den anden side dem,<br />
som er afhængige af en positiv vurdering for fortsat at modtage støtte. Disse faktorer<br />
betyder, at der er betydelige personlige og organisatoriske interesser forbundet med<br />
evalueringsresultater.<br />
At vi stiller skarpt på netop mediebistand skyldes to egenskaber ved feltet, der gør det<br />
særligt interessant at undersøge i et evalueringsperspektiv. Den ene egenskab er, at<br />
medierne i ethvert samfund er genstand for stor politisk opmærksomhed, fordi de er<br />
betydningsfulde samarbejdspartnere for både stat, marked og civilsamfund. Som<br />
følge heraf er mediebistand et yderst politiseret område, idet de danske målsætninger<br />
om at yde støtte til ytringsfrihed og uddannelse af journalister ikke nødvendigvis<br />
stemmer overens med modtagerstatens interesser. Mediebistand afspejler en relativt<br />
ny tendens til, at donorer anvender udviklingsbistand som redskab til at påvirke den<br />
politiske og demokratiske udvikling i modtagerlandene (Degnbol-Martinussen &<br />
Engberg-Pedersen 1999:78ff). Denne strategi bidrager imidlertid til at komplicere et i<br />
forvejen komplekst forhold mellem donor og modtager, fordi den fører til<br />
spørgsmålet om, hvem der har ret til at definere mål og midler for udviklings-<br />
bistanden. Af den grund skærpes evalueringers rolle som forhandlingsknudepunkter<br />
mellem donor og modtager på mediebistandsfeltet.<br />
Den anden egenskab, der gør mediebistand særligt interessant, er, at den er et af de<br />
områder, som det ofte viser sig svært at måle resultatet af. Det skyldes dels, at<br />
mediebistand ofte opererer efter en lang tidshorisont, og dels det faktum, at frie<br />
medier blot er en ud af mange nødvendige forudsætninger for en demokratisk<br />
udvikling. Mediebistand er derfor karakteriseret ved en forholdsvis høj grad af<br />
1 Niels Dabelstein, sekretariatschef i Danidas kontor for evaluering af udviklingsbistand, foredrag i<br />
Ibis/Århus 17. marts 2004.<br />
9
usikkerhed – en usikkerhed, som udvikling af mere velegnede måleredskaber vil<br />
kunne mindske.<br />
Det er netop i den forbindelse, specialets undersøgelse bliver relevant. For vil Danida<br />
blive bedre til at evaluere, er det afgørende, at der udvikles mere hensigtsmæssige<br />
vurderingsparametre end dem, der anvendes i dag. Ikke mindst inden for medie-<br />
bistanden viser det sig svært at formulere operationaliserbare og – frem for alt –<br />
relevante mål. Uanset hvilken kvalitet vurderingsparametrene har, så er de med til at<br />
identificere og definere ’det gode projekt’ og ’den gode partnerorganisation’, og de<br />
bidrager derved til at definere, hvordan Danidas fremtidige indsats på medieområdet<br />
skal tilrettelægges. Ved at belyse styrker og svagheder i den gældende praksis håber<br />
vi, at denne undersøgelse kan bidrage til en debat om, hvordan Danidas evaluering af<br />
mediebistand kan forbedres.<br />
1.2. Problemformulering<br />
Oven for har vi opridset nogle af de spørgsmål og problemstillinger, som bliver<br />
stadig mere aktuelle i forbindelse med evalueringernes udbredelse, og vi har rettet<br />
fokus ind mod de udfordringer, der rejser sig, når der evalueres på mediebistands-<br />
området. Vores ærinde med specialet er at besvare følgende spørgsmål:<br />
A) Hvilket samspil er der mellem dominerende evaluerings- og udviklingsteoretiske<br />
diskurser og Danidas evalueringspraksis? Hvilken viden og hvilke handlings-<br />
muligheder stiller diskurserne til rådighed for aktørerne? Og hvordan påvirker<br />
evalueringsprocessen relationen mellem donor og modtager?<br />
B) Hvordan forstår de involverede aktører begreberne læring og kontrol i forbindelse<br />
med evaluering, hvilke forhandlinger er disse begreber genstand for og årsag til, og<br />
hvordan afspejles læring og kontrol i evalueringsrapporterne?<br />
C) Hvilke barrierer er aktuelle ved evaluering af Danidastøttede mediebistands-<br />
aktiviteter, og hvilke udfordringer er forbundet med at udvikle og operationalisere<br />
andre evalueringsmetoder og -indikatorer? Som underspørgsmål hertil vil vi<br />
undersøge,<br />
• hvordan evalueringerne bidrager til at konstruere ’den gode mediebistands-<br />
indsats’, ’den gode partnerorganisation’ og den rollefordeling, som knytter<br />
sig til mediebistanden<br />
• hvordan Danida kan forbedre sin evalueringspraksis<br />
10
1.3. Læsevejledning<br />
I dette afsnit præsenterer vi specialets struktur samt de teoretikere og temaer, der<br />
bringes i spil undervejs i specialet. Læsevejledningen efterfølges af en begrebs-<br />
afklaring, hvor vi kort definerer nogle af de centrale og hyppigst anvendte termer.<br />
Specialet er, udover nærværende indledning, struktureret i to overordnede dele – en<br />
teoretisk og en analytisk. Kapitlerne 2 til 6 omhandler det teoretiske og metodiske<br />
afsæt for analysen, som præsenteres i kapitlerne 7 til 14.<br />
1.3.1. Specialets første del: teoretisk og metodisk afsæt<br />
I kapitel 2 redegør vi for den teoretiske ramme, ud fra hvilken vi forstår og<br />
analyserer evaluering af udviklingsbistand. Vi tager udgangspunkt i to antropologer,<br />
David Mosse (2001) og James Ferguson (1994), som analyserer udviklingsbistand ud<br />
fra et diskursperspektiv. Mosse og Ferguson er begge inspireret af Michel Foucault<br />
(Foucault 1978, 1991), hvis diskursbegreb vi redegør for i afsnit 2.1. I afsnit 2.2.<br />
behandler vi den udfordring, det er at identificere og afgrænse evaluerings- og<br />
udviklingsteoretiske diskurser, i hvilken forbindelse vi introducerer Foucaults<br />
genealogiske metode. I afsnit 2.3. udbygger vi det teoretiske afsæt med den<br />
symbolske interaktionisme, en sociologisk retning, der supplerer Foucaults genealogi<br />
i analysen af evalueringsforløb som forhandlingsprocesser. Afslutningsvist redegør vi<br />
i afsnit 2.4. for, hvorledes evalueringer påvirker deres genstand, med særlig henblik<br />
på relationen mellem evaluering af mediebistand. Dette sker med udgangspunkt i<br />
Foucault og Peter Dahler-Larsen, dansk politolog og evalueringsforsker (Dahler-<br />
Larsen 1998, 2004).<br />
Kapitel 3 retter fokus mod mediebistanden og introducerer i afsnittene 3.1. og 3.2. to<br />
dominerende udviklingsdiskurser inden for feltet: Moderniseringsdiskursen og den<br />
kritiske diskurs. Mens moderniseringsdiskursen kort fortalt repræsenterer en<br />
opfattelse af udviklingsprocessen som et fastlagt, lineært forløb præget af en klar<br />
rollefordeling mellem donor og modtager af bistand, så opponerer den kritiske<br />
diskurs mod disse antagelser og anskuer udvikling som en uforudsigelig proces, hvor<br />
en væsentlig forudsætning for succes er ligeværdighed mellem de involverede<br />
aktører. I afsnit 3.3. argumenterer vi for, at begge udviklingsdiskurser gør sig<br />
gældende inden for Danidas mediebistandspraksis i dag. Dette kommer blandt andet<br />
til udtryk gennem partnerskabs-begrebet og de idealer om rollefordeling mellem<br />
donor og modtager, som er indbefattet heri. Vores pointe er imidlertid, at<br />
partnerskabstankegangen er udtryk for et paradoks, der præger såvel mediebistand<br />
specifikt som udviklingsbistand generelt.<br />
Fremstillingen baserer sig især på Degnbol-Martinussen & Engberg-Pedersen (1999),<br />
Degnbol-Martinussen (1994), men inddrager i øvrigt en række andre værker og<br />
artikler fra internationale udviklingstidsskrifter.<br />
11
I forlængelse af udviklingsdiskurserne ser vi i kapitel 4 nærmere på dominerende<br />
diskurser på evalueringsfeltet. Indledningsvist foretager vi i afsnit 4.1. en distinktion<br />
mellem henholdsvis en evalueringsteoretisk kontroldiskurs og en participatorisk<br />
læringsdiskurs. Det viser sig, at mens man inden for kontroldiskursen hylder<br />
evalueringer som redskab til demokratisk kontrol, objektive vurderinger og<br />
resultatorientering, så fokuserer den participatoriske læringsdiskurs på evaluering<br />
som en participatorisk proces, hvor de evaluerede aktørers udbytte af processen<br />
vægtes højt. De to diskursers karakteristika gennemgås i afsnittene 4.2. og 4.3., og<br />
parallelt hermed præsenteres kort tre forskellige evalueringstyper, som knytter sig til<br />
diskurserne på forskellig vis. I afsnit 4.4. sammenstiller vi forskelle og ligheder<br />
mellem evalueringstyperne, og vi argumenterer for, at de er præget af vidt forskellige<br />
ontologiske, epistemologiske og metodologiske antagelser. Analysen er foretaget på<br />
basis af en række hovedværker inden for evalueringslitteraturen, som præsenteres<br />
nærmere i kapitlets indledning.<br />
Kapitel 5 opsummerer de to foregående kapitler ved at gennemgå paralleller mellem<br />
de gennemgåede udviklings- og evalueringsteoretiske diskurser. Afslutningsvist i<br />
kapitlet behandler vi spørgsmålet om normativitet i analysen.<br />
I kapitel 6 redegør vi for den anvendte metode og de overvejelser, som ligger bag.<br />
Først præsenteres de otte rapporter og tretten kvalitative interviews, som den<br />
empiriske analyse baserer sig på, og dernæst beskrives de analytiske værktøjer, vi har<br />
anvendt i behandlingen af data. Endvidere rejses spørgsmålet om videnskabelighed<br />
under inddragelse af metodeteoretikere som Alasuutari (1995) og Silverman (1993,<br />
2000). Kapitlet afsluttes med en metodisk refleksion, hvor vi diskuterer fordele og<br />
ulemper ved den anvendte fremgangsmåde.<br />
1.3.2. Specialets anden del: Analyse<br />
I specialets anden del præsenterer vi vores analyse af Danidas evalueringspraksis på<br />
mediebistandsfeltet. Analysen er inddelt i otte kapitler (7 til og med 14), som<br />
tilsammen sigter mod at besvare specialets problemformulering.<br />
Analysen indledes med kapitel 7, der i høj grad fungerer som afsæt for de øvrige<br />
analysedele, idet vi her præsenterer de formelle strukturer omkring Danidas<br />
evalueringspraksis. Vi inddeler et evalueringsforløb i fire trin: initiering, design,<br />
udførelse og opfølgning, og beskriver de aktører og processer, som gør sig gældende<br />
på hvert af disse trin. Desuden redegør vi for Danidas skelnen mellem to<br />
evalueringsformer: evaluering og review. Kapitlet bygger dels på Danidas<br />
12
etningslinier for projektledelse og evaluering (Danida 2003 og 1999) samt på<br />
interviews med ansatte i Danida.<br />
I kapitel 8 søger vi at besvare spørgsmålet om, hvordan de involverede aktører<br />
forstår begreberne læring og kontrol ved at beskrive, hvordan henholdsvis de<br />
interviewede Danidamedarbejdere, Danidas partnere og de eksterne konsulenter<br />
forstår de to begreber. Vi undersøger endvidere, hvordan disse forståelser trækker på<br />
de evaluerings- og udviklingsteoretiske diskurser, vi præsenterer i kapitel 4 og 5. Det<br />
viser sig, at Danidas partnere og de eksterne konsulenter primært oplever kontrol som<br />
ubehagelig inspektion og læring som en kritisk, participatorisk proces. Danida forstår<br />
kontrol som et spørgsmål om ansvarliggørelse og demokratisk legitimitet, mens<br />
læringsforståelsen baserer sig på en antagelse om konsensus både internt i Danida og<br />
mellem organisationen og dens omverden.<br />
Kapitel 9 tager bolden op fra konklusionerne i kapitel 8, og drejer sig om, hvordan<br />
de forskellige lærings- og kontrolforståelser kommer til udtryk i<br />
evalueringsrapporterne. I kapitlet præsenteres de enkelte evaluerings- og<br />
reviewforløb nærmere på baggrund af dokumenter og interviews med involverede<br />
aktører. Denne case-præsentation danner afsæt for inddragelse af empirien i de<br />
følgende kapitler.<br />
I kapitel 10 tager vi fat på besvarelsen af problemformuleringens første spørgsmål<br />
ved at undersøge, hvordan interaktionen mellem Danida og Danidas partnere i<br />
evalueringsprocessen afspejler og påvirker rammerne omkring mediebistanden. Da<br />
Danida og partnerne ikke interagerer direkte i forbindelse med udførelse af<br />
evalueringer, manifesterer interessemodsætningerne og forhandlingerne mellem de to<br />
praksisfællesskaber sig i konsulenternes identitet, der af alle parter opleves som<br />
kompleks og modsætningsfyldt. Konsulenterne forsøger at håndtere deres splittelse<br />
mellem donor og modtager ved at indtage rollen som en neutral og uafhængig aktør i<br />
lighed med forskrifterne inden for den evalueringsteoretiske kontroldiskurs, til trods<br />
for en række problemer som knytter sig til netop uafhængighedskriteriet.<br />
Fra at have fokuseret på konsulentidentiteten undersøger vi i kapitel 11, hvordan de<br />
anvendte evalueringskriterier og -indikatorer bidrager til at konstruere ’det gode<br />
mediebistandsprojekt’. Analysen leder frem til en konklusion af, at Danidas<br />
evalueringer i høj grad fokuserer på de kortsigtede effekter af mediebistanden ud fra<br />
en implementeringsvinkel, trods hensigter om at ville undersøge langsigtede effekter<br />
fra et samfunds- og et målgruppeperspektiv. Vi redegør for årsager til og<br />
konsekvenser af dette fokus, hvilket danner afsæt for opstilling af anbefalinger til en<br />
fremtidig styrkelse af Danidas evalueringspraksis på mediebistandsfeltet.<br />
13
Hvor kapitel 10 behandler forhandlingerne mellem de tre praksisfællesskaber i<br />
forbindelse med udførelse af evaluering, og kapitel 11 belyser fremstillingen af<br />
mediebistand i evalueringsrapporterne, drejer kapitel 12 sig om de forhandlinger,<br />
som følger efter endt afrapportering. Her fokuserer vi på de forskellige faktorer, der<br />
motiverer partnerne og Danida til at drage konsekvenser af evalueringer, samt hvilke<br />
donor-modtager-relationer disse motivationsfaktorer afspejler og indebærer. Kapitlet<br />
afsluttes med en diskussion af Danidas identitet som en lærende organisation.<br />
På baggrund af analysen af Danidas evalueringspraksis i de foregående kapitler,<br />
identificerer vi i kapitel 13 en række problemer i Danidas gældende praksis i forhold<br />
til evaluering af mediebistand og stiller forslag til, hvordan disse kan overkommes.<br />
Analysens resultater opsummeres og perspektiveres i kapitel 14.<br />
1.4. Begrebsafklaring<br />
Vi vil i dette afsnit give en kort, indledende redegørelse for vores forståelse af<br />
specialets to væsentligste begreber: mediebistand og evaluering. Begge begreber<br />
uddybes yderligere senere i specialet.<br />
1.4.1. Mediebistand<br />
Undersøgelsen omhandler evaluering 2 af Danidastøttede projekter og programmer,<br />
som har til formål at fremme udviklingen af frie medier. Denne del af<br />
udviklingsbistanden – udvikling af frie medier – vil vi fremover betegne<br />
mediebistand 3 . Siden slutningen af 1980’erne har Danida støttet ”en række presse-<br />
relaterede projekter og aktiviteter” (Danida 1994C:1), og i 1994 udviklede<br />
organisationen en egentlig strategi på området, som kom til at indgå som element i<br />
den overordnede danske udviklingspolitik (Udenrigsministeriet 1994A). Formålet<br />
med Danidas mediebistand beskrives således i den aktuelle danske udviklingspolitik<br />
Partnerskab 2000:<br />
Retten til information og til at ytre sig frit er væsentlige faktorer i den folkelige<br />
deltagelse og i demokratiseringsprocessen. Menneskers mulighed for at<br />
udtrykke deres behov og deltage i en demokratisk proces skal understøttes<br />
gennem udvikling af frie og demokratiske medier og sikring af pressens vilkår.<br />
(Udenrigsministeriet 2000B:53)<br />
På et mere specificeret niveau fremgår det af Danidas policy papir Støtte til fremme<br />
af en fri presse i udviklingslandene fra 1994, at man ønsker ”at støtte en pluralistisk<br />
2 Danida skelner mellem ’evaluering’ og ’review’ – en skelnen vi vender tilbage til senere i opgaven.<br />
Begge bedømmelsesaktiviteter falder imidlertid ind under vores definition af evalueringer (se afsnit<br />
1.4.2.), hvorfor vi i første del af specialet anvender denne term om begge aktiviteter.<br />
3 Vi afgrænser os hermed fra udviklingskommunikation, som udgør en anden ’søjle’ i den medie- og<br />
kommunikationsorienterede bistand (Larsen 2002). Udviklingskommunikation retter sig mod<br />
implementering af kommunikationskomponenter i udviklingsindsatser generelt – eksempelvis i<br />
forbindelse med sundheds- eller miljøprogrammer.<br />
14
presse, styrke en kvalitativ udvikling af mediesektoren, samt medvirke til at forbedre<br />
de organisatoriske forhold i mediebranchen” (Udenrigsministeriet 1994C:15).<br />
Mediebistanden retter sig mod udvikling af mediesektoren på lokalt, nationalt<br />
og/eller regionalt niveau gennem indsatser på følgende fire områder<br />
(Udenrigsministeriet 2000A:23ff.):<br />
Institutionsopbygning: støtte til oprettelse og drift af medievirksomheder,<br />
fortrinsvis radiostationer og trykte medier<br />
Kapacitetsopbygning i form af uddannelse af journalister, teknikere og<br />
administratorer<br />
Netværksopbygning via støtte til nationale/regionale medie- og pressecentre<br />
Støtte til og rådgivning om medielovgivning 4<br />
Mediebistanden udgør blot en lille andel af den samlede, danske udviklingsbistand.<br />
De nyeste præcise tal for andelens samlede omfang, vi har kunnet fremskaffe,<br />
vedrører årene 1990-1999. Her lå det gennemsnitlige årlige bidrag til mediebistand<br />
på godt 36 mio. kr. (Udenrigsministeriet 2000A:130). Der findes ikke isolerede data<br />
om mediebistandens størrelse fra 1999 og frem 5 , men der er tale om et område, der<br />
samlet set fylder mindre end 1 % af Danidas bilaterale bistand 6 .<br />
1.4.1.1. Mediebistandens struktur og aktører<br />
Den danske udviklingsbistand bevilges og udføres i form af projekter eller<br />
programmer. Hvor projekter er enkeltstående, afgrænsede indsatser, som er forankret<br />
i en projektorganisation, varetages programmerne i et samarbejde mellem donorerne<br />
og modtagerlandets regering og retter sig mod en sammenhængende indsats inden for<br />
en bestemt sektor. Danidas mediebistand er hovedsageligt struktureret omkring<br />
mindre projekter – dels på grund af de politiske vanskeligheder ved at etablere et<br />
samarbejde omkring ytringsfrihed på statsniveau, og dels fordi der er tale om et lille<br />
bistandsområde præget af små, kortsigtede bevillinger.<br />
4 I en evaluering af Danidas støtte til fremme af en fri presse (Udenrigsministeriet 2000A:23ff) skønnes<br />
det, at mere end 80 % af støtten til fremme af en fri presse går til tre typer af projekter: en tredjedel til<br />
radioprojekter, en fjerdedel til uddannelse og træning, mens en femtedel kanaliseres til medie- og<br />
pressecentre. Disse projekter er fordelt over Danidas programsamarbejdslande i Asien, Afrika,<br />
Mellemøsten og Sydamerika. Det fremgår dog også, at det er ”a very complex task to produce a<br />
complete picture of all the components making up the Danish assistance to the media,” hvilket skyldes,<br />
at størstedelen af aktiviteterne på området rummer flere komponenter og dermed er svære at kategorisere<br />
entydigt.<br />
5 Uddrag af mail fra Johanne Hjort, studentermedhjælp i Udviklingspolitisk Kontor, Udenrigsministeriet,<br />
modtaget 17/11/04: ”Vi har ikke isolerede tal på de oplysninger, I søger, og da jeres spørgsmål derfor vil<br />
blive meget tidskrævende at besvare, ser vi os desværre ikke i stand til at hjælpe jer i med netop denne<br />
anmodning.”<br />
6 Detaljerne i denne beregning fremgår af bilag 2. De anvendte tal er fundet i Udenrigsministeriet<br />
2000A:130 og et udvalg af Danidas årsberetninger fra 1993-2003. Bemærk at vi udelukkende<br />
beskæftiger os med den del af Danidas mediebistand, som kanaliseres bilateralt – den multilaterale støtte<br />
ligger uden for dette speciales fokus.<br />
15
Overordnet er to typer aktører involveret i et bistandsprojekt: en donor og en<br />
modtager. Der imidlertid behov for at nuancere disse to aktørkategorier, hvis man vil<br />
forstå samspillet mellem de aktører, som spiller en rolle i forhold til evaluering af<br />
mediebistand.<br />
Modtagerkategorien kan inddeles i tre: en projektorganisation, en eller flere<br />
målgrupper for bistandsindsatsen samt modtagerlandets offentlighed.<br />
Projektorganisationen har ansvaret for den daglige drift af projektet og samarbejder<br />
tæt med donorerne omkring bevillinger, implementering og afrapportering.<br />
Modtagerlandets offentlighed er en sammensat størrelse, idet et udsnit af denne, den<br />
almindelige befolkning, ofte vil være identisk med målgruppen for et<br />
mediebistandsprojekt, mens modtagerlandets regering og statsadministration i nogle<br />
tilfælde spiller rollen som modstandere af ytringsfrihed. Inden for mediebistand er<br />
samspillet mellem donor og modtager således komplekst og politiseret.<br />
På donorsiden kan man skelne mellem et donoragentur, der varetager bevilling,<br />
implementering og opfølgning af udviklingsbistanden, samt donorlandets<br />
offentlighed, det vil sige de skatteborgere, som i sidste ende afgør om der skal ydes<br />
udviklingsbistand, og i så fald hvor meget. Donoragenturet i Danmark hedder som<br />
bekendt Danida og er en del af Udenrigsministeriet. Administrationen af<br />
udviklingsbistanden varetages dels fra Danidas hovedkvarter i København og dels fra<br />
de danske ambassader – afhængig af bevillingens størrelse 7 .<br />
I visse tilfælde varetages implementeringen af projektet af en ekstern<br />
implementerende organisation (IO). Med en samlet betegnelse benævner vi fremover<br />
projektorganisationer og eksterne IO’er Danidas partnere.<br />
1.4.2. Evaluering<br />
Vi definerer evaluering som en systematisk retrospektiv bedømmelse af organisering,<br />
gennemførsel, præstationer og udfald af en given indsats, som tiltænkes at spille en<br />
rolle i praktiske beslutningssituationer 8 .<br />
Den ’givne indsats’, vi fokuserer på, er som nævnt Danidastøttede<br />
mediebistandsprojekter, og med termen ’retrospektiv’ omfatter ovenstående<br />
7<br />
Se afsnit 7.1.2. for en nærmere præsentation af Danidas forskellige enheder og deres rolle i forbindelse<br />
med udførelse af evalueringer.<br />
8<br />
Denne definition er inspireret af den svenske politolog Evert Vedungs definition (Vedung 1998:20),<br />
som er gængs i dansk evalueringsforskning og blandt andet er gengivet i Dahler-Larsen 1998, Dahler-<br />
Larsen & Krogstrup (red.) 2001, Dahler-Larsen 2004. I en dansk oversættelse lyder Vedungs definition:<br />
”[Evaluering er] en systematisk retrospektiv bedømmelse af organisering, gennemførsel, præstationer og<br />
udfald af offentlig politik, som tiltænkes at spille en rolle i praktiske beslutningssituationer” (Dahler-<br />
Larsen & Krogstrup 2001:14). Vi har valgt at erstatte ”offentlig politik” med ”en given indsats”, da<br />
evaluering også finder sted i private sammenhænge.<br />
16
definition kun bedømmelsesaktiviteter med fokus på afsluttede projekter eller<br />
afviklede aktiviteter i et igangværende projekt. Dermed afgrænser vi os eksempelvis<br />
fra at se på analyser af fremtidsperspektiverne for et givet mediebistandsprojekt,<br />
skønt disse i struktur, systematik og fokus kan minde meget om en evaluering. Med<br />
’systematisk’ sigter vi til, at bedømmelsesaktiviteten følger standarder og strukturer,<br />
som på forhånd er aftalt mellem evalueringsprocessens aktører, og vi definerer<br />
endvidere evalueringer ved at de tiltænkes ’en rolle i praktiske<br />
beslutningssituationer’. Det er i sidstnævnte forbindelse væsentligt at bemærke, at<br />
den tilsigtede anvendelse af evalueringerne ikke nødvendigvis er lig den<br />
aktualiserede (Dahler-Larsen 2004:14). I det kommende kapitel præsenterer vi den<br />
teoretiske forståelsesramme, ovenstående definition skal ses i lyset af, men først vil<br />
vi udbygge definitionen ved at karakterisere de aktører og roller, som indgår i en<br />
evalueringsproces.<br />
En evalueringsproces rummer fire roller: en evalueringsgenstand, en opdragsgiver,<br />
som bestiller evalueringen, samt en eller flere evaluatorer, som udfører evalueringen.<br />
Dertil kommer en eller flere målgrupper for evalueringen, der ikke nødvendigvis er<br />
identiske med de førnævnte målgrupper for mediebistandsindsatsen.<br />
Evalueringsgenstanden: I kraft af specialets fokus er vores evalueringsgenstand<br />
konstant: Danidastøttede mediebistandsprojekter. Til evalueringsgenstanden<br />
knytter der sig en række aktører, som har et ansvar for og en identitet i forhold til<br />
denne. Det drejer sig typisk om en projektorganisation og i nogle tilfælde også en<br />
ekstern IO. Disse aktører fungerer i evalueringssammenhæng dels som<br />
informanter i forbindelse med dataindsamlingen, og dels kan de betragtes som en<br />
del af genstanden, det vil sige, at de bliver evalueret, hvorfor vi betegner dem<br />
evaluerede aktører.<br />
Opdragsgiveren: Den danske udviklingsbistand evalueres på forskellig vis af<br />
forskellige opdragsgivere. Eksempelvis kontrollerer Rigsrevisionen med jævne<br />
mellemrum Danidas anvendelse af midler, og i særlige tilfælde kan<br />
Udenrigsministeriet vælge at nedsætte undersøgelser af bestemte forhold<br />
omkring udviklingsbistanden 9 . Danidas ledelse iværksætter desuden løbende<br />
forskellige former for evaluering af organisationens programmer og projekter, og<br />
det er disse, vi vil fokusere på. Den mere eksakte opgavefordeling mellem<br />
forskellige enheder i Danida i forbindelse med forskellige typer evaluering af<br />
mediebistand behandler vi i kapitel 7.<br />
9 Et eksempel herpå er en udredning af Danidas evalueringsfunktion fra 2003 (Lundgren, Haven North<br />
& Rist 2003), som vurderer Evalueringskontorets uafhængighed og organisatoriske placering i Danida.<br />
Udredningen blev iværksat på opfordring af Udenrigsministeren i forbindelse med offentlig kritik af<br />
evalueringernes troværdighed.<br />
17
Evaluatorer: Samme aktør kan indtage forskellige roller i en evalueringsproces<br />
(Scriven 1997:481f.), og evaluator kan således både være identisk med<br />
evalueringsgenstanden og med opdragsgiveren. I førstnævnte tilfælde vil der<br />
være tale om en selvevaluering, hvor projektorganisationen vurderer sig selv, og i<br />
sidstnævnte tilfælde bruger man betegnelsen intern evaluering. En evaluator kan<br />
dog også være en ekstern konsulent, som købes af opdragsgiveren til at udføre<br />
den konkrete evalueringsopgave. For evaluering af mediebistand gælder det, at<br />
Danida overvejende benytter sig af eksterne evaluatorer.<br />
Målgrupper: Målgrupperne for Danidas evalueringer af medieprojekter omfatter<br />
både opdragsgiveren (Danida), de evaluerede aktører (Danidas partnere) og andre<br />
interessenter (eksempelvis den danske offentlighed, andre<br />
mediebistandsprojekter, modtagerlandets regering, med flere). Vi diskuterer<br />
evalueringsmålgrupperne nærmere i specialets analysedel.<br />
Ovenstående tjener til en foreløbig afklaring af begreberne mediebistand og<br />
evaluering og introducerer en række af de termer, vi anvender til at betegne de<br />
forskellige aktører i et Danidastøttet mediebistandsprojekt og de dertil knyttede<br />
evalueringsprocesser. Vi vil i det kommende kapitel redegøre for det teoretiske afsæt<br />
for analysen af evaluering af mediebistand, og derefter identificerer vi dominerende<br />
udviklings- og evalueringsteoretiske diskurser. Begreberne mediebistand og<br />
evaluering bliver derved uddybet og belyst yderligere.<br />
18
2. Teoretisk afsæt<br />
Formålet med dette kapitel er at redegøre for den teoretiske ramme, ud fra hvilken vi<br />
forstår og analyserer evaluering af udviklingsbistand. Vores udgangspunkt er to<br />
antropologer Mosse (2001) og Ferguson (1994), som analyserer bistandsprojekter<br />
ved hjælp af Foucaults diskursbegreb (Foucault 1978, 1991). Afsnit 2.1. omhandler<br />
diskursbegrebet og konsekvenserne af at analysere evaluering af udviklingsbistand i<br />
et diskursperspektiv. I afsnit 2.2. beskriver vi de metodeteoretiske overvejelser vi har<br />
gjort os i forbindelse med at identificere og afgrænse evaluerings- og udviklings-<br />
teoretiske diskurser – en problemstilling vi nærmer os ved hjælp af Foucaults<br />
genealogiske metode. Dernæst præsenterer vi i afsnit 2.3. den sociologiske retning<br />
symbolsk interaktionisme, en teoretisk ressource ved hjælp af hvilken vi analyserer<br />
evalueringsforløb som forhandlingsprocesser. Med udgangspunkt i Foucault og<br />
Dahler-Larsen (Dahler-Larsen 1998, 2004), redegør vi i afsnit 2.4. for, hvordan<br />
evaluering påvirker sin genstand: mediebistand.<br />
2.1. Evaluering af mediebistand i et diskursperspektiv<br />
I bogen The Anti-Politics Machine fra 1994 kritiserer Ferguson dominerende<br />
diskurser inden for feltet udviklingsbistand for at betragte udvikling som et moralsk<br />
projekt. Han påpeger, at et sådant normativt syn på udvikling indebærer en antagelse<br />
om overensstemmelse mellem de officielle målsætninger om eksempelvis demokrati-<br />
sering eller fattigdomsbekæmpelse og så de faktiske handlinger i udviklingsprocessen<br />
(Ferguson 1994:15). På baggrund af en analyse af udviklingsprojekter i Lesotho viser<br />
Ferguson, at der typisk er meget langt fra donorernes gode intentioner til de reelle<br />
resultater af indsatsen, og i forlængelse heraf argumenterer han for, at man som<br />
analytiker må frigøre sig fra normative perspektiver, hvis man vil tegne et dækkende<br />
billede af udviklingsbistand. I stedet foreslår Ferguson en forståelse af udvikling som<br />
en historisk situeret praksis, der ikke kan forklares ud fra aktørernes hensigter, men<br />
må anskues teoretisk som ”a riddle, a problem to be solved, an anthropological<br />
puzzle” (ibid.:17).<br />
Fergusons perspektiv gør op med et traditionelt syn på udviklingsprojekter som<br />
løsninger på foruddefinerede behov og problemer. Synspunktet bakkes op af antro-<br />
pologen Mosse, der mener, at de lokale behov først konstrueres under projektforløbet<br />
på baggrund af de muligheder, som udviklingsbistanden åbner op for, idet ”needs are<br />
socially constructed” (Mosse 2001:21). Denne sociale konstruktion af behov, løsnin-<br />
ger og ’udvikling’ finder sted i forhandlinger mellem de involverede aktører, disses<br />
forståelseshorisonter samt de institutionelle, politiske og økonomiske rammer<br />
omkring udviklingspraksissen, og man kan på den baggrund betragte udvikling som<br />
”a system of representations” (ibid.:27).<br />
19
2.1.1. Diskurs, magt og viden<br />
Ferguson baserer sin analyse af udviklingsbistand på Foucaults diskursbegreb<br />
(Foucault 1978 og 1991). Foucault definerer diskurser som kulturelt og historisk<br />
givne videnssystemer, der på en gang påvirker og påvirkes af praksis (Foucault<br />
1978:112). Begrebet favner således både et lokalt praktisk og et samfundsmæssigt<br />
strukturelt niveau, som betinger hinanden. Det interessante for Foucault er netop at<br />
undersøge samspillet mellem disse to niveauer, idet hans metodiske målsætning er:<br />
”To relate discourse not to a thought, mind or subject which engendered it, but to the<br />
practical field in which it is deployed” (Foucault 1991:61).<br />
Vi opererer i dette speciale med en analytisk skelnen mellem diskursiv praktik –<br />
Foucaults betegnelse for den specifikke fremgangsmåde, hvorpå aktører inden for et<br />
bestemt socialt domæne genskaber og forandrer viden om dette domæne (eksempel-<br />
vis mediebistand), og begrebet diskurs, der beskriver de overordnede betydnings-<br />
mønstre, som den diskursive praktik er den del af (ibid.:68, Lindgren 1996:241).<br />
Tæt knyttet til Foucaults diskursbegreb er hans magtbegreb, som defineres negativt i<br />
forhold til en gængs juridisk-politisk forestilling om magt som en makrofysisk,<br />
statisk og repressiv størrelse: ”magt er ikke en institution, og det er ikke en struktur,<br />
det er heller ikke en bestemt kraft som visse udvalgte skulle være begavet med: det er<br />
det navn, man giver en kompliceret strategisk situation i et givet samfund” (Foucault<br />
1978:105). For Foucault er magt således en allestedsnærværende, socialt produktiv<br />
ressource, der ikke kan besiddes eller ophobes men udøves i social interaktion og<br />
kommer til udtryk som en ”mangfoldighed af styrkeforhold som er immanente i det<br />
område hvor de udøves og hvis organisation de konstituerer” (ibid.:104). Magt<br />
implicerer viden og vice versa, og i enhver diskursiv praktik vil man genfinde en<br />
dynamisk relation mellem disse to aspekter (ibid.:113, Lindgren 1996:336). Ferguson<br />
giver dette eksempel på sammenføjningen af magt og viden i et udviklingsprojekt:<br />
…discourse is a practice, it is structured, and it has real effects (….) The<br />
thoughts and actions of “development” bureaucrats are powerfully shaped by<br />
the world of acceptable statements and utterances within which they live: and<br />
what nations, classes, or international agencies, but also, and at the same time,<br />
of a working out of this complex structure of knowledge. (Ferguson 1994:18)<br />
Citatet anskueliggør, at udviklingsaktørers handlinger, tanker og udsagn informeres<br />
af de magtrelationer, der gør sig gældende på de institutionelle, politiske og<br />
økonomiske arenaer, de pågældende aktører agerer i. Magtrelationerne definerer<br />
hvilken viden og hvilke normer, der opfattes som acceptable og sætter dermed<br />
rammerne for, hvad der kan tænkes og gøres i et konkret udviklingsprojekt. Dog er<br />
aktørerne ikke determinerede af disse rammer – de bearbejder dem løbende og<br />
bidrager derved til at rekonstruere og udvikle diskurserne (Ferguson 1994:67, Mosse<br />
2001:29f). Med Mosses ord er et udviklingsprojekt ud fra ovenstående<br />
20
diskursperspektiv at betragte som ”a complex of micro-politics of knowledge<br />
production and use” (Mosse 2001:19).<br />
2.1.2. Evaluering som diskursiv praktik<br />
Inspireret af Mosse og Ferguson betragter vi mediebistand ved hjælp af Foucaults<br />
diskursbegreb og anskuer følgelig et Danidastøttet mediebistandsprojekt som en<br />
praksis, der opstår og udvikles i komplekse forhandlinger mellem aktører med<br />
forskellige interesser og forståelseshorisonter. Aktørernes handlinger og udsagn i den<br />
lokale mediebistandspraksis bidrager til at vedligeholde og reartikulere bestemte<br />
opfattelser af, hvad ’mediebistand’ er – jævnfør synet på udvikling som et system af<br />
repræsentationer. Et væsentligt element i denne diskursive konstruktion af<br />
mediebistand er evalueringsprocessen, idet forhandlingerne om værdier, viden og<br />
interesser skærpes, når projekterne skal vurderes. Evalueringer er således at betragte<br />
som forhandlingsknudepunkter (”negotiating points”, Marsden, Oakley & Pratt<br />
1994:1) og anledninger til at eksplicitere og dermed reetablere antagelser om<br />
udviklingsindsatsens mål og midler (Mosse 2001:31):<br />
…evaluations themselves provided important moments in the lives of all<br />
development projects, when opportunities for the ’negotiation of values’ might<br />
be centrally addressed. (Marsden, Oakley & Pratt 1994:1)<br />
Evaluering er således en signifikant diskursiv praktik, som det er interessant at<br />
analysere nærmere med henblik på at afdække dominerende diskurser om medie-<br />
bistand og disses praktiske konsekvenser (Ferguson 1994:71). I afsnit 2.3.<br />
præsenterer vi en teoretisk ramme for analysen af evalueringer af Danidastøttede<br />
mediebistandsprojekter som en diskursiv praktik.<br />
2.2. Udviklings- og evalueringsdiskurser<br />
Det første trin i vores analyse af samspillet mellem diskurser og de diskursive<br />
praktikker bliver en undersøgelse af fremtrædende udviklings- og evaluerings-<br />
teoretiske diskurser. En sådan undersøgelse rejser spørgsmålet om, hvordan man<br />
afgrænser en diskurs. Foucaults bud på denne problemstilling er, at man ikke kan<br />
identificere diskurser som stabile, velafgrænsede enheder, idet alle diskurser undergår<br />
konstante forandringer som følge af forskydninger i selve den diskursive formation, i<br />
relationerne mellem diskurser samt i de politiske, økonomiske og sociale betingelser<br />
for diskursen (Foucault 1991:56ff.). Det er i disse forskydninger, at en diskurs<br />
defineres – den er med andre ord afgrænset ved sin forskel fra andre diskurser,<br />
hvorfor man må undersøge ”the divergence, the distances, the oppositions, the<br />
differences, the relations of various scientific discourses” (ibid.:55).<br />
På denne baggrund har vi i analysen af videnskabelige diskurser på udviklings- og<br />
evalueringsområdet taget udgangspunkt i de måder, hvorpå teoretiske tekster<br />
kritiserer og distancerer sig fra hinanden. Denne grænsedragning mellem diskurserne<br />
21
har vi løbende sammenholdt med den empiriske analyse af Danidas evaluerings-<br />
praksis. Derved har vi søgt at skabe en synergi mellem teori og empiri, hvor teorien<br />
på den ene side bidrager til at belyse og kvalificere de empiriske iagttagelser, mens<br />
den empiriske kortlægning af, hvordan diskurserne manifesterer sig, på den anden<br />
side udfordrer og raffinerer identifikationen af videnskabelige diskurser. Denne<br />
tilgang er inspireret af den diskursanalytiske metode, som Foucault betegner<br />
genealogi. Genealogien sigter mod at beskrive diskurser dels ’indefra’ gennem<br />
tolkning af tekster og udsagn, og dels ’udefra’ ved at karakterisere de historiske<br />
mulighedsbetingelser for produktionen af udsagn (Lindgren 1996:339). Metoden har<br />
i kraft af dette dobbelte perspektiv en vis lighed med hermeneutikken, men dog med<br />
den vigtige forskel, at diskursanalysen ikke søger efter en dybere sandhed og dermed<br />
ikke interesserer sig for skjulte betydninger og psykologiske motiver.<br />
Efter nu at have beskrevet vores metodologiske overvejelser i forbindelse med at<br />
analysere evaluerings- og udviklingsdiskurser, præsenterer vi i det følgende det<br />
teoretiske apparat, hvormed vi belyser evaluering af dansk mediebistand som<br />
diskursiv praktik:<br />
2.3. Symbolsk interaktionisme<br />
Med udgangspunkt i Mosse beskrev vi ovenfor et udviklingsprojekt som et mikro-<br />
politisk kompleks af vidensproduktion og –anvendelse, det vil sige en diskursiv<br />
praktik, i hvilken evalueringsprocessen spiller en særlig rolle som knudepunkt for<br />
forhandlinger om de antagelser, projektet bygger på (Mosse 2001:19). Til belysning<br />
af disse forhandlingsprocesser har vi fundet det frugtbart at inddrage et teoretisk<br />
perspektiv, som bygger på Foucaults magtbegreb og giver konkrete redskaber til<br />
empirisk mikrosociologisk analyse heraf. Det drejer sig om traditionen symbolsk<br />
interaktionisme, der beskæftiger sig med interaktion mellem individer, sociale<br />
grupperinger og artefakter (symboler, fænomener, fysiske genstande, begreber).<br />
Vores fremstilling af symbolsk interaktionisme bygger primært på Susan Leigh Stars<br />
begreber grænseobjekt og praksisfællesskab, der er beskrevet i Bowker & Star (1999)<br />
og Star & Griesemer (1989). Desuden inddrager vi to teoretikere, som Star trækker<br />
på og forholder sig til. Det drejer sig om den franske sociolog Bruno Latour og hans<br />
translationsbegreb (Latour 1986), samt Anselm Strauss (1978), som er en af den<br />
symbolske interaktionismes grundlæggere.<br />
2.3.1. Translation<br />
Fergusons modsvar til den normative udviklingsdebat var, som nævnt, at definere<br />
udvikling som en situeret praksis, der er til løbende forhandling mellem de<br />
involverede aktører, disses forståelseshorisonter og interesser. Dette syn på udvikling<br />
kan beskrives teoretisk ved hjælp af begrebet translation, som er introduceret af<br />
22
Latour (Latour 1986). Anlægger man Foucaults pluralistiske og dynamiske magt-<br />
perspektiv er det ifølge Latour umuligt at forestille sig, at nye artefakter kan udbredes<br />
ved egen kraft i overensstemmelse med de intentioner, de blev skabt på baggrund af.<br />
Udbredelsen af et artefakt forudsætter derimod, at aktører løbende overtager eller<br />
oversætter dette i henhold til deres egne ønsker og interesser. Translation refererer til<br />
denne oversættelsesproces, og Latours introduktion af begrebet indebærer et opgør<br />
med forestillingen om, at udvikling, evaluering eller andre fænomener besidder en<br />
bestemt essens, som passerer uændret gennem de oversættende led. En evaluering<br />
eksisterer dermed ikke ’i sig selv’ – den bryder frem gennem en kompleks<br />
forhandlings- og fortolkningsproces. Konsekvenserne heraf diskuterer vi indgående i<br />
analyseafsnittet.<br />
2.3.2. Praksisfællesskaber<br />
Star bygger videre på Latours translationsbegreb og forsøger med begreberne<br />
praksisfællesskab og grænseobjekt at beskrive den sociale infrastruktur, som<br />
translationsprocesser er en del af (Bowker og Star 1999:285). Star benytter begrebet<br />
praksisfællesskab (community of practice) 10 om relationer mellem aktører, som er<br />
fælles om et bestemt sæt aktiviteter, arbejdsmetoder samt interaktions- og<br />
kommunikationsformer. Et praksisfællesskab er en analytisk enhed, der går på tværs<br />
af formelle organisationer og institutioner, hvilket betyder, at begrebet kan appliceres<br />
på mange forskellige niveauer (ibid.:283).<br />
Vi interesserer os for interaktionen mellem de tre praksisfællesskaber: evaluatorer/<br />
konsulenter, opdragsgiver/Danida og evaluerede aktører/partnere. Men vi betragter<br />
samtidig også disse som henholdsvis underinddelt i mindre fællesskaber og dele af<br />
større, overordnede fællesskaber. Eksempelvis består Danida af en række mindre<br />
praksisfællesskaber såsom ’Ambassaden i Dhaka’ og ’Evalueringskontoret’ og indgår<br />
samtidig i større praksisfællesskaber såsom ’statsadministrationen’ og ’donor-<br />
samfundet’.<br />
2.3.3. Grænseobjekter<br />
I teksten ”Institutional Ecology, ’Translation’, and Boundary Objects – Amateurs and<br />
Professionals in Berkeley’s Museum of Vertebrate Zoology, 1907-1939” undersøger<br />
Star og Griesemer, hvordan samarbejde mellem forskellige praksisfællesskaber er<br />
muligt. Star og Griesemer introducerer begrebet grænseobjekt (”boundary object”,<br />
Star & Griesemer 1989:390) som et analytisk værktøj til at forstå samarbejdet<br />
mellem ledelse, sponsorer og zoologiske samlere i forbindelse med dannelsen af et<br />
10 Bowker & Star 1999:294-7. Star er elev af en af den symbolske interaktionismes grundlæggere,<br />
Strauss, som i artiklen ”A Social World Perspective” fra 1978 foreslår social verden som en sociologisk<br />
kategori. En social verden opstår i samkonstruktion mellem følgende syv aspekter: (1) kommunikation,<br />
(2) kultur, (3) interaktion, (4) fysiske rammer, (5) aktiviteter, (6) organisationsstrukturer, (7)<br />
teknologier/arbejdsmetoder. Stars definition af praksisfællesskaber trækker på Strauss 1978.<br />
23
naturhistorisk museum i Californien. Et grænseobjekt defineres som en konkret<br />
genstand eller et abstrakt begreb, der medierer mellem forskellige interesser og<br />
praksisformer. Eksempelvis fungerer begrebet Californien som et grænseobjekt i<br />
samarbejdet omkring museet, idet alle involverede praksisfællesskaber er<br />
interesserede i at bevare naturen i netop dette geografiske område. Fælles<br />
arbejdsformer og idealtyper – i form af kort, kategoriseringsformer, diagrammer – er<br />
eksempler på mere konkrete grænseobjekter, hvis udvikling og opretholdelse er en<br />
forudsætning for kohærens mellem samlere og forskere (ibid.:407). Der kan således<br />
være mange grænseobjekter i spil mellem de samme grupper på samme tid. Når vi i<br />
det følgende vælger at analysere en evaluering som et grænseobjekt, er det værd at<br />
huske på, at den blot er én blandt flere, som bidrager til at binde Danida, Danidas<br />
partnere og de eksterne konsulenter sammen.<br />
Vi har nu defineret et grænseobjekt som en enten abstrakt eller konkret genstand, der<br />
som et resultat af aktørernes translations- og forhandlingsarbejde medvirker til at<br />
knytte forskellige praksisfællesskaber sammen:<br />
Boundary objects are those objects that both inhabit several communities of<br />
practice and satisfy the informational requirements of each of them. Boundary<br />
objects are thus both plastic enough to adapt to local needs and constraints of<br />
the several parties employing them, yet robust enough to maintain a common<br />
identity across sites. (Bowker & Star 1999:297)<br />
Grænseobjekter bygger bro mellem forskellige praksisfællesskabers antagelser og<br />
praksisformer ved på den ene side at være så plastiske og ’tomme’, at de kan tilpasse<br />
sig forskellige informationsbehov og på den anden side at være så robuste og<br />
indholdsrige, at de bevarer en fælles mening på tværs af praksisfællesskaber. Der er<br />
altså tale om objekter ”which lives in multiple social worlds and which have different<br />
identities in each” (Star & Griesemer 1989:409). Dannelsen og vedligeholdelsen af<br />
grænseobjekter er i sig selv et resultat af interaktion og forhandlinger mellem aktører<br />
inden for og på tværs af praksisfællesskaber. Et grænseobjekt afspejler således<br />
styrkeforholdet og de politiske spændinger mellem de aktører, som har deltaget i<br />
forhandlingerne (Bowker & Star 1999:305).<br />
Ved at betragte evalueringer som grænseobjekter bliver det tydeligt, at det samme<br />
evalueringsforløb kan translateres forskelligt af henholdsvis opdragsgiveren,<br />
evaluatoren og de evaluerede aktører. Det står samtidig klart, at et praksisfællesskab<br />
ikke kan translatere en evaluering fuldstændig frit og efter eget forgodtbefindende,<br />
idet fortolkningen hele tiden er til forhandling med de øvrige praksisfællesskaber og<br />
grænseobjektets robusthed. På trods af translationer, forhandlinger og trans-<br />
formationer bevarer den sociale verden altså en tilstrækkelig stabilitet til, at vi<br />
genkende den, agere i den og sommetider føle os dominerede af den.<br />
24
I dette afsnit har vi nu beskrevet de teoretiske ressourcer, vi senere vil trække på i<br />
analysen dels af fremtrædende diskurser på felterne evaluering og udviklingsbistand,<br />
dels af evalueringsprocessen som en diskursiv praktik, der opstår og forhandles i<br />
interaktionen mellem aktører med forskellige forståelseshorisonter og interesser.<br />
Dermed har vi præsenteret en ramme for forståelsen af, hvordan Danidas<br />
evalueringspraksis trækker på og genskaber overordnede diskurser. De ovenfor<br />
nævnte perspektiver har fokus på, hvordan strukturer, normer og diskurser på<br />
mediebistandsfeltet former en evaluering. I det følgende vil vi redegøre for en<br />
teoretisk ramme til belysning af den påvirkning, som evalueringerne øver på deres<br />
genstand, mediebistand. Den samlede teoretiske platform vil dermed give os<br />
mulighed for at analysere samspillet mellem evaluering og mediebistand.<br />
2.4. Evaluering og dens genstand<br />
Den danske politolog Dahler-Larsen (1998, 2004) forsker i evaluering som kulturelt<br />
og organisatorisk fænomen og interesserer sig blandt andet for, hvordan en<br />
evaluerings sprog bidrager til at konstituere den virkelighed, evalueringen<br />
undersøger:<br />
[E]valueringer kan påvirke, hvad der tages som efterstræbelsesværdige mål i en<br />
organisation; de kan styrke eller svække bestemte former for solidaritet og<br />
samarbejde; de kan gøre bestemte typer af aktører tavse eller talende (…). Det<br />
er det, der menes med, at evalueringer kan være konstitutive. De er med til at<br />
konstruere virkelighed. (Dahler-Larsen 1998:163)<br />
Disse ”konstitutive virkninger” (Dahler-Larsen 2004:31) hviler på evalueringers rolle<br />
som knudepunkter for forhandlinger og meningskonstruktion i et udviklingsprojekt. I<br />
en evaluering udpeges en aktivitet til genstand og bliver derved problematiseret: det<br />
skal undersøges, om aktiviteten er ’god nok’. Hvad der regnes for ’godt nok’ kommer<br />
til udtryk i de evalueringskriterier som genstanden vurderes på baggrund af.<br />
Evalueringskriterierne udtrykker dermed, hvad der er væsentligt og uvæsentligt,<br />
problematisk og uproblematisk, normalt og unormalt ved genstanden, hvilket<br />
potentielt smitter af på de evaluerede aktørers selvforståelse og handlingsorientering.<br />
Dahler-Larsen skelner mellem tre aspekter ved genstanden, som på denne måde<br />
påvirkes af en evaluering: et indholdsmæssigt aspekt, et tidsligt aspekt samt de<br />
relationer og identiteter, som knytter sig til genstanden (2004:32f., 1998:97f.). Vi vil i<br />
det følgende se nærmere på disse tre aspekter.<br />
2.4.1. Indhold og tidsorientering<br />
2.4.1.1. Kriterier og indikatorer<br />
En evaluering er en bedømmelseshandling, som baserer sig på en række mere eller<br />
mindre udtalte evalueringskriterier defineret som ”målepunkter, der bruges til at<br />
afgøre, om et resultat er godt eller dårligt” (Dansk Evaluerings Selskab 2004:7).<br />
Evalueringskriteriernes skelnen mellem godt og dårligt fortolker de politisk-<br />
25
administrative målsætninger og værdier, som ligger bag den evaluerede indsats og<br />
udtrykker således, hvad opdragsgiveren finder væsentligt og acceptabelt. Med<br />
henblik på at kunne vurdere om et evalueringskriterium er opfyldt eller ej, anvender<br />
evaluatoren en række indikatorer, der beskrives som ”kvalitative eller kvantitative<br />
mål, der kan anvendes som enkle og pålidelige redskaber til at måle et opnået resultat<br />
eller til at afspejle ændringerne, som er fundet med en indsats.” (ibid.:11). Indikatorer<br />
omsætter de værdier, som kommer til udtryk i kriterierne, til empirisk målbare<br />
spørgsmål.<br />
Relationen mellem kriterier og indikatorer vil vi illustrere ved hjælp af to eksempler,<br />
som begge er hentet uden for vores kontekst. Det ene eksempel er evaluering af<br />
Arbejdsformidlingens (AF) indsats, hvor et væsentligt kriterium er, at der er effektivt<br />
samarbejde mellem AF og erhvervslivet. Den kvantitative indikator, som anvendes<br />
med henblik på at vurdere, om dette kriterium opfyldes, er antallet af virksomheds-<br />
besøg, som den enkelte AF-medarbejder aflægger årligt (Dahler-Larsen 1998:95).<br />
Det andet eksempel er den polske møbelindustri, som før jerntæppets fald blev<br />
belønnet af staten ud fra et kriterium om, at de mest effektive virksomheder skulle<br />
have flest penge. Indikatoren, som blev anvendt til at måle effektivitet, var vægt –<br />
altså antal producerede tons møbler per år (Dahler-Larsen 2004:32).<br />
2.4.1.2. Indikatorfiksering<br />
De anvendte evalueringskriterier og indikatorer måler ikke blot indsatsen neutralt –<br />
de styrer også de evaluerede aktørers handlinger og bidrager dermed til at definere<br />
evalueringsgenstanden. Dette fænomen kaldes indikatorfiksering (Dahler-Larsen<br />
2004:31ff.) og kan komme til udtryk på forskellig vis. Eksempelvis oplevede et<br />
indkøbscenter at blive besøgt mere end 30 gange den sidste uge før nytår af en AF-<br />
konsulent (Dahler-Larsen 1998:95). Tilsvarende havde den polske stats belønnings-<br />
system utilsigtede konsekvenser, idet det resulterede i, at det polske møblement blev<br />
verdens tungeste (Dahler-Larsen 2004:32). Begge eksempler illustrerer, at den<br />
anvendte indikator er blevet mere vigtig end selve indsatsen, hvorved evalueringen<br />
’koloniserer’ evalueringsgenstanden (Power 1997, Dahler-Larsen 1998:79).<br />
AF-medarbejderen, som pludselig fik travlt med at aflægge virksomhedsbesøg, er et<br />
eksempel på, at de anvendte indikatorer påvirker de evaluerede aktørers<br />
tidsorientering:<br />
Evalueringernes konstitutive effekt langs den tidsmæssige dimension består i,<br />
at man kan komme til at indrette en indsats efter, at (erkendelsen af) dens<br />
evaluerbare effekter skal vise sig på det tidspunkt, hvor en given evaluering<br />
finder sted. (Dahler-Larsen 2004:34-35)<br />
En evaluering må nødvendigvis vurdere sin genstand på et bestemt tidspunkt. Vi har<br />
tidligere defineret evaluering som en retrospektiv bedømmelse, hvilket vil sige, at<br />
26
kun de aktiviteter, som afsluttes inden evalueringstidspunktet, tæller med i<br />
vurderingen. Det er på den baggrund, at anvendelsen af indikatorer kan tilskynde de<br />
evaluerede aktører til at indrette indsatsen i et forsøg på at få resultaterne synlige til<br />
evalueringens deadline. Mediebistand er en metodisk vanskelig evalueringsgenstand<br />
at have med at gøre, idet projekternes effekt på demokratisering og udvikling har et<br />
langt tidsperspektiv. Der er derfor et misforhold mellem evalueringsmetodens og<br />
evalueringsgenstandens tidsorientering. Hvordan dette tackles i de enkelte<br />
evalueringer, og hvad det betyder for projektaktørernes indsats, vil vi undersøge<br />
nærmere i analysen.<br />
Det tunge polske møblement illustrerer, hvordan en indikator kan sætte sig<br />
definitorisk på evalueringsgenstanden og indstifte en opfattelse af, at ’gode møbler er<br />
tunge møbler’. På samme måde opstiller de anvendte indikatorer i mediebistands-<br />
evalueringer retningslinier for, hvad opdragsgiveren anser for en god mediebistands-<br />
indsats:<br />
Evaluation has the potential to influence aid performance. The foci chosen, the<br />
direction of attention, the questions asked, all signal to the aid agencies’<br />
operative units what really matters at the end of the day. (Stokke 1991:1)<br />
Såvel den tidsmæssige som den indholdsmæssige indikatorfikserings omfang<br />
afhænger i høj grad af, hvilke konsekvenser det har ikke at leve op til evaluerings-<br />
kriterierne (Dahler-Larsen 1998:94f). Opdragsgiverens anvendelse af evalueringen<br />
har således en væsentlig betydning for samspillet mellem en evaluering og dens<br />
genstand. Hvis et mediebistandsprojekt risikerer lukning som følge af en kritisk<br />
evaluering, er tilskyndelsen til at undgå en sådan alt andet lige større, end hvis ingen i<br />
Danida læser og følger op på rapporten. På den baggrund spiller de forskellige<br />
aktørers forventninger og relationer til hinanden i evalueringsprocessen en rolle for<br />
deres handlinger både før, under og efter gennemførelsen af en evaluering. Vi vil i<br />
det følgende se nærmere på, hvordan evalueringer bidrager til at konstruere<br />
identiteter og relationer.<br />
2.4.2. Identiteter og relationer<br />
Samtidig med at evalueringen kommunikerer om evalueringsgenstandens indhold og<br />
tidsperspektiv, metakommunikerer den også om de involverede aktørers identiteter<br />
og relationer. En evaluering af et mediebistandsprojekt beskriver således forholdet<br />
mellem donor og modtager, ligesom den implicit definerer, hvem der har ret til at<br />
sætte spørgsmålstegn ved hvad, hvem ansvaret for projektets (manglende) resultater<br />
skal tilskrives, og om de evaluerede aktører skal have lov til fortsat at modtage penge<br />
fra Danida. Der er altså væsentlige emner på spil i evalueringsprocessens forhandling<br />
af identiteter og relationer – så store, at Dahler-Larsen omtaler evalueringer som<br />
”identitetsdramaer” (ibid.:164).<br />
27
Dahler-Larsens gennemgang af evalueringers konstitutive virkninger uddyber Mosses<br />
påstand om, at et udviklingsprojekts virkelighed er socialt konstrueret, og at<br />
evalueringer spiller en vigtig rolle i denne virkelighedskonstruktion. Dette forhold<br />
belyses teoretisk af Foucault.<br />
Ifølge Foucault eksisterer der ikke subjekter uden for diskursen, hvilket med andre<br />
ord vil sige, at han ikke anerkender eksistensen af en identitetsmæssig ’essens’.<br />
Individets personlighed, opfattelser og handlinger defineres derimod i interaktionen<br />
med andre mennesker, strukturer og objekter (Foucault 1978:339). Dette synspunkt<br />
er ligeledes en grundpille i den symbolsk interaktionistiske tankegang, hvilket<br />
afspejler sig traditionens navn. Alle diskurser rummer en række subjektpositioner,<br />
som aktørerne kan indtage, og ud fra hvilke aktørernes indbyrdes relationer og<br />
magtstrukturer defineres:<br />
What is important to me is to show that there are not on the one hand inert<br />
discourses, which are already more than half dead, and on the other hand, an<br />
all-powerful subject, which manipulates them, overturns them, renews them;<br />
but that discoursing subjects form a part of the discursive field (…) Discourse<br />
is not a place onto which the subjectivity irrupts – it is a space of differentiated<br />
subject-positions and subject-functions. (Foucault 1991:58)<br />
Det følger heraf, at den måde, hvorpå den enkelte evaluering indskriver sig i en<br />
bredere diskursmæssig sammenhæng, har betydning for det udvalg af<br />
subjektpositioner, som er tilgængeligt for den konkrete donor, partner og konsulent.<br />
Hermed former evalueringens sprog de identiteter og relationer, som knytter sig til et<br />
helt projekt.<br />
Med afsæt i Foucaults diskursbegreb, den symbolske interaktionisme og antropo-<br />
logerne Mosse og Fergusons anvendelse af Foucault i en udviklingssammenhæng har<br />
vi i dette kapitel præsenteret de teoretiske ressourcer, vi anvender til at belyse sam-<br />
spillet mellem Danidas evalueringspraksis, feltet mediebistand samt evaluerings- og<br />
udviklingsteoretiske diskurser. I de tre følgende kapitler forbliver vi på et teoretisk<br />
niveau og identificerer dominerende diskurser inden for felterne udvikling og<br />
evaluering med henblik på en senere analyse og diskussion af, hvordan disse<br />
diskurser manifesterer sig i Danidas evalueringspraksis.<br />
28
3. Udviklingsteoretiske diskurser<br />
I dette kapitel vil vi identificere to dominerende diskurser, som former praksis og<br />
antagelser på feltet udviklingsbistand. De to diskurser trækker på vidt forskellige<br />
ideologiske grundlag men eksisterer ikke desto mindre side om side i dag og kommer<br />
begge til udtryk i Danidas mediebistand. Afsnit 3.1. omhandler moderniserings-<br />
diskursen, og afsnit 3.2. dens modstykke, som vi benævner den kritiske udviklings-<br />
diskurs. Vi afrunder kapitlet med en diskussion af, hvordan de to diskurser på<br />
paradoksal vis påvirker forholdet mellem donor og modtager i Danidas medie-<br />
bistandsprojekter. Det sker i afsnit 3.3.<br />
Det første eksempel på en egentlig udviklingsindsats var rettet mod vores egen<br />
verdensdel: Med The European Recovery Programme, bedre kendt som Marshall-<br />
hjælpen, valgte USA i årene efter Anden Verdenskrig at give det dengang krigs-<br />
hærgede Europa en finansiel indsprøjtning for at hjælpe de enkelte landes økonomier<br />
på fode igen efter krigens afslutning. 11 De positive erfaringer med denne model var<br />
anledningen til, at man kort efter, det vil sige i slutningen af 1940’erne, påbegyndte<br />
endnu en hjælpeindsats i den såkaldt tredje verden.<br />
I dag har donorlandene været engageret i den tredje verdens udvikling gennem mere<br />
end et halvt århundrede, og mange strategier er afprøvet – nogle med held, andre<br />
uden. Såvel teoretiske og ideologiske strømninger som realpolitiske målsætninger har<br />
spillet ind på valget af disse strategier, og således har man gennem udviklings-<br />
bistandens historie kunnet iagttage forskellige udviklingsdiskurser afspejle skiftende<br />
politiske tendenser og skillelinier. Et åbenlyst eksempel herpå er, at Øst- og<br />
Vestmagterne med henholdsvis Sovjetunionen og USA i spidsen under den kolde<br />
krig valgte at gribe udviklingsproblematikken i den tredje verden an på forskellige<br />
måder. Mens man fra toneangivende vestlige landes side 12 forfulgte et kapitalistisk<br />
præget ideal og gennem strukturtilpasningsprogrammer blandt andet ydede u-landene<br />
lån til gengæld for liberalisering af deres markedsforhold (Degnbol-Martinussen &<br />
Engberg-Pedersen 1999:76f), så anvendte Sovjetunionen udviklingsbistand til at<br />
støtte socialistiske kræfter i modtagerlandene (ibid:35f.). Efter murens fald i 1989<br />
oplevede man blandt de vestlige lande en styrket selvbevidsthed, der blandt andet<br />
kommer til udtryk gennem mere eksplicitte krav overfor modtagerlandene om blandt<br />
andet demokratisering og overholdelse af menneskerettigheder (ibid:78f.). Disse krav<br />
omtales i udviklingsterminologien som politiske konditionaliteter, det vil sige<br />
betingelser, som NGO’er og/eller regeringer i modtagerlandet må indgå på for at<br />
11 80 % af den samlede Marshall-hjælp gik til Europa, 20 % blev fordelt til Mellemøsten, Syd- og<br />
Østasien (Degnbol-Martinussen & Engberg-Pedersen 1999:122).<br />
12 Det vil ifølge Degnbol-Martinussen & Engberg-Pedersen sige USA, Storbritannien og Tyskland<br />
(Degnbol-Martinussen & Engberg-Pedersen 1999:76).<br />
29
kunne modtage udviklingsbistand. Fremme af frie medier er et eksempel på en sådan<br />
politisk konditionalitet og dermed – som vi også beskrev i indledningen – et<br />
eksempel på en politisering af et i forvejen komplekst forhold mellem donor og<br />
modtager. Dette forhold vil vi belyse nærmere i nærværende afsnit.<br />
Pointen med ovenstående korte, historiske vue er at understrege udviklings-<br />
diskursernes nære forbindelse til den samtid og det politiske klima, de aktualiseres i.<br />
Selvom vores fremstilling i det følgende er relativt enkel, idet vi ikke har vurderet en<br />
høj detaljeringsgrad relevant i lyset af den valgte problemstilling, så er det væsentligt<br />
at være opmærksom på relationen mellem politiske strømninger og udviklings-<br />
diskurser.<br />
Vi foretager i det følgende en overordnet inddeling i to diskurser, en moderniserings-<br />
diskurs og en kritisk udviklingsdiskurs. Denne inddeling baserer sig på en række<br />
kilder, hvoraf de primære er Degnbol-Martinussen (1994): Globalisering og<br />
udvikling: Teorier og perspektiver for u-landene, Chambers (1983): Rural<br />
Development. Putting the Last First og Degnbol-Martinussen og Engberg-Pedersen<br />
(1999): Bistand – udvikling eller afvikling? 13 Endvidere inddrages en række<br />
publikationer fra Udenrigsministeriet/Danida.<br />
3.1. Moderniseringsdiskursen<br />
Moderniseringsdiskursen er kendetegnet ved, at udvikling betragtes som en stræben<br />
efter en samfundsform, der i videst mulig udstrækning minder om den vestlige<br />
verdens ditto (Degnbol-Martinussen 1999:78f). Denne idé om udviklingsprocessens<br />
endemål har været aktuel siden Marshall-hjælpen, og den er funderet i en forestilling<br />
om kausal sammenhæng mellem økonomisk vækst og udvikling af det samfund,<br />
hvori væksten foregår (Degnbol-Martinussen & Engberg-Pedersen 1999:48ff, Brett<br />
2000:2). I forlængelse heraf opfattes udviklingsprocessen som et tilnærmelsesvist<br />
lineært forløb, der foregår efter stort set samme forskrift, uanset hvilken nation eller<br />
13 Disse teoretikere anvender ikke begrebet udviklingsdiskurs, men taler derimod om henholdsvis<br />
forskellige ”udviklingsmål” og ”bistandsstrategier” (Degnbol-Martinussen & Engberg-Pedersen<br />
1999:48ff) samt om nye eller gamle ”udviklingsparadigmer” (Chambers 1993:2ff).<br />
Gennemgangen i Degnbol-Martinussen & Engberg-Pedersen 1999:72 tager afsæt i, at forskellige årtier<br />
har været præget af forskellige bistandsstrategier. På side 84 fremgår det dog, at strategierne – på trods<br />
af tilknytning til et særligt årti – anvendes parallelt med hinanden, også i dag.<br />
Paradigmebegrebet defineres således af Chambers: ”[A] coherent and mutually supporting pattern of<br />
concepts, values, methods and action, amenable to wide application” (Chambers 1993). Citatet afspejler,<br />
at et teoretisk paradigme, såvel som en diskurs, både omfatter et bestemt videnssystem (concepts), et<br />
normativt, ideologisk standpunkt (values) samt en bestemt metodologisk tilgang, som er i<br />
overensstemmelse med paradigmets forståelseshorisont (methods and action). Teoretikerne drager<br />
forskellige skel mellem paradigmerne, men vores overordnede inddeling i en moderniserings- og en<br />
kritisk diskurs baserer sig på dels en bearbejdning og forsimpling af de metodiske, teoretiske og<br />
strategiske skillelinier i Degnbol-Martinussen 1994, dels et foredrag af Morten Sodeman holdt på<br />
Annual Development Symposium: Poverty and Development, Centre for Tropical Ecosystems Research,<br />
Aarhus Universitet, 10. september 2004, og dels på Kattenhøj, Christensen og Gram (2004):<br />
Udviklingskommunikation – en synergi af metoder, Institut for Informations- og Medievidenskab, januar<br />
2004. Opgave afleveret i faget ”Medier i overgangs- og 3. verdenslande” v. Poul Erik Nielsen.<br />
30
hvilket samfund, man befinder sig i (Servaes 1996:84). Diskursen har traditionelt<br />
været nært knyttet til økonomisk teori, og denne tilknytning afspejler sig i en<br />
positivistisk verdensopfattelse, som blandt andet kommer til udtryk i antagelsen om,<br />
at et samfunds eller en enkelt sektors udviklingsstadie til enhver tid kan indtegnes på<br />
en skala fra underudviklet til udviklet, idet der i højere grad er tale om forskellige<br />
grader af udvikling end om forskellige typer af udvikling (Degnbol-Martinussen<br />
1999:78ff.).<br />
Uanset hvor på denne skala, en udviklingsgenstand befinder sig, så er selve<br />
udviklingsprocessen i en moderniseringstankegang kendetegnet af ’interventioner’,<br />
igennem hvilke der sker en opgradering eller udskiftning af traditionelle eller<br />
umoderne systemer, sektorer og infrastrukturer, eksempelvis også på medieområdet.<br />
Målet med disse interventioner er at bidrage til, at modtagerlandet eller<br />
organisationen opnår standarder, der i vid udstrækning er præget af vestlige idealer.<br />
3.1.1. Moderniseringsdiskursen og forholdet mellem donor og<br />
modtager<br />
På grund af moderniseringsdiskursens vægtning af vestlige idealer spiller donor – der<br />
typisk repræsenterer et vestligt land – en vigtig rolle i forhold til at vurdere, hvad der<br />
er ’bedst’ for den pågældende modtager, det vil sige i forhold til at afgøre hvilken<br />
intervention, der skal foretages. Heraf følger, at den praksis, som ligger i forlængelse<br />
af en moderniseringstankegang, tager sit udgangspunkt i donorens analyser og<br />
arbejdsmetoder, og den er dermed karakteriseret ved en såkaldt top-down tilgang<br />
(Degnbol-Martinussen & Engberg-Pedersen 1999:75).<br />
Interventionstankegangen, sigtet efter vestlige standarder og top-down-orienteringen<br />
er medvirkende til, at moderniseringsdiskursen præges af et donor-modtagerforhold,<br />
hvor donor indtager en fremtrædende rolle. Idet det overordnede mål kort sagt er at<br />
indføre tilstande lig dem, donorlandet/-organisationen selv befinder sig i, så vil donor<br />
– der repræsenterer endemålet for udviklingsindsatsen – i en relativ betragtning<br />
befinde sig højere i hierarkiet end modtageren (Chambers 1997). Man kan på denne<br />
baggrund tale om, at de donor-modtager subjektpositioner, som er indeholdt i<br />
moderniseringsdiskursen, i udgangspunktet står i et asymmetrisk styrkeforhold til<br />
hinanden.<br />
3.1.2. Kritik af moderniseringsdiskursen<br />
Moderniseringsdiskursens grundantagelser og metoder har til alle tider været<br />
omdiskuterede, men alligevel har de ”overlevet de sidste 40 års debatter og empiriske<br />
analyser” (Degnbol-Martinussen 1994:58). Den første eksplicitte kritik af tanke-<br />
gangen blev rejst i 1970’erne, og den rettede sig først og fremmest mod grund-<br />
læggende moderniseringsantagelser, såsom at en massiv eksport af vestlige systemer<br />
31
og teknologi til samfundenes centrale niveauer automatisk ville have en effekt for de<br />
mere perifere dele af et samfund. Eller at udviklingsprocessen kunne betragtes som et<br />
lineært forløb, uafhængigt af eksempelvis et lands kulturelle og historiske kontekst<br />
(Degnbol-Martinussen 2002:30). Endvidere blev det anført, at diskursen har rødder i<br />
kolonitidens dominansforhold, hvilket blandt andet indebærer en grov diskriminering<br />
af de lokales ønsker og viden (Chambers 1983).<br />
Denne kritik af den tidlige moderniseringsdiskurs har ført til, at centrale aktører i<br />
donorverdenen er begyndt at sætte spørgsmålstegn ved dens politiske korrekthed og<br />
har fremsat mere moderate udlægninger af den tankegang, der ligger bag. Sand-<br />
synligvis har denne moderation været medvirkende til, at en lang række af<br />
moderniseringsdiskursens synspunkter stadig er aktuelle blandt mange aktører<br />
indenfor udviklingsbistanden i vore dage. Ifølge Poul Grosen, direktør for UNDP’s<br />
nordiske kontor, er de grundlæggende elementer i moderniseringsdiskursen nemlig<br />
stadig aktuelle for både udviklingsorganisationer i FN-regi og blandt regeringer<br />
verden over 14 . At betragte udvikling som modernisering kan således betegnes som en<br />
’gammel’ og omdiskuteret tankegang, der dog stadig må anses som ganske aktuel og<br />
havende en ikke ubetydelig indflydelse på udviklingsindsatsen på såvel det multi-<br />
som det bilaterale plan. I afsnit 3.3. vender vi tilbage til, hvilke implikationer dette<br />
har for udviklingsindsatsen i dag.<br />
3.2. Den kritiske udviklingsdiskurs<br />
Til trods for, at den kritiske udviklingsdiskurs ofte opfattes som en ny eller i hvert<br />
fald nyere forståelsesramme, kan dens fremkomst spores helt tilbage til 1960’erne,<br />
hvor forskellige afarter af den såkaldte afhængighedsteori 15 begyndte opgøret med<br />
moderniseringstankegangen som den eneste måde at opfatte udviklingsprocessen på<br />
(Degnbol-Martinussen 1994:58). Den kritiske diskurs kan karakteriseres som en<br />
reaktion mod idealet om modernisering og vækst – i stedet bør opmærksomheden ret-<br />
tes mod selve udviklingsprocessen og de metoder, man benytter i den forbindelse.<br />
Robert Chambers m.fl. 16 blev i begyndelsen af 1980’erne talsmænd for den<br />
tankegang, der også i dag udgør fundamentet for den kritiske udviklingsdiskurs:<br />
’Putting the last first’ var undertitlen på hans første større udgivelse (Chambers<br />
1983), hvilket indikerer en markant anderledes opfattelse af udviklingsarbejde end<br />
den, moderniseringsdiskursen repræsenterer. Chambers plæderer for reel inddragelse<br />
af den allerfattigste del af målgruppen for udviklingsindsatsen og opfordrer til, at de<br />
udefrakommende udviklingsarbejdere ”step down off their pedestals, and sit down,<br />
14 Foredrag ved Poul Grosen, Annual Development Symposium, 10. september 2004. Aarhus<br />
Universitet, Søauditoriet. Arrangør: Centre for Tropical Ecosystems Research (cenTER).<br />
15 I et afhængighedsteoretisk perspektiv er årsagen til underudvikling, at de fattige tredjeverdens-lande<br />
er afhængige af den, vestlige økonomiske, militære og politiske magt. (Degnbol-Martinussen 1994:<br />
112ff.)<br />
16 Bl.a. den amerikanske samfundsforsker Guy Gran og den ligeledes amerikanske økonom og<br />
organisationsteoretiker David Korten.<br />
32
listen and learn” (ibid.:101). Han og andre antastede således den hidtidigt<br />
dominerende orientering efter økonomi, statsinstitutioner og topstyring af<br />
udviklingen og erstattede den med begreber som blandt andre participation og<br />
myndiggørelse 17 , hvor participationen dikterede et fokus på aktiv inddragelse af mål-<br />
gruppen, mens myndiggørelse udtrykte et af de primære formål med selve indsatsen:<br />
at målgruppen styrkes til at kunne og ville handle på eget initiativ (Servaes 1996:85).<br />
Den kritiske diskurs rummer således en bottom-up-praksis, hvor enhver beslutning<br />
træffes i samarbejde mellem alle involverede parter (UN 1999:9).<br />
Ud fra en kritisk udviklingsforståelse bliver participation på denne vis et mål i sig<br />
selv, da ligeværd mellem donor og modtager koblet med selvudvikling og frihed til<br />
selv at vælge for det samfund og de mennesker, der er i fokus, er afgørende succes-<br />
kriterier. I forlængelse heraf retter en ’kritisk’ udviklingsindsats sig mod civil-<br />
samfundet og dets individer, hvilket yderligere adskiller den kritiske diskurs fra<br />
moderniseringsdiskursen, hvor reformer primært sker via markedet og staten.<br />
3.2.1. Den kritiske udviklingsdiskurs og forholdet mellem donor<br />
og modtager<br />
Som tidligere nævnt er den kritiske diskurs i høj grad opstået som reaktion på<br />
moderniseringsdiskursen, og ikke mindst i forhold til synet på donor-modtager-<br />
relationen udgør de på det nærmeste hinandens modsætninger. Hvor moderniserings-<br />
diskursen indebærer et asymmetrisk styrkeforhold mellem donor og modtager,<br />
rummer subjektpositionerne i den kritiske udviklingsdiskurs et ideal om et<br />
ligeværdigt forhold, hvor donor solidariserer sig med modtager og også selv er<br />
indstillet på at forandre sig – frem for blot at understøtte modtagerens forandring.<br />
3.2.2. Kritik af den kritiske udviklingsdiskurs<br />
Selvom den kritiske tilgang til udviklingsbistand i mange sammenhænge anses for at<br />
være et bedre alternativ, ikke mindst i forhold til en moderniseringstankegang, så<br />
godtages det ikke ukritisk af hverken udviklingspraktikere eller –teoretikere (Brett<br />
2003). For det første er det en udbredt opfattelse, at de idealer, som kommer til<br />
udtryk i den kritiske diskurs er sympatiske, men at participations- og myndig-<br />
gørelsesorienterede metoder ikke er velegnede til alt (Mosse 2002). Eksempelvis kan<br />
det i visse tilfælde koste uforholdsmæssigt mange ressourcer at sikre en partici-<br />
patorisk proces omkring udformningen af et projekt, set i forhold til det endelige<br />
udbytte deraf (Mosse 1993, Brett 2003).<br />
Som vi beskrev i kapitel 2 kritiserer Mosse forestillingen om, at udviklingsbistand<br />
imødekommer foruddefinerede lokale behov, som kan klarlægges ved brug af den<br />
rigtige bottom-up metode. Behov konstrueres ifølge Mosse i processen, og det vil til<br />
17 Denne danske term erstatter det engelske begreb ’empowerment’.<br />
33
enhver tid vil være donor, der opsætter præmisserne for inddragelsen (Mosse<br />
1993:21). Han peger på, at målgruppens udtrykte ønsker kan være underlagt ”a<br />
conspiracy of courtesy” (ibid.:20), i vores oversættelse en høflighedssammen-<br />
sværgelse, der indebærer, at den inddragne målgruppe slører visse aspekter af deres<br />
sociale virkelighed, eller at de formulerer deres behov ud fra, hvad de forventer,<br />
projektet kan give dem (Mosse 1993:20).<br />
Pointen er, at den kritiske diskurs – på trods af idealer om ligeværdighed og<br />
symmetrisk magtrelation mellem donor og modtager – stadig oplever store<br />
udfordringer på netop denne front. De oprindelige slagord, som blandt andre Robert<br />
Chambers bidrog til at sætte i verden i begyndelsen af 1980’erne om, at man ’bare<br />
skal spørge de lokale, de ved en masse, og de er dine venner’ (Mosse 1993:21), bliver<br />
således ofte kritiseret for at udtrykke en naiv opfattelse af udviklingsprocessen, der<br />
langt fra overkommer de problemer i bistandssamarbejdet, som man oprindeligt<br />
antog, de ville.<br />
Et sidste kritikpunkt, som skal nævnes her, retter sig mod den kritiske diskurs’<br />
anvendelse af termen participation. Ifølge Jules Pretty, britisk professor i miljø- og<br />
samfundsforhold, er participation et udvandet begreb, som bruges i flæng og med et<br />
væld af forskellige betydninger. Pretty opstiller en participationstypologi, der<br />
illustrerer hvorledes participation bruges som betegnelse for alt lige fra manipulation<br />
af bistandsmodtagerne – hvor participationen begrænser sig til flotte ord – til at være<br />
en metode til selv-mobilisering af målgruppen, der efter Prettys opfattelse må<br />
betragtes som den mest reelle form for participation (Pretty 1995:1252).<br />
3.3. Partnerskabets paradoks<br />
Både moderniseringsdiskursen og den kritiske udviklingsdiskurs’ fremkomst kan<br />
hver især forklares ud fra samfundsforhold og politiske vinde, som har været<br />
dominerende i bestemte historiske perioder. Relationen mellem udviklings-<br />
diskurserne og den politiske og samfundsmæssige kontekst, de oprindeligt er<br />
etableret i, er en af årsagerne til, at de begge i høj grad kan siges at være bærere af<br />
normative opfattelser af, hvad udvikling består i, og hvordan den bør finde sted.<br />
Disse normative opfattelser er lige så aktuelle i dag som for tyve år siden, hvorfor<br />
diskurserne ikke kan siges at være særligt knyttede til bestemte tidspunkter i<br />
historien. I dag synes de to diskurser da også i vid udstrækning at eksistere side om<br />
side, hvilket kommer til udtryk i den udviklingsopfattelse og -retorik, som for tiden<br />
gør sig gældende i både FN, Verdensbanken og de nationale donoragenturer –<br />
herunder Danida (Ellis & Biggs 2001).<br />
Et eksempel på mødet mellem de to udviklingsdiskurser er målet om ’vækst med et<br />
menneskeligt ansigt’, som blandt andet er formuleret af økonomen Amartya Sen (Sen<br />
34
1999) og af Verdensbanken (Dollar & Kraay 2002) 18 . I Danida kommer koblingen<br />
mellem diskurserne til udtryk ved, at man frem for at bruge betegnelserne ’donor’ og<br />
’modtager’, som har en asymmetrisk moderniseringsklang, anvender det mere<br />
egalitære begreb ’partnere’. Partnerskabsbegrebet har de senere år vundet indpas,<br />
ikke blot i Danida, hvor den seneste udviklingsstrategis titel er Partnerskab 2000<br />
(Danida 2000B), men også i andre bilaterale og multilaterale donoragenturer.<br />
Årsagerne til partnerskabsbegrebets udbredelse er dels normativt og dels praktisk<br />
funderet. Praktisk har en højere grad af modtagerinddragelse i udviklingsbistanden<br />
vist sig at højne projekternes bæredygtighed og effektivitet. Normativt indeholder<br />
begrebet en betragtelig dosis retorik fra det kritiske paradigme, idet man ved brug af<br />
partnertermen eksplicit vedkender sig idealet om ligeværdighed mellem donor og<br />
modtager. Men partnerskabsretorikken er ikke et udtryk for en generel tilslutning til<br />
den kritiske udviklingsdiskurs, idet moderniseringsdiskursens metoder stadig gør sig<br />
gældende i praksis.<br />
Partnerskabet rummer således et paradoks: På den ene side står visionen om<br />
symmetrisk styrkeforhold mellem donor og modtager og en lige grad af inddragelse<br />
og indflydelse på udviklingsbistandens mål og midler. På den anden side står de<br />
økonomiske realiteter: donor har penge og dermed magt til at opsætte krav og<br />
betingelser. Det er således givet, at der er forskel på partnernes status: uanset fælles<br />
målsætninger om ligeværd og participation er præmissen nemlig, at den ene partner<br />
skal forandre sig, og at det sker på den anden partners foranledning – og efter dennes<br />
målestok. Denne paradoksale partnerrelation kompliceres yderligere af fremkomsten<br />
af politiske konditionaliteter. Karikeret stilles modtagerne i en mediebistands-<br />
sammenhæng over for dette (ikke)valg: ’Danida stiller som en betingelse, at I<br />
indvilger i at fremme demokrati og ytringsfrihed gennem støtte til frie medier. Det er<br />
imidlertid ikke nok, at I indgår på vores krav – I skal selv formulere dem, ønske dem<br />
og gøre dem til jeres. Vi kan nemlig kun forsvare at støtte jer, hvis vi kan pege på, at<br />
vi opfylder lokale ønsker og derved indgår i et ligeværdigt partnerskab.’<br />
Koblingen af moderniseringsdiskursen og den kritiske udviklingsdiskurs er således<br />
ikke uproblematisk, hverken på et teoretisk eller et praktisk plan. I analysen vil vi<br />
vende tilbage til de spørgsmål, problematikken rejser i et evalueringsperspektiv, og vi<br />
vil undervejs eksemplificere hvordan Danidas mediebistandspraksis trækker på begge<br />
diskurser.<br />
18 Økonomen og nobelpristageren Sen argumenterer i bogen Development as Freedom for, at lighed,<br />
demokrati og menneskerettigheder er forudsætninger for økonomisk vækst (Sen 1999). I artiklen<br />
”Growth is Good for the Poor” fremfører Dollar og Kraay fra Verdensbankens ’Policy Research<br />
Department’ en lignende argument men med omvendt fortegn – nemlig at vækst er forudsætningen for<br />
lighed og demokrati (Dollar & Kraay 2002). Begge tekster har fået nærmest kanonisk status i<br />
udviklingsverdenen.<br />
35
4. Evalueringsteoretiske diskurser<br />
Fra udviklingsbistand vender vi nu blikket mod evalueringsfænomenet og vil i dette<br />
afsnit redegøre for to dominerende teoretiske opfattelser af evaluerings rolle –<br />
evaluering som et redskab til henholdsvis kontrol og organisatorisk læring. Disse to<br />
anskuelser er gennemgående i såvel den metodeanvisende evalueringslitteratur som i<br />
evalueringspraktikeres selvforståelse (Hansen 2001), og de er derfor væsentlige at<br />
introducere med henblik på at kunne forstå de forskellige synspunkter, handlinger og<br />
diskurser, som kommer til udtryk i Danidas evalueringspraksis. Analysen af<br />
antagelser, metoder og legitimeringsgrundlag inden for lærings- og kontroltraditionen<br />
leder frem mod en identifikation af to evalueringsteoretiske diskurser – en kontrol-<br />
diskurs og en participatorisk læringsdiskurs.<br />
Det evalueringsteoretiske felt bærer præg af, at evaluering først og fremmest er en<br />
praktisk disciplin, som kun har en 30-40 år på bagen i en amerikansk sammenhæng<br />
og endnu færre i Danmark, hvorfor størstedelen af litteraturen på området er metode-<br />
anvisende og forfattet af amerikanske evaluatorer. Værkerne fordeler sig som nævnt<br />
overordnet på to tilgange til evaluering: En tilgang ser evalueringer som et redskab til<br />
tilvejebringelse af objektiv information, som kan anvendes til demokratisk og<br />
administrativ kontrol af offentlige ydelser. Denne evalueringstradition betegner vi<br />
kontrolevaluering, og vores gennemgang bygger på hovedværker inden for<br />
traditionen. Det drejer sig primært om Michael Scriven (1967, 1991, 1996, 1997) og<br />
Rossi, Lipsey & Freeman (1985/2004). Kontroltilgangens modstykke betragter<br />
evaluering som et redskab til organisatorisk læring og betegnes derfor lærings-<br />
evaluering. Under denne tradition skelner vi mellem henholdsvis en konsensus- og en<br />
konfliktbaseret læringsforståelse, hvor fremstillingen af førstnævnte primært bygger<br />
på Scriven, mens den konfliktbaserede læringsforståelse beskrives ud fra tekster af to<br />
toneangivende evaluatorer, Michael Quinn Patton (1986, 1994, 1996) og Hallie<br />
Preskill (Torres, Preskill, & Piontek 1997, Preskill & Torres 1999).<br />
Vi supplerer analysen af den amerikanske evalueringslitteratur med nyere<br />
skandinavisk forskning i evaluering som et kulturelt, politisk og institutionelt<br />
fænomen. Politologerne Dahler-Larsen (1998, 2001, 2004), Hansen (2001, 2003),<br />
Krogstrup (2001) samt svenske Vedung (1998, 2000) har inspireret vores fremstilling<br />
af baggrunden for og udbredelsen af evaluering i Skandinavien.<br />
4.1. Distinktionen mellem kontrol- og læringsevalueringer<br />
Evaluering kom fra USA til Europa som begreb og disciplin i 1970’erne via<br />
udviklingsbistanden, som var under indflydelse dels af det amerikanske donoragentur<br />
36
USAID, og dels af OECD’s Development Assistance Committee (DAC). Danida var<br />
i 1982 den første offentlige enhed herhjemme, som institutionaliserede evaluerings-<br />
funktionen, og samme år nedsatte DAC en permanent ekspertgruppe inden for<br />
evaluering af udviklingsbistand (Kjekshus 1991:64, Dabelstein 1998). Evaluerings-<br />
fænomenet blev udbredt til andre enheder i den offentlige administration i løbet af<br />
1980’erne og 90’erne, og i dag har evalueringers udbredelse nået et omfang i<br />
Danmark, så evalueringsforskere hævder, at ”vi lever i evalueringernes tidsalder”<br />
(Dahler-Larsen 1998:7). Vil man finde forklaringer på fænomenets udbredelse samt<br />
på de antagelser, som ligger til grund for den hjemlige evalueringspraksis, kan det<br />
betale sig at vende blikket mod evalueringsdisciplinens udvikling i USA.<br />
Evaluering opstod som en selvstændig disciplin i USA i 1960’erne og 1970’erne ud<br />
fra et ønske i den amerikanske statsadministration om at udfærdige velfærdsreformer<br />
på baggrund af videnskabelige, objektive vurderinger af succeser og fiaskoer i den<br />
tidligere indsats. Evalueringshistorikere beskriver denne fase i disciplinens udvikling<br />
som præget af et positivistisk inspireret sandhedsideal. I 1970’erne og 80’erne opstod<br />
der kritik af den positivistiske tilgang, fordi de forventede erfaringer med<br />
evalueringer som et redskab til entydig indsatsforbedring og objektiv vurdering<br />
udeblev. I stedet opstod en ny tradition, som fokuserede på brugerinddragelse i<br />
evalueringsprocessen ud fra en antagelse om, at inddragelse ville styrke brugernes<br />
ejerskab til og engagement i indsatsen. Der skete dermed en forskydning fra kontrol-<br />
og resultatorientering til lærings- og procesorientering i evalueringsdisciplinens<br />
anden udviklingsfase (Shadish, Cook & Leviton 1991:69-71 og 171-7, Rossi, Lipsey<br />
& Freeman 1985/2004:9f.). I dag eksisterer de to evalueringstraditioner side om side.<br />
Første gang man i evalueringslitteraturen blev opmærksom på eksistensen af de to<br />
tilgange til evaluering var i 1967, da evalueringsteoretikeren Scriven i artiklen “The<br />
Methodology of Evaluation” introducerede en skelnen mellem formativ og summativ<br />
evaluering – en skelnen som siden har dannet udgangspunkt for stort set al teori-<br />
dannelse og diskussion inden for feltet 19 . Summative evalueringer designes og<br />
anvendes med henblik på at bedømme opnåede resultater, mens formativ evaluering<br />
har til hensigt at forbedre evalueringsgenstanden (Scriven 1967:40f., Shadish, Cook<br />
& Leviton 1991:73). Formativ/summativ er blot et ud af mange dikotome betegnelser<br />
for forskellene mellem kontrol- og læringsevalueringer 20 . Vi vil i det følgende<br />
19 Scriven 1967:43ff. I 1991 udgav Scriven artiklen: ”Beyond Formative and Summative Evaluation”,<br />
hvor han udfordrede distinktionen mellem formativ og summativ evaluering ved at opridse 10 punkter,<br />
som forvirrede distinktionen. Denne artikel udløste stor debat, som varede ved gennem det meste af<br />
1990’erne omkring tidsskriftet Evaluation Practice. Debatindlæggene herfra danner i høj grad<br />
udgangspunkt for vores fremstilling af kontrol- og læringsdiskurserne.<br />
20 Ved siden af distinktionen formativ/summativ eksisterer der en række andre evalueringsdikotomier,<br />
som ikke udelukker hinanden indbyrdes. Eksempelvis kan en summativ evaluering fokusere både på<br />
processen og på resultatet, ligesom den kan benytte sig af både kvalitative og kvantitative metoder<br />
(Scriven 1996:50). Tendensen er dog, at summative evalueringer fortrinsvis ser på resultatet ved hjælp<br />
37
eskrive de to tilgange ud fra en række af de mest gængse begrebspar i evaluerings-<br />
litteraturen. En foreløbig model ser således ud:<br />
Kontrolevaluering Læringsevaluering<br />
Anvendelse og sigte Summativ Formativ<br />
Fokus Resultat Proces<br />
Kvalitetsparameter Upartiskhed Relevans<br />
Metode Kvantitativ Kvalitativ<br />
Relation mellem evalueringsaktørerne Distanceret/ Evaluatorstyret Interaktiv/ Samarbejdsstyret<br />
Figur 4a<br />
Vi lægger ud med en gennemgang af, hvad der kendetegner den såkaldte kontrol-<br />
evaluering.<br />
4.2. Evaluering som et redskab til kontrol<br />
I løbet af 1990’erne har ledelsesstrukturen og -kulturen i den danske offentlige sektor<br />
været under kraftig inspiration fra ledelsesfilosofier som ’Resultatbaseret ledelse’,<br />
’New Public Management’ og ’Total Quality Management’. Alle er betegnelser for<br />
ledelsesfilosofier, som sigter mod øget resultatorientering og målrettethed i den<br />
offentlige administration. Indførelsen af denne nye ledelseskultur er et svar på<br />
økonomisk, socialt og politisk pres i form af budgetnedskæringer, aftagende tillid til<br />
’systemet’, strukturelle problemer samt øget markedsgørelse af offentlige ydelser<br />
(Binnendijk 2001:3). Dette politiske pres har i særlig grad været rettet mod Danida,<br />
der – i lighed med andre donoragenturer i OECD-landene – har været genstand for<br />
besparelser og en generel ’bistandstræthed’ i befolkningen (OECD 2001,<br />
Schaumburg-Müller & Wad 1998). En bagvedliggende årsag til det politiske pres har<br />
givetvis været vanskelighederne ved entydigt at bevise og styre effekterne af<br />
udviklingsbistanden, og netop dette forhold er evaluering ifølge ovenstående<br />
ledelsesteorier et velegnet redskab til at rette op på. Tankegangen er, at en øget<br />
effektmålingsindsats højner organisationens troværdighed i offentlighedens øjne, idet<br />
skatteydere og beslutningstagere får lejlighed til at kontrollere, om pengene bruges<br />
fornuftigt (Scriven 1997:481). Det er på den baggrund, at der er sket en nærmest<br />
eksplosiv vækst i udbredelsen af evalueringer med kontrolformål i donorverdenen,<br />
herunder i Danida.<br />
Vi definerer kontrolevaluering som en summativ vurdering af en given aktivitets<br />
resultater og nytteværdi, hvis primære målgruppe er beslutningstagere og<br />
observatører (Patton 1996:131).<br />
af kvantitative metoder (Patton 1996 og Dahler-Larsen 2001 og 2004), og derfor mener vi det er<br />
frugtbart at beskrive de to evalueringstilgange ud fra den skitserede model.<br />
38
4.2.1. Kontrolevalueringernes demokratiske<br />
legitimeringsgrundlag<br />
I USA har resultatorienteringen nået et sådant omfang, at der ifølge en fremtrædende<br />
amerikansk evaluator, Leonard Bickman, er tale om en ”outcome mania” (Bickman<br />
1997:10), sociologen Michael Power advarer mod ”revisionssamfundet” (Power<br />
1997), og i Danmark beskriver Dahler-Larsen den rutinemæssige anvendelse af<br />
evalueringer som ”en slags kollektiv, mental besættelse” (Dahler-Larsen 1998:10).<br />
Disse udtalelser illustrerer de negative konnotationer som kontrolbegrebet ofte<br />
forbindes med. Men kontrol har også en række positive og legitime funktioner at<br />
spille i samfundet, og mange evaluatorer ser ligefrem kontrolevalueringer som en<br />
demokratisk nødvendighed:<br />
[Evaluation] is so important to any democratic society. Evaluation benefits<br />
public policy, it benefits those who make decisions about that policy, and it<br />
benefits the citizens who have to live with those decisions, once made.<br />
(Chelimsky 1995:216, tidl. præsident for det amerikanske evalueringsselskab)<br />
Den evalueringsteoretiske kontroldiskurs henter sin berettigelse i en demokrati-<br />
opfattelse, som kan betegnes konkurrencedemokratiet (Hansen 2004). I et<br />
konkurrencedemokratisk perspektiv er valghandlingen kernen i demokratiet – her<br />
uddelegerer borgerne deres ansvar til repræsentanter, som i en bestemt periode får<br />
beføjelser til at træffe de politiske beslutninger og lede den offentlige administration.<br />
Administrationen står altså til ansvar overfor politikerne, som igen står til ansvar<br />
overfor vælgerne. Det er i denne styringskæde, at evalueringer har en demokratisk<br />
legitim kontrolfunktion (Vedung 1998). De mange aktiviteter, som finansieres af<br />
offentlige midler i Danmark, nødvendiggør ud fra en konkurrencedemokratisk<br />
opfattelse, at disse aktiviteter evalueres for at give politikere og deres embedsmænd<br />
indsigt i, hvordan de offentlige tilskud bliver anvendt, sådan at ansvaret kan placeres.<br />
Ansvarliggørelse og ansvarsplacering er således centrale begreber, når man vil forstå<br />
kontrolevalueringernes forankring i demokratiet (Rossi, Lipsey & Freeman<br />
1985/2004:36, Binnendijk 2001:18) 21 .<br />
Efter nu at have beskrevet hvorledes kontroldiskursen argumenterer for sin egen<br />
samfundsmæssige berettigelse, vil vi i det kommende afsnit behandle de centrale<br />
kvalitetskriterier og metodeanvisninger inden for diskursen.<br />
4.2.2. Kravet om objektiv information<br />
Et stykke hen ad vejen har evaluering ”surfet” på moderniseringsprocessens<br />
bølge. Evaluering er barn af rationalismen. (Dahler-Larsen 1998:61)<br />
21 ’Ansvarliggørelse’ er den danske betegnelse vi anvender for begrebet accountability, som beskriver<br />
gennemsigtighedsprincippet inden for god regeringsførelse. ’Ansvarsplacering’ er vores oversættelse af<br />
begrebet attributing (Binnendijk 2001:18).<br />
39
Vedung (Vedung 2000) betragter evaluering som et trin på stigen i modernitetens<br />
projekt om at ’affortrylle verden’ gennem videnskabeliggørelse og rationelle<br />
forklaringer. Ifølge Vedung var politik indtil for nylig en af de sidste emotionelle<br />
bastioner i en ellers gennemrationaliseret moderne verden, men blandt andet via<br />
evalueringer er det politiske forsøgt gjort mindre impulsivt og mere resultatorienteret<br />
(ibid.:9f.). Midlet til at opnå en sådan rationalisering af det politiske er tilveje-<br />
bringelse af objektive data om virkeligheden, og kontroldiskursen baserer sig således<br />
på en positivistisk forståelse af, at der eksisterer en universel, objektiv virkelighed,<br />
som kan analyseres og formidles samt påvirkes kausalt (Guba & Lincoln 1984:32ff.,<br />
Kapoor 2004:159). Forudsætningen for, at kontrolevalueringerne kan leve op til<br />
målsætningen om at tilvejebringe objektiv information er, at de udføres af<br />
evaluatorer, som er uafhængige af de interesser, der er knyttet til den evaluerede<br />
genstand. Objektivitet og uafhængighed er således nøglebegreber inden for kontrol-<br />
diskursen, og disse to faktorer ses som nødvendige forudsætninger for troværdige,<br />
anvendelige evalueringer (Rossi, Lipsey & Freeman 1985/2004:26).<br />
At idealet om den uafhængige, objektive evaluator er særdeles levende i praktiker-<br />
kredse fremgår af nedenstående citat fra en kongrestale i amerikanske evaluerings-<br />
selskab. Her beskrives evaluatoren som en rationelt køligt og oplyst tekniker i en<br />
følelsesladet og uvidende politisk verden:<br />
So it is up to us to make objective information available, especially in a hostile<br />
political environment, and also when the relevant public groups are unaware of<br />
the facts. (…) Why is it up to us? Because we know the data, because we<br />
believe in the value of knowledge, and because we are non-euphoric by<br />
training. (Chelimsky 1995:218)<br />
Idet uafhængighed er et helt centralt kvalitetskriterium, anbefales det af den metode-<br />
anvisende evalueringslitteratur, at kontrolevalueringer udføres af eksterne<br />
evaluatorer, som bevarer styringen med evalueringsprocessen og kun inddrager de<br />
evaluerede aktører i begrænset omfang (Scriven 1996:156-8, Rossi, Lipsey &<br />
Freeman 1985:38f.). Anbefalingen om at holde en vis distance mellem evaluator og<br />
de evaluerede aktører begrundes med risikoen for, at de evaluerede aktører kan<br />
påvirke indsamling og fortolkning af data, hvorved evalueringens validitet bringes i<br />
fare (Scriven 1996:158).<br />
4.2.3. Fokus på resultater<br />
Af definitionen af en kontrolevaluering fremgik det, at dens primære målgrupper er<br />
’beslutningstagere og observatører’, det vil sige aktører som ikke har daglig berøring<br />
med det evaluerede projekt. Disse målgruppers interesse i evalueringen er at<br />
kontrollere projektet i henhold til ansvarliggørelsesprincippet, og de ønsker derfor<br />
ikke at læse lange, kontekstnære redegørelser. ”At beskrive noget komplekst ved<br />
hjælp af noget komplekst er sjældent ressourcemæssigt fornuftigt” påpeger Dahler-<br />
40
Larsen (Dahler-Larsen 2004:24), og dette forklarer, hvorfor kontrolevalueringer<br />
bestræber sig på at beskrive relativt komplicerede aktiviteter og udfald ved hjælp af<br />
simple, kortfattede – og gerne kvantitative – kriterier. Det er så evaluatorens rolle at<br />
sikre, at kriterierne lever op til krav om validitet, reliabilitet, utvetydighed og<br />
operationaliserbarhed (Rossi, Lipsey & Freeman 1985:74). Som nævnt i begrebs-<br />
afklaringen vender vi tilbage til emnet evalueringskriterier i analysen.<br />
Vi har nu på baggrund af klassikere inden for den metodeanvisende evaluerings-<br />
litteratur defineret kontrolevalueringer som summative vurderinger med observatører<br />
og beslutningstagere som primær målgruppe. De vigtigste kvalitetsparametre inden<br />
for den evalueringsteoretiske kontroldiskurs er upartiskhed og objektivitet, hvorfor<br />
evalueringsprocessen bør styres af en ekstern, uafhængig evaluator. Evaluatoren<br />
vurderer projektet på baggrund af simple, gerne kvantitative kriterier med henblik på<br />
at fremdrage resultaterne af indsatsen.<br />
4.2.4. Kritik af kontrolevalueringer<br />
I dette underafsnit vil vi skitsere de væsentligste punkter i kritikken af kontrol-<br />
diskursen. En kritik, som samtidig har dannet afsæt for fremkomsten af den<br />
participatoriske læringsdiskurs, der vil blive behandlet i afsnit 4.3.<br />
På et ontologisk og epistemologisk niveau kritiseres kontroldiskursen for dens<br />
positivistisk inspirerede antagelse om, at verden er statisk nok til at kunne beskrives<br />
objektivt og standardiseret i en evaluering. I stedet hævder fortalerne for lærings-<br />
evalueringer, at virkeligheden er dynamisk og kompleks, og at evalueringer derfor<br />
kun kan give et forhandlet øjebliksbillede af dens karakter (Kapoor 2004:160).<br />
Begreber som kausalitet, fakta og objektivitet anses af læringstraditionen for at være<br />
normative størrelser, der anvendes mere eller mindre bevidst af opdragsgiverne til at<br />
pådutte evaluanderne udefrakommende og ofte irrelevante kriterier. Fortalere for<br />
læringstilgangen mener, at objektivitetskriteriet er farligt og forkert – virkeligheden<br />
findes ikke derude, den skabes i evalueringsprocessen (Guba & Lincoln 1987:211,<br />
Kapoor 2004:159).<br />
En anden hyppig indvending mod kontrolevaluering går på diskursens manglende<br />
magtperspektiv. Litteraturen om kontrolevalueringer har tendens til at fokusere på<br />
kontrollens legitime og positive sider og ser evalueringens tilvejebringelse af viden<br />
som en magtneutral proces. Fortalere for læringsevalueringer hævder i stedet, at:<br />
”Evaluation produces information, and information is power” (Guba & Lincoln<br />
1987:212). En kritiker af de resultatbaserede ledelsesfilosofier, Power, skriver<br />
bekymret om den tendens mod ”revisionssamfundet” som kontrolevalueringer efter<br />
hans mening er udtryk for. Power ser evaluering som inspektion, der sigter mod<br />
41
angordning gennemført på basis af usikre kvantitative målinger, og han tolker<br />
udviklingen som udtryk for forøgelse af distanceret kontroludøvelse, og som fravær<br />
af tillid til dem, der er ansvarlige for projekterne (Power 1997). I forlængelse af dette<br />
synspunkt påpeger Dahler-Larsen (1998:53 & 102), at kontrolevalueringens fokus på<br />
ansvarliggørelse og ansvarsplacering betyder, at de evaluerede aktører oplever<br />
evalueringen som en utryg proces. Han henviser til Foucaults beskrivelse af<br />
”Panoptikon”, der bygger på den af Bentham designede fængselsmodel bestående af<br />
celler placeret omkring et centralt beliggende tårn (Foucault 1994:179f.). Fra tårnet<br />
kan man overvåge samtlige celler uden selv at blive betragtet. Betragterens motiv er<br />
således ligegyldigt for den indsatte, idet alene bevidstheden om at man måske bliver<br />
overvåget med et disciplinerende sigte gør, at man disciplinerer sig selv. På samme<br />
måde er det for den evaluerede aktør underordnet, om evalueringen faktisk anvendes<br />
af opdragsgiveren i et kritisk overvågningsøjemed – det vigtige er, at muligheden<br />
foreligger, og derfor indretter den evaluerede aktør sin adfærd herefter. Dette er en<br />
pointe, vi behandler mere dybtgående senere i specialet.<br />
4.3. Evaluering som et redskab til læring<br />
Vi har tidligere beskrevet evaluering som en rationel, moderne tendens. Men<br />
evaluering er i høj grad også udtryk for den refleksive modernitet, en samtidsdiagnose<br />
stillet af Beck, Giddens og Lash, som peger på, at traditioner og de store fortællinger<br />
har mistet deres forklaringskraft, hvorfor individer og organisationer hele tiden må<br />
stille spørgsmålstegn ved og reflektere over sig selv (Beck, Giddens & Lash 1994).<br />
Tankefiguren i evaluering afspejler på mange måder den refleksive modernitets<br />
grundlæggende kulturelle figur. Vi har ikke at gøre med central planlægning<br />
udført prospektivt. Vi har at gøre med mange, iterative og relativt<br />
ukoordinerede feed-back-loops på mange niveauer, udført retrospektivt.<br />
Evalueringsbølgen er et tegn på, at man ikke er sikker på, tingene lykkes på<br />
forhånd. (Dahler-Larsen 1998:71)<br />
Sideløbende med de resultatorienterede ledelsestanker, vi tidligere har præsenteret, er<br />
der også sket en opblomstring i teorier om den lærende organisation. Hovedstand-<br />
punktet inden for teorierne om den lærende organisation er, at organisationer er nødt<br />
til at udvikle evnen til at reflektere og forandre sig, hvis de vil overleve i dynamiske<br />
og ustabile omgivelser. Læring er således ikke alene blevet en mulighed – det er<br />
blevet et must, hvis man vil klare sig som individ eller organisation i den refleksive<br />
modernitet (Argyris 1995:1). Læring er et spørgsmål om, hvordan organisationer,<br />
individer og grupper reagerer på den feedback, de registrerer som følge af deres<br />
handlinger. Man kan afbilde organisatoriske læreprocesser i form af en læringscyklus<br />
(Morgan 1986:87, Dahler-Larsen 1998:39):<br />
42
Organisationen korrigerer evt.<br />
misforhold mellem realitet og normer.<br />
Figur 4b<br />
Organisationen registrerer ændringer i<br />
omverdenen – fx via evalueringer<br />
Ændringerne sammenlignes med<br />
organisationens egne normer og standarder<br />
Alle tre momenter i cyklussen er konstituerende for læringsbegrebet, så læring er<br />
ikke alene et spørgsmål om feedback 22 og viden – man kan først tale om læring i det<br />
øjeblik, den nye viden omsættes (Argyris 1995:7, Christensen 1997:18). Læring kan<br />
foregå på flere niveauer. Foretager en organisation løbende justeringer af sine<br />
handlinger ud fra den eksisterende handlingsnormer, taler man om enkeltsløjfet<br />
læring, men i det tilfælde organisationen begynder at ændre disse handlingsnormer,<br />
er der tale om dobbeltsløjfet læring (Argyris 1995:8, Dahler-Larsen 1998:39f.). Et<br />
eksempel fra vores kontekst er, at der er tale om enkeltsløjfet læring, når Danida<br />
korrigerer udførelsen af et medieprojekt på baggrund af en kritisk evaluering, mens<br />
Danida går ind i en dobbeltsløjfet læringsproces, hvis organisationen revurderer om<br />
mediebistandsaktiviteter overhovedet har relevans i forhold til at nå de overordnede<br />
udviklingsmål.<br />
Læringsevalueringer er kendetegnet ved at have til formål at justere og forbedre en<br />
aktivitet, og målgruppen for evalueringen er aktivitetens deltagere og ledelse (Patton<br />
1996:131). Der findes imidlertid forskellige opfattelser af læringsbegrebet inden for<br />
læringsevalueringstraditionen. Den slagordsagtige status som læringsbegrebet har<br />
fået, betyder at termen optræder ofte – men i forskellige betydninger – i evaluerings-<br />
litteraturen. Det kan give anledning til nogen forvirring (som vi også skal se<br />
eksemplificeret i analysen), og vi vil derfor bruge lidt plads på at klarlægge de to<br />
hovedbetydninger, som læringsbegrebet har i evalueringssammenhæng. Inspireret af<br />
Nymark 1997 og Krogstrup 2001 skelner vi mellem to former for læring: (1)<br />
konsensusbaseret læring, som antager at organisationer er harmoniske enheder og (2)<br />
konfliktbaseret læring, der betragter organisationer som arenaer for interesse-<br />
konflikter 23 . Som vi vil uddybe i det følgende, placerer førstnævnte læringsforståelse<br />
sig inden for den evalueringsteoretiske kontroldiskurs, mens sidstnævnte<br />
repræsenterer en selvstændig diskurs, som vi behandler under betegnelsen partici-<br />
patorisk læringsdiskurs.<br />
22 Feedback defineres som ”Tilbagemelding om resultatet af en indsats og vurderingen heraf med<br />
henblik på læring” (Dansk Evaluerings Selskab 2004:10).<br />
23 Der findes adskillige bestræbelser i evalueringslitteraturen på at skelne mellem de to<br />
læringsopfattelser (Chen 1996, Fetterman 1996, Guba & Lincoln 1987, Patton 1994). Vores<br />
gennemgang baserer sig primært på Nymark 1997, af hvem vi låner termerne ’konsensusbaseret’ og<br />
’konfliktbaseret’ læring, samt på Krogstrup 2001 (top-down vs. bottom-up læring).<br />
43
4.3.1. Konsensusbaseret læring<br />
Den konsensusbaserede læringsopfattelse kan illustreres ved hjælp af en hologram-<br />
metafor (Morgan 1986:100f.). I et hologram afspejler hver enkelt del hele billedet, og<br />
samme princip gør sig gældende, når en organisation søges opbygget således, at hver<br />
enkelt medarbejder repræsenterer den samlede virksomheds værdier og visioner –<br />
”the corporate DNA” (ibid.:103). At betragte organisatoriske læreprocesser ud fra en<br />
hologrammetafor indebærer således en forestilling om ”en fælles vision”<br />
(Christensen 1997:25) ledelse og medarbejdere imellem.<br />
Hvor evaluatoren i kontrolevalueringer alene skulle sørge for at tilvejebringe data om<br />
evalueringsgenstanden, har vedkommende i en læringsevaluering også til opgave at<br />
tilse, at den fundne viden omsættes til nye handlingsformer. Det er derfor nødvendigt<br />
at inddrage både opdragsgiveren og de evaluerede aktører i processen med henblik på<br />
at sikre sig, at de føler ejerskab overfor evalueringsresultaterne (Scriven 1967:45).<br />
Ifølge Scriven må inddragelsen af de øvrige evalueringsaktører dog på intet tidspunkt<br />
blive så radikal, at evaluatoren mister styringen med processen, sådan at resultaternes<br />
validitet kan drages i tvivl. Sker dette, er der nemlig ikke længere tale om en<br />
evaluering, mener Scriven, som hævder, at kontroldiskursens formkrav er<br />
konstituerende for selve evalueringsdefinitionen. Han betragter ikke en<br />
bedømmelsesaktivitet som en evaluering, hvis den ikke forholder sig til nytteværdien<br />
af en given aktivitet og lever op til kravene om objektivitet, systematisk<br />
metodeanvendelse, samt en afrapportering, som indeholder en klar konklusion<br />
formuleret af evaluator (Scriven 1996:154).<br />
I Scrivens formulering er der således en række ligheder mellem den konsensus-<br />
baserede evalueringstilgang og kontrolevalueringer, idet begge typer er orienteret<br />
mod resultatforbedring, har fokus på ledelsens/opdragsgiverens værdier og betragter<br />
virkeligheden som besiddende en vis grad af stabilitet og harmoni. At der derfor ikke<br />
er tale om en ny evalueringsteoretisk diskurs, underbygges af, at Scriven betragter<br />
formativ evaluering som et delelement i en summativ evaluering 24 :<br />
Formative evaluation is, to a large extent, best designed as summative<br />
evaluation of an early version. (Scriven 1997:498-499)<br />
På baggrund af ovenstående kan vi slå fast, at konsensusbaserede læringsevalueringer<br />
nok repræsenterer en anden metode og tilgang til evaluering, men ikke en<br />
selvstændig evalueringsdiskurs, idet de grundlæggende ontologiske, epistemologiske<br />
og metodologiske antagelser svarer til kontroldiskursens. En model over relationen<br />
24 For Scriven er forskellen mellem kontrol- og læringsevalueringer et spørgsmål om variation<br />
i metoden og forskellig anvendelse: ”There are many cases (…) where both formative and<br />
summative purposes can be served by a single evaluation” (Scriven 1996:154).<br />
44
mellem kontrolevalueringer og konsensusbaserede læringsevalueringer ser således<br />
ud:<br />
Evalueringsteoretisk diskurs Kontroldiskurs<br />
Evaluerings rolle Redskab til kontrol Redskab til læring<br />
Evalueringstype Kontrolevaluering Konsensusbaseret<br />
læringsevaluering<br />
Figur 4c<br />
4.3.1.1. Kritik af konsensusbaserede læringsevalueringer<br />
Vi vil her redegøre for to væsentlige kritikpunkter af den konsensusbaserede lærings-<br />
opfattelse, som har dannet udgangspunkt for formuleringen af et konfliktbaseret<br />
alternativ.<br />
Først og fremmest kritiseres konsensusforståelsen for sin antagelse om organisatorisk<br />
harmoni. Spørgsmålet om, hvem der lærer hvad til hvem, det vil sige spørgsmålet om<br />
magtrelationer i evalueringsprocessen, er ikke relevant i den konsensusbaserede<br />
læringsforståelse, idet organisationen betragtes som en harmonisk enhed, som både er<br />
ophav til og genstand for læringen. Målgruppen for læringen er således hele<br />
organisationen – læring er ”for alle” (Laursen 1997:52). Kritikere af den konsensus-<br />
baserede evalueringstilgang hævder, at den vage målgruppebetegnelse dækker over,<br />
at ledelsens holdning i virkeligheden er facit – den ’rigtige’ læring er den, der kan<br />
skabes konsensus med opdragsgiverens/ledelsen om (Preskill & Torres 1999:14).<br />
Den inddragelse af opdragsgiver og de evaluerede aktører, som finder sted i en<br />
konsensusbaseret læringsevaluering, mener fortalerne for den konfliktbaserede<br />
tilgang derfor er en ”pseudo-inddragelse” (Krogstrup 2001:199), hvor de evaluerede<br />
aktører foregøgles en reel indflydelse, mens de i virkeligheden påduttes ledelsens/<br />
opdragsgiverens værdier under dække af konsensus (Torres, Preskill & Piontek<br />
1997).<br />
Derved udøver den konsensusbaserede læringsevaluering magt på en subtil vis, en<br />
magtudøvelse, der af Foucault betegnes som bekendelse (Foucault 1980:191).<br />
Bekendelsen bygger ligesom den panoptiske overvågning på, at individet<br />
disciplinerer sig selv ud fra en forventning om omverdenens blik og normer. Hvor<br />
panoptisk overvågning indebærer uvisheden om det kontrollerende blik, er<br />
bekendelsen som magtform baseret på de normalitetsstandarder, som håndhæves i en<br />
given kontekst. Hvis normen i en evaluering eksempelvis er, at ’vi skal diskutere,<br />
hvordan projektledelsen kan forbedre sin indsats’ og en af deltagerne i stedet foreslår,<br />
at hele ledelsen fyres, så bryder vedkommende med den gældende norm for, hvad der<br />
er acceptabelt at foreslå og vil opleve at normen sanktioneres af enten evaluatoren<br />
eller en anden evalueringsaktør (Preskill & Torres 1999:54).<br />
45
Dette leder over i et beslægtet kritikpunkt mod konsensusbaserede lærings-<br />
evalueringer, nemlig at de kun sætter organisationen i stand til at foretage enkelt-<br />
sløjfede læringsprocesser. De diskussioner og forslag, som kommer frem i<br />
evalueringen, vil nemlig holde sig inden for de handlingsnormer og rammer, som<br />
ledelsen/opdragsgiveren har opstillet på forhånd. Derved kommer evalueringer af<br />
denne type ifølge Krogstrup til at virke som en legitimering og styrkelse af ledelsens<br />
kurs snarere end som en udfordring. Vil man anvende en evaluering som en<br />
anledning til at stille spørgsmålstegn ved organisationens grundlæggende antagelser<br />
og værdier, skal man altså fjerne sig fra det konsensusbaserede læringsperspektiv og i<br />
stedet bedrive det, Krogstrup kalder ’bottom-up inddragelse’, som baserer sig på en<br />
konfliktbaseret læringsforståelse (Krogstrup 2001:205).<br />
4.3.2. Den participatoriske læringsdiskurs<br />
Konfliktbaseret læring er den mest gængse læringsforståelse inden for evaluerings-<br />
teori, og traditionen tager afsæt i kritikken af kontrolevalueringer og den konsensus-<br />
baserede læringsforståelse 25 . Som modsvar til disse evalueringsforståelser er der<br />
formuleret en lang række alternative tilgange, såsom ”fjerdegenerationsevaluering”<br />
(Guba & Lincoln 1987), ”participatory evaluation” (Preskill & Torres 1999),<br />
”developmental evaluation” (Patton 1996), ”empowerment evaluation” (Fetterman<br />
1996) og den danske variant ”BIKVA-modellen” (Krogstrup 2001) 26 . Fælles for disse<br />
evalueringsmetoder er, at de plæderer for en høj grad af inddragelse af de evaluerede<br />
aktører i alle evalueringsprocessens trin. Som vi vil redegøre for i det følgende, er der<br />
tale om en evalueringsforståelse, der repræsenterer en selvstændig evaluerings-<br />
teoretisk diskurs, en participatorisk læringsdiskurs. Denne deler i vid udstrækning<br />
tankegods med den kritiske udviklingsdiskurs, i gennemgangen af hvilken vi<br />
introducerede begreberne participation og myndiggørelse.<br />
4.3.2.1. Den participatoriske læringsdiskurs’ demokratiske<br />
legitimeringsgrundlag<br />
Den participatoriske læringsdiskurs argumenterer for sin berettigelse på to fronter:<br />
dels fremføres et vidensargument om, at de evaluerede aktører har større indsigt i<br />
evalueringsgenstanden end både opdragsgiver og evaluator, og at en høj grad af<br />
inddragelse derfor er central for evalueringens validitet og anvendelighed (Patton<br />
1986:20f.). Derudover henter diskursen sin legitimitet i et værdiargument, som<br />
baserer sig på et demokratisyn, som kan betegnes deltagelsesdemokratiet (Hansen<br />
2004). I deltagelsesdemokratiet står den demokratiske samtale og dialog i centrum,<br />
25 Nymark 1997:59 bemærker, at den konsensusbaserede læringsopfattelse er dominerende inden for<br />
ledelsesteorien, mens den konfliktbaserede er langt den mest udbredte inden for evalueringsteorien.<br />
Forklaringen herpå skal givetvis findes i det forhold, at organisations- og managementteori ofte er<br />
skrevet ud fra et ledelsessynspunkt, mens evalueringsteorien er skrevet af konsulenter, der gerne ser sig<br />
selv som forandringsagenter.<br />
26 BIKVA står for ”Brugerinddragelse i kvalitetsvurdering”. Modellen er udviklet af Hanne-Kathrine<br />
Krogstrup.<br />
46
og borgerne tager via deres deltagelse selv ansvar for en effektiv udnyttelse af<br />
ressourcerne, modsat den konkurrencedemokratiske opfattelse, hvor den valgte elite<br />
er garant. Fortalere for participatoriske læringsevalueringer fremfører det værdi-<br />
mæssige standpunkt, at evaluering som indflydelsesrig dimension bør medvirke til at<br />
støtte realiseringen af et demokratisk samfund gennem folkelig inddragelse, hvilket<br />
stiller krav til evalueringen om at fungere som ramme omkring dialog mellem alle<br />
interessenter i en evalueringsproces (Patton 1996:137).<br />
This [evaluation] process is fundamentally democratic. It invites (if not<br />
demands) participation, examining issues of concern to the entire community<br />
in an open forum. (Fetterman 1996:5)<br />
Participationsdiskursen anerkender eksistensen af menings- og interesseforskelle,<br />
men søger samtidig – i overensstemmelse med demokratiidealet – at tilstræbe<br />
symmetri og lydhørhed i evalueringsprocessen. Den lærer-elev-asymmetri, som<br />
ifølge kritikerne gør sig gældende i den konsensusbaserede læringsforståelse,<br />
forsøger det konfliktorienterede alternativ at gøre op med ved at stille krav til<br />
evaluatorens metode. Evaluatoren bør se sig selv som en facilitator, der er åben og<br />
parat til at lære noget af de evaluerede aktører, da disse kender konteksten bedre end<br />
evaluatoren gør. Det kræver, at evaluatoren solidariserer sig med de evaluerede<br />
aktører og ikke først og fremmest ser sig selv som en repræsentant for et sæt<br />
’objektive’ kriterier, der er forhandlet på plads mellem evaluator og opdragsgiver.<br />
Hvor den konsensusbaserede opfattelse betragtede organisationen som et harmonisk<br />
hele, træder den participatorisk orienterede evaluator ind som en forandringsagent i<br />
en antaget konflikt mellem organisationens top og bund, og søger at styrke ’bunden’<br />
gennem inddragelse og myndiggørelse (Preskill & Torres 1999:55, Guba & Lincoln<br />
1987:215, Fetterman 1996:11, Patton 1996:136, Kapoor 2004:160).<br />
4.3.2.2. Fokus på processen<br />
Jævnfør demokratiidealet er det væsentligt inden for den participatoriske lærings-<br />
diskurs, at forandringer sker på baggrund af de evaluerede aktørers motivation og<br />
viden – frem for med udgangspunkt i opdragsgiverens interesser (Kapoor 2004:160).<br />
Forandringerne finder sted løbende i evalueringsprocessen, efterhånden som<br />
deltagerne opnår nye indsigter, og det giver derfor ikke mening i denne diskurs at<br />
betragte evaluering som et neutralt måleværktøj, der vurderer en upåvirket<br />
evalueringsgenstand fra en vis distance. Evalueringen er en læreproces, i hvilken<br />
genstanden forandres og påvirkes aktivt af alle medvirkende aktører, hvorfor fortalere<br />
for tilgangen hævder, at: ”The process is the outcome” (Patton 1996:135).<br />
Hermed bryder den participatoriske læringsdiskurs med kontroldiskursens<br />
uafhængigheds- og objektivitetsnorm. Det vigtigste kvalitetskriterium for en<br />
evaluering er relevans, og det har betydning både for valg af evalueringsmetode og<br />
evaluatorens rolle.<br />
47
Hvad angår evalueringsmetoden betragter fortalerne for participatoriske lærings-<br />
evalueringer kontroldiskursens positivistisk orienterede måleredskaber for<br />
begrænsende og irrelevante. ”Clarity, specificity and measurability are limiting”,<br />
hævder Patton (1996:135) og gør sig i stedet til talsmand for anvendelsen af<br />
kvalitative, kontekstnære metoder, som ikke tilstræber entydighed. I henhold til en<br />
konfliktbaseret læringsforståelse betragtes verden som flertydig, og derfor er det en<br />
betingelse for en evaluerings anvendelighed og validitet, at den indfanger denne<br />
flertydighed, har et eksplorativt design, lader kriterier opstå undervejs i processen og<br />
afspejler de forskellige synspunkter i afrapporteringen (Guba & Lincoln 1987:208,<br />
Patton 1996:135, Kapoor 2004:160).<br />
4.3.2.3. Relevans og tillid<br />
Evaluatorens rolle adskiller sig inden for denne evalueringsteoretiske diskurs markant<br />
fra den uafhængige og distancerede rolle, som kontroldiskursen foreskriver. Den<br />
participatoriske evalueringslitteratur fremhæver, at evaluator bør have et tæt<br />
tillidsforhold til de evaluerede aktører, da dette er en forudsætning for, at de indgår i<br />
læringsprocessen med den fornødne åbenhed og ærlighed (Guba & Lincoln<br />
1987:222, Snyder & Doan 1995:146, Preskill & Torres 1999:156). Patton beskriver<br />
sin evaluatorrolle således:<br />
I become part of the team, not apart from the team. I participate in decisionmaking<br />
about the program and facilitate discussion about how to evaluate<br />
whatever happens. (Patton 1996:136)<br />
Den metodeanvisende litteratur argumenterer således mod kontroltilgangens<br />
distancerede og dømmende evaluatorfigur og for en participatorisk metode ud fra en<br />
holdning om, at ”evaluation is too important to be left to evaluators” (ibid.:139).<br />
På baggrund af ovenstående kan vi definere participatoriske læringsevalueringer som<br />
procesorienterede evalueringer, der har til formål at forandre og forbedre evaluerings-<br />
genstanden gennem løbende dialog og gensidig læring de involverede aktører<br />
imellem. Evaluatorens rolle er faciliterende, og vedkommendes fornemste opgave er<br />
at sikre, at de evaluerede aktører får nye indsigter, tager ejerskab og bliver myndig-<br />
gjort i løbet af en samarbejdsstyret proces. Den participatoriske evalueringsdiskurs’<br />
væsentligste kvalitetskriterium er relevans, og tilgangen har en forkærlighed for<br />
kvalitative, eksplorative evalueringsmetoder.<br />
4.3.2.4. Kritik af den participatoriske læringsdiskurs<br />
En kritik, som rettes mod læringsevalueringer generelt – både konsensusbaserede og<br />
participatoriske – er læringsbegrebets bias: ”Formative evaluation carries a bias about<br />
making something better” (Patton 1996:135). Den konsensusbaserede lærings-<br />
forståelse kritiseres for at anvende læringsbegrebet som en trylleformular: Jo mere<br />
læring, desto bedre, og jo flere barrierer mod læring, desto værre:<br />
48
Forestillingen om den lærende organisation er I dag blevet til et slogan og en<br />
populær organisationsopskrift (…). Med til at sælge den er sandsynligvis, at<br />
den virker optimistisk og uden modhager (hvem er imod læring?) (Dahler-<br />
Larsen 1998:33).<br />
Men selvom den participatoriske læringsdiskurs søger at gøre op med den konsensus-<br />
baserede læringsforståelse og i stedet ser læringsprocessen som en interesse- og<br />
værdikamp, så kan diskursen stadig ikke sige sig fri for normativitet. Kritikere peger<br />
på, at den participatoriske evalueringslitteratur har klar tendens til at foreskrive en<br />
solidaritet mellem evaluatoren og de evaluerede aktører, hvilket ofte indebærer en<br />
afstandtagen fra opdragsgiveren 27 . Det betyder på den ene side, at evaluatoren vil<br />
være tilbøjelig til at betragte den læring og de værdier, som formuleres af de<br />
evaluerede aktører, for værende mere sande end ledelsens synspunkter – og dermed<br />
gør diskursen reelt ikke op med forestillingen om en objektiv sandhed og en rigtig/<br />
forkert læring (Preskill & Torres 1999:13-14). På den anden side vil evaluatorerne<br />
efter kritikernes mening være tilbøjelige til at tage parti for enhver forandring, der<br />
udgår fra de evaluerede aktører, alene fordi det er en forandring, som udfordrer<br />
organisationens magtbalance (Høgsbro & Rieper 2001:183).<br />
Et andet kritikpunkt går på den participatoriske evalueringsmetodes utilstrækkelighed<br />
til at garantere reel participation. Participationsdiskursen har øje for, at<br />
evalueringernes kontekst er modsætnings- og konfliktfyldt, men betragter dialogen i<br />
evalueringsprocessen som herredømmefri i overensstemmelse med demokratiidealet<br />
(Hansen 2003:35). Kritikere peger dog på, at begreber som dialog, deliberation og<br />
inklusion er så svagt formulerede, at evaluator får et stort råderum til at definere sin<br />
egen indflydelse. Dermed tilslører den deltagelsesdemokratiske retorik omkring<br />
evalueringsprocessen evaluatorens reelle magt (Krogstrup 2001:204).<br />
Sidst, men bestemt ikke mindst, skal kontroldiskursens kritik af participatoriske<br />
læringsevalueringer nævnes. Vi har tidligere beskrevet, at fremtrædende evaluerings-<br />
forskere som Scriven slet ikke betragter participatorisk evaluering som evaluering.<br />
Han kritiserer metoden for manglende klarhed og systematik omkring kriterier,<br />
udførelse og afrapportering og advarer mod at sammenblande evalueringsopgaven<br />
med proceskonsulentbistand (Scriven 1997:481f.). De participatoriske lærings-<br />
evalueringer er ifølge kritikere alt for følsomme overfor særstandpunkter og har et for<br />
snævert perspektiv, hvorfor deres validitet og dermed deres anvendelighed i det hele<br />
taget kan drages i tvivl (Scriven 1996:158). Fra et værdimæssigt synspunkt angribes<br />
de participatoriske læringsevalueringer for at negligere den demokratiske styrings-<br />
27 Se Guba & Lincoln 1987:208, Kapoor 2004:161 for eksempler på implicitte solidaritetserklæringer<br />
med ’the people’/’the participants’. Preskill og Torres 1999 afbilder endvidere den organisatoriske<br />
læringsproces som en fremad- og opadgående linie med læringsevalueringer markeret som små<br />
refleksive løkker, og indikerer dermed, at participatoriske læringsevalueringer fører organisationer mod<br />
fremskridt og forbedringer (Preskill & Torres 1999:185).<br />
49
kæde og ikke tage højde for den offentlige administrations behov for ansvarliggørelse<br />
og kontrol (Krogstrup 2001:204).<br />
4.3.3. Opsummering: to forskellige læringsforståelser<br />
Vi har nu indført et skel mellem konsensusbaserede og participatoriske lærings-<br />
evalueringer og argumenteret for, at de hører hjemme under hver deres evaluerings-<br />
diskurs, som vi har benævnt hhv. kontrol- og participationsdiskursen. Der er altså stor<br />
forskel på, hvad man taler om, når man taler om læring i evalueringsøjemed, og<br />
grænserne er bestemt ikke altid klare – hverken i evalueringslitteraturen eller i<br />
praksis. På skemaform kan forskellene mellem de to læringsforståelser skitseres<br />
således:<br />
Evalueringsteoretisk<br />
diskurs<br />
Konsensusbaseret<br />
læringsevaluering<br />
Participatorisk læringsevaluering<br />
Kontroldiskurs Participatorisk læringsdiskurs<br />
Læringsbegreb Konsensusbaseret læring Konfliktbaseret læring<br />
Evalueringens<br />
kontekst<br />
Kilde til organisatorisk<br />
forandring<br />
Inddragelse af<br />
evalueringsaktører<br />
Figur 4d<br />
Organisatorisk harmoni Interessekonflikt mellem organisationens<br />
top og bund<br />
Ledelsen/opdragsgiveren Medarbejderne/de evaluerede aktører<br />
Top-down inddragelse med formålet<br />
at øge ejerskabet til evalueringsresultaterne<br />
Bottom-up inddragelse med formålet at<br />
styrke de evaluerede aktørers myndiggørelse.<br />
4.4. Forskelle og ligheder mellem de to evalueringsteoretiske<br />
diskurser<br />
Med udgangspunkt dels i hovedværker inden for den amerikanske, metodeanvisende<br />
evalueringslitteratur og dels i nyere skandinavisk samfundsvidenskabelig<br />
evalueringsforskning har vi arbejdet os frem til følgende klassificering af<br />
evalueringsdiskurser, -tilgange og -typer.<br />
Evalueringsteoretisk<br />
diskurs<br />
Evalueringstype Kontrolevaluering Konsensusbaseret<br />
læringsevaluering<br />
Kontroldiskurs Participatorisk læringsdiskurs<br />
Participatorisk læringsevaluering<br />
50
Evaluerings rolle Redskab til kontrol Redskab til læring<br />
Figur 4e<br />
Først og fremmest har vi forsøgt at udrede nogle af de teoretiske uklarheder om,<br />
hvilke forståelser af begrebet læring, der florerer i evalueringssammenhæng. I den<br />
forbindelse er vi kommet frem til en skelnen mellem evalueringstyperne konsensus-<br />
baseret og participatorisk læringsevaluering. Vi har argumenteret for, at de to<br />
opfattelser hører til hver sin diskurs, der er præget af vidt forskellige ontologiske,<br />
epistemologiske og metodologiske antagelser. Disse to diskurser har vi betegnet<br />
kontroldiskursen og den participatoriske læringsdiskurs.<br />
4.4.1. En note om fremstillingen<br />
Det er vigtigt for os at understrege, at de teoretiske distinktioner, som ligger til grund<br />
for modellen er foretaget på baggrund af vores indsamlede empiri i overens-<br />
stemmelse med Foucaults genealogiske metodeanvisninger. Prisen for en klar,<br />
akademisk fremstilling med teoriafsnittet først, metodeafsnittet i midten og analysen<br />
til sidst er, at det tætte samspil mellem vores eksplorative analyseproces og arbejdet<br />
med teorien ikke fremstår så tydeligt for læseren, som vi kunne ønske os – derfor<br />
dette lille mellemspil. I specialeprocessens begyndelse arbejdede vi ud fra et ønske<br />
om at undersøge, hvorfor man i evalueringsteorien skelner så skarpt mellem lærings-<br />
og kontrolevalueringer, mens Danida – i lighed med andre offentlige opdragsgivere<br />
herhjemme – bestiller evalueringer med et dobbelt formål. Med Hansens ord fandt vi<br />
det paradoksalt, at mens evalueringslitteraturen lægger op til heterogenitet og<br />
differentiering i konstruktionen af standarder afhængigt af om formålet er kontrol<br />
eller læring, er praksis kendetegnet ved forsøg på at homogenisere standarderne<br />
(Hansen 2001:117). En del af svaret har vi allerede givet nu: læring er ikke bare<br />
læring – der er stor forskel på, hvad praktikere og teoretikere forstår ved begrebet<br />
’læringsevaluering’. Vi har på den baggrund bragt undersøgelsesspørgsmålet et skridt<br />
videre, så vi nu fokuserer på, hvilke konsekvenser begrebsforvirringen og tilstede-<br />
værelsen af flere evalueringsdiskurser i en og samme evalueringspraksis afføder.<br />
4.4.2. Forskelle<br />
I gennemgangen af den konsensusbaserede læringsforståelse tog vi hul på<br />
diskussionen om, hvorvidt lærings- og kontrolevalueringer kan gå hånd i hånd eller er<br />
i modstrid med hinanden. Vi præsenterede Scrivens synspunkt om, at en konsensus-<br />
baseret læringsevaluering med fordel kan betragtes som et led i en kontrolevaluering,<br />
mens han tager så stor afstand fra participatoriske læringsevalueringer, at han slet<br />
ikke betragter denne praksis som evaluering. Scrivens holdninger illustrerer tydeligt,<br />
51
at diskussionen om kontrol overfor læring afhænger af, hvilken læringsopfattelse,<br />
man taler ud fra. Fortalere for participationsdiskursen vender sig mod Scrivens og<br />
andres påstand om at kontroldiskursens formkrav er konstituerende for evaluerings-<br />
definitionen: ”Summative evaluation is not the apex or Holy grail” 28 . Patton, Preskill<br />
og andre participationsorienterede evaluatorer argumenterer i stedet for, at<br />
participatorisk læringsevaluering er en selvstændig tradition med sin egen<br />
berettigelse, metode, erkendelsesinteresse og målgruppe, der adskiller sig markant fra<br />
kontrolevalueringens. De to evalueringsdiskursers repræsentation og påvirkning af<br />
genstandens indholdsmæssige og tidslige aspekt, samt af de identiteter og relationer,<br />
som knytter sig til genstanden, er med andre ord så forskellige fra hinanden, at de<br />
ikke kan kombineres (Preskill & Torres 1999:11, Patton 1994, Perry & Backus 1995,<br />
Kapoor 2004:164, Fetterman 1996).<br />
Uanset hvorvidt evalueringsteoretikerne betragter participatoriske lærings-<br />
evalueringer som en evalueringsform eller ej, kan alle således enes om, at uoverens-<br />
stemmelserne mellem diskurserne er for store til at forestille sig de to evaluerings-<br />
formål tilgodeset i samme proces. Kontroldiskursens objektivitetskrav vil modarbejde<br />
participationsdiskursens relevanskrav og omvendt, resultat- og procesorienteringen<br />
vil føre evalueringens fokus i modstridende retninger, og evaluatoren kan ikke på<br />
samme tid være distanceret og interagere åbent med de evaluerede aktører.<br />
Forskellene og diskussionerne mellem de to diskurser er således mange og store, men<br />
der er dog også en række lighedspunkter.<br />
4.4.3. Ligheder<br />
Både kontrol- og participationsdiskursen forudsætter organisatorisk rationalitet. Hvor<br />
kontroldiskursen baserer sig på bureaukratiet som den gennemgående organisations-<br />
teoretiske metafor og antager, at der går en lige linie mellem organisationens<br />
præferencer og handlinger, opererer participationsdiskursen med et ideal om en<br />
lærende organisation, der gennem refleksion og forhandling når en stadig højere grad<br />
af indsigt og tilpasningsevne (Albæk 2001:33f.). Denne rationalitetsforudsætning<br />
smitter af på perspektivernes syn på evaluering som en grundlæggende lineær og<br />
rationel foreteelse. Begge diskurser arbejder med antagelsen om, at evalueringer kan<br />
anvendes som instrument til at nå et på forhånd fastsat mål, og at dette mål er<br />
bestemmende for evalueringens design, udførelse og anvendelse. Med andre ord<br />
antages forholdet mellem formål og funktion at være 1:1, og netop derfor anses det<br />
for så vigtigt at afklare evalueringens formål på forhånd (Dahler-Larsen 2004:26).<br />
Med vores teoretiske perspektiv på evaluering som forhandlingsknudepunkt,<br />
diskursiv praktik og grænseobjekt, tager vi afstand fra antagelsen om evalueringers<br />
grundlæggende rationalitet. Denne antagelse implicerer nemlig en forestilling om, at<br />
28 Patton citeret i Chen 1996:142.<br />
52
en evaluering har en særlig ’essens’, som sørger for, at den forløber i overens-<br />
stemmelse med dens oprindelige mål. Med introduktionen af translationsbegrebet har<br />
vi søgt at anskueliggøre, at en evaluering kun iværksættes, udføres og anvendes, fordi<br />
aktører konstant interagerer med den i overensstemmelse med deres egne interesser.<br />
Vi kan i denne forståelsesramme også forklare, hvorfor en evaluering sjældent vil<br />
kunne karakteriseres som enten en læringsevaluering eller en kontrolevaluering –<br />
forskellige aktører kan opfatte samme evalueringsforløb forskelligt, hvorfor der<br />
snarere vil være tale om et både-og.<br />
I kapitlerne 7-11 præsenterer vi en analyse af, hvordan forskellene og lighederne<br />
mellem de to evalueringsdiskurser manifesterer sig i Danidas evalueringspraksis. Det<br />
følgende kapitel diskuterer de i alt fire udviklings- og evalueringsteoretiske diskurser<br />
i forhold til hinanden og indeholder desuden vores overvejelser om normativitet i<br />
diskursanalysen.<br />
53
5. Udviklings- og evalueringsteoretisk<br />
opsummering<br />
I afsnit 2.2. rejste vi spørgsmålet om, hvordan man afgrænser en diskurs. Det gøres<br />
ifølge Foucault (Foucault 1991) ved at se på dens forskel fra andre diskurser, hvorfor<br />
vi i gennemgangen af udviklings- og evalueringsteoretiske diskurser har taget afsæt i<br />
de uenigheder, som kommer til udtryk i litteraturen. Som det især fremgår af kapitel<br />
4 om evalueringsdiskurser, har vi, i overensstemmelse med Foucaults genealogiske<br />
metode desuden løbende forholdt den teoretiske skelnen til resultaterne af vores<br />
empiriske undersøgelse af Danidas evalueringspraksis, og derigennem søgt at<br />
kvalificere begge dele. Endelig har vi afgrænset diskurserne i forhold til, hvilket felt<br />
de manifesterer sig på – og har på den baggrund adskilt evaluerings- fra udviklings-<br />
diskurser.<br />
5.1. Slægtskab mellem diskurser på tværs af felter<br />
Det står imidlertid klart, at der er et vist slægtskab mellem diskurserne på tværs af<br />
felter: Den udviklingsteoretiske moderniseringsdiskurs og den evalueringsteoretiske<br />
kontroldiskurs bygger begge på en positivistisk grundopfattelse, som medfører, at<br />
diskurserne indfører tydelige skel mellem henholdsvis rigtig/forkert og sandt/falsk.<br />
Dette betyder, at relationerne mellem de subjektpositioner, som diskurserne stiller til<br />
rådighed, defineres i forhold til en objektivitetsstandard. Med andre ord er den<br />
stærkeste aktør til enhver tid den, som kender ’virkeligheden’ bedst: Det være sig<br />
eksempelvis donor i moderniseringsdiskursen eller den objektive, uafhængige<br />
konsulent i kontroldiskursen. Anvendelsen af top-down metoder anses inden for<br />
begge diskurser at være til alles bedste, idet alle aktører har en fælles interesse i, at<br />
evalueringen/udviklingsprojektet er i overensstemmelse med den objektive sandhed.<br />
Både den kritiske udviklingsdiskurs og den participatoriske læringsdiskurs er<br />
formuleret i opposition til forestillingen om fælles interesser og objektivitet. Disse to<br />
diskurser deles om en kritisk, samfundsforandrende ambition og foreskriver<br />
solidaritet med de aktørgrupper, som de anser for undertrykte inden for henholdsvis<br />
moderniserings- og kontroldiskurserne: bistandsmodtagerne og de evaluerede<br />
aktører. Som følge heraf foreskriver de to diskurser anvendelse af bottom-up<br />
metoder, ligesom de har fælles idealer om participation og myndiggørelse af de<br />
svageste.<br />
54
5.2. En note om normativitet<br />
Både den udviklingsteoretiske moderniseringsdiskurs og den evalueringsteoretiske<br />
kontroldiskurs har været udsat for megen kritik, og der er således en høj grad af<br />
bevidsthed i litteraturen om disse diskursers normativitet. Dette gælder ikke i samme<br />
grad for den kritiske udviklingsdiskurs og den participatoriske læringsdiskurs, som –<br />
blandt andet fordi de er af nyere dato – ikke har undergået samme kritiske<br />
granskning 29 .<br />
Det teoretiske afsæt, vi redegjorde for i kapitel 2, har i kraft af dets fokus på brud,<br />
forhandlinger, interesser og processer flere lighedspunkter med den kritiske<br />
udviklingsdiskurs og den participatoriske læringsdiskurs end med det andet ’diskurs-<br />
par’ bestående af moderniserings- og kontroldiskursen. I forlængelse heraf er der en<br />
tendens til, at kritisk humanistisk og sociologisk evaluerings- og udviklingslitteratur<br />
betragter henholdsvis den kritiske diskurs og den participatoriske læringsdiskurs som<br />
mindre normative og mere politisk korrekte alternativer til deres ’undertrykkende’,<br />
normative modstykker. Eksempelvis munder Fergusons analyse af udviklings-<br />
projekter i Lesotho ud i en skarp kritik af moderniseringsdiskursen og en formulering<br />
af et kritisk alternativ – trods hans målsætning om ikke at ville analysere udvikling<br />
ud fra et normativt standpunkt.<br />
Vi ønsker ikke at forfalde til en sådan stillingtagen og betragter samtlige fire<br />
præsenterede udviklings- og evalueringsdiskurser som stærkt normative. Når vi ikke<br />
ønsker at forholde os til de værdier og den praksis, som kommer til udtryk i<br />
diskurserne, skyldes det, at det efter vores mening ville give sig udslag i et<br />
uinteressant analyseprojekt. Efter vores opfattelse er det ’for nemt’ at kritisere en<br />
relativt magtfuld og veletableret aktør som Danida for at basere sin praksis på<br />
forkerte, undertrykkende antagelser uden at tage Danidas virkelighed og interesser i<br />
betragtning. I stedet finder vi det mere interessant at undersøge diskursernes<br />
praktiske konsekvenser for styrkeforholdet på mediebistandsfeltet og diskutere dette<br />
under hensyntagen til aktørernes forståelseshorisonter, interesser og handlemønstre.<br />
Vi vender tilbage til slægtskaberne mellem de evaluerings- og udviklingsteoretiske<br />
diskurser i specialets analysedel, hvor vi også tager normativitetsdiskussionen op<br />
igen i forbindelse med vores målsætning om at vurdere, hvordan Danida kan styrke<br />
sin evalueringspraksis. Inden vi når så langt, vil vi i det følgende præsentere den<br />
analysemetode, vi har anvendt, og diskutere denne i forhold til det teoretiske afsæt.<br />
29 En undtagelse er antologien Participation – The New Tyranny? fra hvilken David Mosses artikel:<br />
“‘People’s Knowledge’, Participation and Patronage: Operations and Representations in Rural<br />
Development” fra 1991 stammer. Denne bog er et af de indtil videre eneste kritiske opgør med den<br />
kritiske udviklingsdiskurs.<br />
55
6. Metode<br />
Fra de foregående kapitlers fokus på teoridannelser inden for undersøgelsens<br />
genstandsfelt vil vi nu rette blikket mod en analyse af samspillet mellem<br />
dominerende evaluerings- og udviklingsteoretiske diskurser og evaluering af dansk<br />
mediebistand som en diskursiv praktik. Analysen baserer sig på otte rapporter og<br />
tretten interviews med ansatte i Danida, eksterne konsulenter og repræsentanter for<br />
Danidas partnere på mediebistandsområdet. I dette kapitel redegør vi for vores<br />
overvejelser i forbindelse med design og udførelse af undersøgelsen. Kapitlet tager<br />
udgangspunkt i den metodeteoretiske redegørelse, som er beskrevet i afsnit 2.1. og<br />
2.2.. Her blev den diskursanalytiske forståelsesramme, som udgør fundamentet for<br />
selve undersøgelsen, defineret, og i det følgende vil vi konkretisere, hvorledes<br />
Foucaults genealogiske metode operationaliseres. Indledningsvist redegøres i 6.1. og<br />
for den metodiske fremgangsmåde, hvorefter denne i afsnit 6.2. diskuteres i forhold<br />
til videnskabelighedsparametrene validitet, reliabilitet og generaliserbarhed. Afsnit<br />
6.3. indeholder en metodisk refleksion, hvor vi diskuterer fordele og ulemper ved den<br />
anvendte metode.<br />
6.1. Udvælgelse og behandling af empiri<br />
Vi har tidligere præsenteret de tre forskellige praksisfællesskaber, som er involveret i<br />
evaluering af dansk mediebistand: Opdragsgiver (Danida), evaluatorer (konsulenter)<br />
og de evaluerede aktører (Danidas partnere). Den ene del af undersøgelsens empiri<br />
består af tretten interviews med repræsentanter for disse tre praksisfællesskaber,<br />
mens den anden del udgøres af otte rapporter. Der redegøres først for udvælgelse og<br />
databehandling af dokumenter og dernæst rettes samme fokus mod interviewene.<br />
6.1.1. Udvælgelse og databehandling af dokumenter<br />
Danida opererer med fire forskellige typer af evalueringer og evalueringsdokumenter:<br />
(1) evalueringer, (2) reviews, (3) mål- og resultatstyring samt (4) projektrapportering.<br />
Af årsager som fremgår af følgende, beskæftiger vi os alene med evalueringer og<br />
reviews.<br />
Ad 1) Danida definerer ’evaluering’ som en bedømmelsesaktivitet, der varetages af<br />
Kontoret for Evaluering af udviklingsbistand (EK) og udføres af eksterne,<br />
uafhængige konsulenter. De nærmere detaljer i definitionen behandles i kapitel 7.<br />
Danidas operationelle definition er langt smallere end den teoretiske, som hidtil er<br />
anvendt i specialet. Evalueringer er typisk omfattende og bredt orienterede<br />
undersøgelser, som beskæftiger sig med enten et udvalgt tema (eksempelvis<br />
ligestilling i bistanden), en bestemt bistandsform (bistand gennem NGO’er eller<br />
nødhjælp), landeprogrammer (den samlede danske bistand til et enkelt land) eller den<br />
kan stille skarpt på udviklingsbistanden inden for en udvalgt sektor (sundhed eller<br />
56
undervisning) (Udenrigsministeriet 2004:2). Fremover – og med mindre andet er<br />
nævnt – lader vi i forlængelse heraf betegnelsen ’evaluering’ referere til Danidas<br />
operationelle definition og ikke til den teoretiske definition, som er blevet anvendt<br />
indtil nu.<br />
Ad 2) Et review er en undersøgelse, som foretages enten midtvejs eller ved<br />
slutningen af en bevillingsfase med henblik på at vurdere resultaterne af og fremtiden<br />
for en specifik indsats. I kraft af reviewenes retrospektive og systematiske karakter<br />
omfattes de af den teoretiske evalueringsdefinition, om end Danida skelner skarpt<br />
mellem et review og en evaluering. Vi redegør nærmere for forskelle og ligheder<br />
mellem reviews og evalueringer i kapitel 7.<br />
Ad 3) Mål- og resultatstyring varetages af Kontoret for kvalitetssikring af udviklings-<br />
bistanden (KVA) og har til hensigt at monitorere Danidas samlede indsats på<br />
årsbasis. Denne evalueringstype omhandler kun indirekte de konkrete bistands-<br />
aktiviteter, hvorfor vi ikke inddrager den i den aktuelle undersøgelse.<br />
Ad 4) Projektrapportering er en samlet betegnelse for den løbende dokumentation af<br />
projekters forløb. Rapporteringen udarbejdes i samarbejde mellem projekt-<br />
organisationen, en eventuel ekstern IO og Danida. I bilag 5 og afsnit 7.1.5.1. findes<br />
der oversigter over de obligatoriske typer projektdokumenter. Hovedparten af<br />
projektrapporteringen falder uden for vores evalueringsdefinition (jf. afsnit 1.4.2.),<br />
enten fordi dokumenterne ikke er retrospektive, eller fordi de ikke er gennemført<br />
systematisk. Projektrapportering indgår derfor kun indirekte i analysen af Danidas<br />
evalueringspraksis.<br />
6.1.1.1. Udvælgelse af review- og evalueringsrapporter<br />
Evaluerings- og reviewrapporterne er udvalgt efter en såkaldt ”maksimum variation”-<br />
strategi (Flyvbjerg 1991:150), som i nærværende kontekst indebærer, at vi på to<br />
områder har tilstræbt størst mulig variation i det samlede case-materiale: Dels har vi<br />
stilet efter en nogenlunde lige fordeling mellem evalueringer og reviews, dels har vi<br />
ønsket at undgå overrepræsentation af bestemte evaluatorer (konsulentfirmaer) og<br />
genstande (mediebistandsprojekter). Dette skyldes en bestræbelse på at opnå en vis<br />
grad af repræsentativitet i undersøgelsen. Genealogien foreskriver nemlig, at<br />
forskeren både skal have ”a knowledge of details” og ”a vast accumulation of<br />
material” (Foucault citeret i Flyvbjerg 1991:93), hvilket vi fortolker som et krav om<br />
både at have blik for så mange forskellige detaljer som muligt og samtidig kunne<br />
sikre, at analysen deraf vedrører mere end blot en enkelt case – eller måde at evaluere<br />
på.<br />
57
Arbejdet med udvælgelse af varierede cases har dog været begrænset af to forhold:<br />
For det første genbruger Danida i høj grad de samme konsulentfirmaer til at udføre<br />
reviews af mediebistandsprojekter, og for det andet er der stor forskel på, med<br />
hvilken frekvens de enkelte projekter udsættes for evalueringer og reviews. Begge<br />
dele medfører, at visse konsulenter og projekter indgår flere gange. Dette gælder to af<br />
konsulentfirmaerne, og desuden er der en overvægt af reviews og evalueringer af de<br />
to flagskibsprojekter inden for dansk mediebistand: Nordic-SADC School of<br />
Journalism (NSJ) og Media Institute of Southern Africa (MISA).<br />
Følgende review- og evalueringsrapporter indgår i analysen:<br />
Doku-<br />
menttype<br />
År:<br />
udført/<br />
udgivet<br />
Titel<br />
Forkortet titel<br />
Rapporthenvisning, registranthenvisning<br />
Evaluering 1999/00 Dansk støtte til fremme af MR & D: Medier<br />
Den generelle medieevaluering og Danida 2000A<br />
Evaluering 2002 Evaluering af NSJ: Nordic-SADC School of Journalism<br />
NSJ 02<br />
Evaluering 2002 Evaluering af Media Institute of Southern Africa<br />
Review<br />
(eval.) 30<br />
MISA 02<br />
2001/02 Evaluering/review af the Media Institute of Southern Africa<br />
MISA 01/02<br />
Review 2002 Review af dansk støtte til den lokale presse i Bangladesh<br />
Bangladesh 02<br />
Review 2002 Review af dansk støtte til fremme af en fri presse i Zambia<br />
Zambia 02<br />
Review 2003 Review af Nordic-SADC School of Journalism<br />
NSJ 03<br />
Review 2004 Review af Media Institute of Southern Africa<br />
Figur 6a<br />
MISA 04<br />
Evaluatorer/<br />
nationalitet<br />
Oxford<br />
Research/DK<br />
ECORYS/Holland<br />
& Imani Develop-<br />
ment/Zambia<br />
ECORYS/Holland<br />
& Imani Develop-<br />
ment/Zambia<br />
Media Consult&<br />
COWI/DK<br />
T&B Consult/DK<br />
Danicom/DK<br />
Danicom/DK<br />
Chigudu & Ass/<br />
Zimbabwe & kon-<br />
sulent fra<br />
Som skemaet viser, beror vores analyse på tre evalueringer og fem reviews af<br />
Danidas bilaterale mediebistand, som alle er udgivet efter 2000.<br />
BFT/Danida<br />
30 Når der kan være tale om en hybrid mellem en evaluering og et review skyldes det, at dokumentet er<br />
resultat af et donorsamarbejde mellem Danida, Hivos og Sida. De svenske og hollandske donoragenturer<br />
klassificerer bedømmelsesaktiviteten som en evaluering, mens det i Danida-regi har review-status.<br />
Grundet vores fokus på Danida betragter vi det fremover som et review.<br />
58
6.1.1.2. Databehandling af dokumenter: Tekstanalytiske værktøjer<br />
Analysen af evaluerings- og reviewrapporterne sker med henblik på at belyse det, vi<br />
tidligere med Dahler-Larsens betegnelse har kaldt evalueringers konstitutive<br />
virkninger. Det vil sige de måder, hvorpå teksterne (re)konstruerer ’det gode<br />
mediebistandsprojekt’ og de aktør-identiteter og relationer, der knytter sig<br />
mediebistanden. Til dette formål inddrager vi en metodisk værktøjskasse, som<br />
præsenteres af den britiske lingvist Norman Fairclough.<br />
Som det er tilfældet med Foucault, sættes Faircloughs navn i forbindelse med<br />
diskursanalyse. I Faircloughs forståelse er diskursbegrebet imidlertid væsens-<br />
forskelligt fra Foucaults udlægning. Mens Foucault betragter diskurs som udtryk for<br />
de historiske mulighedsbetingelser for produktionen af udsagn, er Faircloughs<br />
’kritiske diskursanalyse’ (Fairclough 1992) langt mere lingvistisk og tekstanalytisk<br />
orienteret, idet diskurs betragtes som sproglig medieret praksis (Fairclough<br />
1995A:135). Dette fundament i en mere tekstnær tradition betyder, at Faircloughs<br />
diskursanalytiske redskaber bedre lader sig operationalisere sammenlignet med<br />
Foucaults mere uklare metodeanvisninger. I analysen inddrager vi således nogle af<br />
Faircloughs værktøjer, som vi mener, kan bidrage til at afdække de diskursive<br />
rekonstruktioner af sociale identiteter, relationer og repræsentationen af verden, som<br />
kommer til udtryk i en given tekst. Det sker vel at mærke uden at abonnere på hans<br />
diskursbegreb og teoretiske fundament i øvrigt: her fastholder vi afsættet i Foucaults<br />
diskursbegreb 31 .<br />
Repræsentation og afdækning af ’det gode mediebistandsprojekt’<br />
En diskurs repræsenterer et bestemt videnssystem og sætter dermed rammer for,<br />
hvordan vi kan forstå og agere i verden. I dette speciale fokuseres på hvordan<br />
evalueringsrapporterne trækker på evaluerings- og udviklingsteoretiske diskurser i<br />
deres konstruktion af mediebistand, fordi det har betydning for, hvordan Danida og<br />
de øvrige involverede aktører kan handle på mediebistandsfeltet fremover. Specifikt<br />
undersøger vi teksternes valg af ord og argumentationsformer (Fairclough<br />
1992:75ff.) og ser desuden på fænomenet tilslutning (’affinitet’, ibid.:152ff.). Med<br />
tilslutning mener Fairclough den overbevisning, hvormed en påstand fremsættes,<br />
hvilket eksempelvis kan udtrykkes ved brug af værdiladede tillægsord, modalverber<br />
og understregende biord. I nedenstående sætning anvendes værdiladede tillægsord og<br />
modalverbet ”need” som en indikator på forfatternes tilslutning til udsagnet:<br />
31 Fairclough modererer den Foucault-inspirerede traditions socialkonstruktivistiske antagelse om, at den<br />
sociale virkelighed konstrueres gennem sproglig handlen ved at hævde, at der findes en virkelighed uden<br />
for diskursen (Fairclough 1992:64ff.). Diskurs er ifølge Fairclough både konstituerende for og<br />
konstitueret af social praksis. Han søger dermed at kombinere Foucaults magtbegreb med en marxistisk<br />
forståelse af socioøkonomiske strukturer som konstituerende for kulturel og sproglig praksis (Fairclough<br />
1992:56f., Jørgensen og Phillips 1999:27).<br />
59
This is an important issue, linking media with gender and poverty reduction,<br />
which needs to be included in the strategic planning document. (MISA<br />
01/02:45, vores understregning)<br />
Graden af tilslutning giver et fingerpeg om, hvad der tages for givet, og hvad der<br />
stilles spørgsmålstegn ved: Hvor nogle forhold ved genstanden præsenteres som<br />
indiskutable og uantastelige sandheder, gøres andre til genstand for diskussion. Det<br />
bidrager til konstruktionen af ’det gode mediebistandsprojekt’, som i dette citat er<br />
kendetegnet ved at tage højde for Danidas målsætninger om at bidrage til<br />
fattigdomsbekæmpelse og ligestilling mellem kønnene (Danida 2000B).<br />
Identiteter og relationer<br />
Enhver diskurs rummer et afgrænset antal subjektpositioner, som sprogbrugerne kan<br />
indtage, og derved former en evaluerings eller et review’s sprog de interagerende<br />
aktørers identiteter og relationer (Foucault 1991:58). Et indblik i de identiteter og<br />
relationer, som kommer til udtryk i en evalueringsrapport, fås ved at undersøge<br />
tekstens forfatter- og læseridentiteter samt ved at se på, hvilke aktører teksten<br />
fremstiller, og hvad relationen mellem dem er. Grammatisk kan en sådan analyse<br />
gribes an ved at fokusere på fænomenet transitivitet, det vil sige de måder, hvorpå en<br />
begivenhed forbindes med et subjekt og et objekt (Fairclough 1992:158ff.). Konkret<br />
ser vi i tekstanalysen nærmere på verbernes form (aktiv eller passiv), idet<br />
anvendelsen af passivkonstruktioner tilslører agens og fjerner ansvaret. Af denne<br />
sætning fremgår det eksempelvis ikke, hvem ophavsmanden til vurderingen er – er<br />
det donor, konsulenten eller de evaluerede aktører selv, som mener, at indsatsen ikke<br />
står mål med bistandens størrelse?<br />
The training, however, is not regarded as being impressive in comparison with<br />
the amount of funding they have received. (Danida 2000A:35, vores<br />
understregning)<br />
Et andet redskab til analyse af transitivitet er nominalisering, det vil sige en analyse<br />
af, hvem der gøres til subjekt og objekt for hvilke handlinger (Fairclough<br />
1992:169ff.). Dette har betydning for tekstens konstruktion af magtrelationer. Vælger<br />
man at lægge vægt på effekterne i stedet for handlingerne, fremstår det skete som et<br />
naturfænomen, og de ansvarlige aktører fratages ansvar, hvilket eksempelvis kommer<br />
til udtryk i denne formulering: ”der har været mange problemer”. Ved at erstatte<br />
sætningens subjekt med ”der” bliver det uklart, hvem og hvilke faktorer ansvaret for<br />
de nævnte problemer kan tilskrives. En analyse af sætningernes transitivitet giver<br />
således et fingerpeg om, hvordan rollerne kontrolleret-kontrollant og lærer-elev<br />
besættes i teksterne, samt om hvorledes rapporterne placerer ansvar i henhold til<br />
evalueringernes ansvarliggørelsesfunktion.<br />
60
6.1.2. Interviews<br />
6.1.2.1. Udvælgelse af interviewpersoner<br />
Udvælgelsen af interviewpersoner er foretaget under fastholdelse af den genealogiske<br />
grundforståelse af subjektet som værende på én og samme tid både frit af og fast-<br />
bundet til allerede eksisterende diskurser. På den baggrund betragter vi med<br />
genealogien som redskab interviewpersoner som repræsentanter for de praksis-<br />
fællesskaber, de er medlem af. Som tidligere nævnt har vi tilstræbt en vis repræsen-<br />
tativitet i udvælgelsen af empiri, og af den grund har vi interviewet repræsentanter<br />
for de tre forskellige praksisfællesskaber, der er involveret i Danidas review- og<br />
evalueringspraksis: Opdragsgiver, evaluatorer og partnerorganisationer. Vi har talt<br />
med:<br />
o Fire ansatte i Danida, som repræsenterer opdragsgiveren (<strong>OG</strong>)<br />
o Syv eksterne konsulenter (KS), hvoraf fire samtidig har erfaringer som<br />
repræsentanter for en evalueret partnerorganisation<br />
o Seks repræsentanter for evaluerede partnerorganisationer (PO) (hvoraf fire<br />
også har erfaringer med reviews og evalueringer som eksterne konsulenter).<br />
I alt har vi gennemført interviews med 13 individer. Hvad de fire ’gengangere’ angår,<br />
så skelner vi i fremstillingen mellem hvornår en af disse ’gengangere’ udtaler sig som<br />
enten partner eller konsulent, ganske enkelt ved at præsentere dem særskilt som<br />
partnerrepræsentant og konsulent. Det skyldes primært vores syn på interview-<br />
personerne som repræsentanter for praksisfællesskaber snarere end som individer,<br />
sekundært er det et greb, hvormed vi tilstræber anonymisering af interview-<br />
personerne.<br />
6.1.2.2. Gennemførelse af interviews<br />
Indledningsvist kontaktede vi de ønskede interviewpersoner per telefon eller mail.<br />
For personer med base i Danmark lagde vi op til et personligt interview, mens vi i<br />
forhold til partnerorganisationerne i Syd foreslog to interviewformer, enten via mail,<br />
hvor de besvarede spørgsmål, vi stillede på forhånd, eller et telefoninterview. I alt har<br />
vi foretaget to mailinterviews, tre telefoninterviews og otte personlige interviews, og<br />
vi vil her kort redegøre for vores overvejelser omkring brugen af disse metoder.<br />
Spørgeguides<br />
Som afsæt for udformning af hver spørgeguide læste vi den eller de rapporter, som<br />
vedkommende havde været involveret i og researchede på den enkeltes baggrund og<br />
erfaringer 32 . Spørgsmålene var formuleret på forhånd, men vi foretog reelt halv-<br />
strukturerede interviews (Kvale 1997:129), idet vi forfulgte tråde og temaer, der<br />
32 Se bilag 3A for eksempel på spørgeguide.<br />
61
dukkede op undervejs. Mailinterviews blev foretaget ved, at interviewpersonerne<br />
besvarede et individuelt udformet spørgsmålsark.<br />
Interviewsituationen<br />
De personlige interviews blev i alle tilfælde foretaget på den interviewedes arbejds-<br />
plads, og under hvert interview medvirkede vi begge: Én som interviewer og én som<br />
observatør og opsamler til sidst. Da der i alle tilfælde var tale om fagfolk med megen<br />
erfaring, vurderede vi, at det ikke ville influere på udbyttet af interviewet, at vi var<br />
’to over for én’, og denne vurdering har vi ikke fundet grund til at revidere efter-<br />
følgende.<br />
Hvert interview blev indledt med en kort introduktion, hvor vi forklarede<br />
interviewets formål og garanterede interviewpersonens anonymitet. Herefter lagde vi<br />
ud med erfaringsbaserede spørgsmål, hvor interviewpersonen fik lejlighed til at<br />
bringe egne termer og kategorier i spil frem for at bruge vores. Afslutningsvist<br />
spurgte vi ind til personernes holdning til specifikke forhold, og derved blev der i<br />
slutningen af hvert interview tale om en mere diskuterende og reflekterende svar-<br />
form. Interviewene varede mellem en og to timer.<br />
Telefoninterviewene var indbyrdes forskellige på den måde, at det ene var med en<br />
engelsktalende repræsentant for en afrikansk partnerorganisation, mens de to andre<br />
var med dansktalende personer, henholdsvis en opdragsgiver og en repræsentant for<br />
en partnerorganisation. Spørgeguides havde vi i de to sidstnævnte tilfælde udformet,<br />
som var der tale om et personligt interview, hvilket fungerede fint – svarene fra disse<br />
interviews adskiller sig for så vidt ikke fra de svar, vi har fået gennem personlige<br />
interviews, og interviewene havde samme varighed (en til to timer). I det engelsk-<br />
sprogede interview var vi på forhånd mindre ambitiøse i forhold til, hvad vi skulle nå<br />
omkring og hvor stor fortrolighed, man kunne nå at skabe basis for i løbet af relativt<br />
kort tid og uden mulighed for at ’se hinanden an’. Desuden forventede vi, at sproget<br />
ville være en udfordring, hvilket viste sig at holde stik. Det var svært at forstå<br />
hinanden, hvilket både skyldtes forskellige accenter, og telefonforbindelse af mindre<br />
god kvalitet. Interviewet var således ikke så udbytterigt, som vi havde håbet, men det<br />
gav os nogle mere impulsive svar end dem, vi har fået ved at interviewe over mail.<br />
Mens de dansksprogede interviews har forløbet problemfrit og med stort udbytte, så<br />
viste det ene, engelsksprogede interview os med al tydelighed de problemer, som<br />
opstår, når kommunikationen i et interview besværliggøres af en eller flere grunde.<br />
Vi mener imidlertid ikke kun, det skyldes sproget og den dårlige forbindelse, men<br />
også det faktum, at den interviewede part bliver usikker og dermed mindre åben, når<br />
vedkommende ikke ved, hvem eller hvad der er i den anden ende. Forud for<br />
interviewet havde vi forsøgt at imødegå dette ved at maile sammen, og vi havde fra<br />
vores side redegjort for hensigten bag interviewet. Hvorvidt interviewpersonen ville<br />
62
have været mere åben, hvis vedkommende havde kunnet se os og tale uden filtre<br />
imellem, kan vi af gode grunde kun gisne om. Vi har dog valgt at tage højde for, at de<br />
repræsentanter fra partnerorganisationer i Syd, som har bidraget til datamaterialet,<br />
muligvis er i tvivl om, præcis hvem vi er, og hvorvidt vi samarbejder med Danida på<br />
en eller anden vis eller ej. At dette kan have influeret på deres svar, bekræftes i den<br />
forestående analyse, hvor de evaluerende konsulenter tilkendegiver at opleve en<br />
lignende problematik i evaluerings- og reviewsammenhænge.<br />
Afslutningsvist skal det nævnes, at alle interviews med interviewpersonernes<br />
tilladelse blev optaget på bånd.<br />
6.1.2.4. Transskription<br />
Båndoptagelserne fra interviewene er efterfølgende skrevet ud, og det er på baggrund<br />
af disse transskriptioner, databehandlingen er foretaget. Det særlige ved et<br />
transskriberet datamateriale er, at de ikke er vore grunddata, men derimod ”kunstige<br />
konstruktioner fra en mundtlig til en skriftlig kommunikationsform” (Kvale<br />
1996:163). Ved denne konstruktion foretages der – uanset intentioner om at overføre<br />
data så præcist som muligt – en række vurderinger og omformninger, der påvirker<br />
data, ligesom der i tabet af selve lyden går en mængde data tabt. Vi har forsøgt at<br />
imødekomme denne problematik ved fra starten at udarbejde et sæt retningslinier for<br />
transskribering, som fremgår af afsnit 6.1.3. I bestræbelserne på en så høj grad af<br />
tilnærmelse til det optagne interview som muligt har vi medtaget fejlstarter, pauser,<br />
ikke-leksikalske udtryk, ufuldstændige sætninger og lignende. Afslutningsvist har vi<br />
kontrolleret og præciseret hinandens transskriptioner.<br />
6.2.2.3. Fra rå interviews til koder og kategorier<br />
Som et undersøgelsesteknisk værktøj til databehandling af interviewmaterialet har vi<br />
valgt at tage udgangspunkt i traditionen Grounded Theory. Den metodiske frem-<br />
gangsmåde, som knytter sig til Grounded Theory, foreskriver en systematisk, empiri-<br />
nær databehandling, hvor man ved kodning af hvert lille element af datamaterialet<br />
langsomt, men grundigt bevæger sig fra rå, transskriberede interviews til at uddrage<br />
en række overordnede temaer (Alvesson & Sköldberg 1994:78ff.). Kodnings-<br />
processen kan inddeles i tre trin: 1) Åben kodning, 2) opstilling af kodningskategorier<br />
og 3) selektiv kodning 33 .<br />
1. Åben kodning<br />
Indledningsvist læste vi de 13 interviews igennem, afgrænsede naturlige betydnings-<br />
enheder og udtrykte temaet for hver enhed i et sprog, der lå så tæt på respondentens<br />
som muligt – en kode. I tråd med forskrifterne for den åbne kodning var der tale om<br />
33 Et eksempel på, hvordan metoden er omsat til praksis, er at finde i bilag 3B.<br />
63
en detailorienteret gennemgang, der medtog alle betydningselementer, som vi<br />
vurderede havde relevans for specialets fokus (Alvesson & Sköldberg 1994:78ff.,<br />
Kvale 1996:194).<br />
2. Opstilling af kodningskategorier<br />
Efterfølgende blev koderne samlet i et mindre antal kategorier, stadig med den<br />
hensigt at viderebringe så mange detaljer fra hvert af interviewene som muligt. På<br />
dette stadie var det målet at sikre en så udtømmende beskrivelse af kategorierne som<br />
muligt, at ’mætte dem’. Dette er ifølge GT sket, når man ikke længere finder nye<br />
aspekter af dem ved gennemlæsning af datamaterialet (Lindlof & Taylor 2002:222).<br />
3. Selektiv kodning<br />
I den tredje og sidste fase, den selektive kodning, var afsættet samtlige kategorier,<br />
som den enkeltvise gennemgang af interviewene havde resulteret i. Med henblik på at<br />
foretage en første sammenfatning markerede vi nu røde tråde mellem kategorierne og<br />
etablerede dermed datamaterialets ’storyline’ (Alvesson & Sköldberg 1994:78ff.).<br />
Konkret udpegede vi nogle kernekategorier (Lindlof & Taylor 2002:214ff.),<br />
hvoromkring de øvrige, nu underordnede kategorier, blev placeret. Under denne<br />
proces skete der samtidig en udvælgelse af nogle emner på bekostning af andre, idet<br />
vi vurderede, at de enten manglede mætning og underbygning eller omhandlede<br />
temaer, som ikke var relevante i forhold til den aktuelle undersøgelsesoptik. På<br />
baggrund af de kategorier, som var tilbage efter det tredje trin i kodningsprocessen,<br />
udarbejdede vi en første disposition for analysen, der byggede på den storyline, som<br />
var udviklet.<br />
6.1.3. Fremstilling af empiri<br />
I analysen inddrages uddrag af både dokumenter og interviews. Dette har til formål at<br />
gøre vore konklusioner og argumenter så velunderbyggede og gennemskuelige som<br />
muligt. For at imødegå de spørgsmål, der måtte opstå i forbindelse med gengivelse af<br />
citater præsenteres her de konventioner, som er anvendt.<br />
Pauseangivelse<br />
… Kort ophold<br />
(P1) Pause af 1-2 sekunders varighed<br />
(P2) Pause af 2-5 sekunders varighed<br />
(P3) Pause af mere end 5 sekunders varighed<br />
Diverse transskriptionskonventioner<br />
(tekst) Angiver latter, vrængen eller andre former for udtryk, som ikke er<br />
gengivet i den transskriberede tekst.<br />
(tekst) Utydelig tale, eventuelt vores gæt.<br />
64
tekst/ Afbrudt tale<br />
Ændring eller tilføjelse i citater<br />
[tekst] Tilføjede bemærkninger som letter forståelsen af citater<br />
[[tekst]] Anonymisering. Indikerer, at der er fjernet et navn på en person eller<br />
organisation.<br />
(…) Markerer en udeladt passage i et citat eller et rapportuddrag.<br />
Anførselstegn<br />
”tekst” Direkte citat fra interview, rapport eller teoretisk tekst. Efterfølges af<br />
henvisning til den pågældende kilde med angivelse af sidetal.<br />
Eksempelvis (PO) eller (Bangladesh 02:19)<br />
’tekst’ Anvendes dels kreativt i teksten og dels i forbindelse med inddragelse<br />
Understregning<br />
af et citats indhold i ændret form. Efterfølges i sidstnævnte tilfælde af<br />
henvisning.<br />
Tekst Angiver enten interviewpersonens intonation (trykstærke stavelser<br />
eller ord) eller vores fremhævning af bestemte passager eller ord. Når<br />
det er tilfældet, har vi til sidst i kildehenvisningen tilføjet ’vus’ – en<br />
forkortelse for ’vores understregning’.<br />
6.2. Undersøgelsens videnskabelighed<br />
Vi har nu redegjort for vores overvejelser i forbindelse med udvælgelse og<br />
behandling af empiri. På den baggrund vil vi i det følgende gennemgå og diskutere<br />
undersøgelsens videnskabelighed med henblik på at hævde dens gyldighed og<br />
troværdighed. Det sker med afsæt i de tre gængse videnskabelighedskriterier,<br />
validitet, reliabilitet og generaliserbarhed. Disse begreber er oprindeligt formuleret<br />
inden for en kvantitativ metodisk tradition, men har med tiden fået en anden<br />
betydning – eller rettere: en række andre betydninger – inden for den kvalitative<br />
metode. Vi anvender imidlertid de definitioner, som gives af Silverman (Silverman<br />
1993 & 2000) samt Alasuutari (Alasuutari 1995).<br />
6.2.1. Validitet<br />
Begrebet validitet henviser til spørgsmålet om, i hvor høj grad en undersøgelse<br />
repræsenterer virkeligheden: Har man undersøgt det, man siger, man undersøger?<br />
(Silverman 2000:178ff.). Inspireret af Silverman har vi valgt en trestrenget<br />
valideringsstrategi, der består af følgende elementer: Først og fremmest har vi<br />
praktiseret en omfattende databehandlingsmetode, hvilket både henviser til<br />
datamaterialets omfang samt til måden, hvorpå det er bearbejdet. Her skal det<br />
nævnes, at vi, som supplement til den oven for beskrevne databehandling af den<br />
65
interviewbaserede empiri, har gennemgået samtlige interviews på ny, for at sikre at<br />
relevante elementer, der ved første øjekast virkede uvæsentlige, ikke skulle gå tabt.<br />
Valideringsstrategiens anden del består i, at vi løbende har foretaget sammen-<br />
ligninger af de cases, som indgik i datamaterialet, hvorved vi har testet forskellige<br />
hypoteser, som opstod undervejs. Det tredje element i valideringsstrategien har været<br />
at rette opmærksomheden mod de afvigende cases, forstået som et særligt fokus på de<br />
kategorier, der skiller sig ud. De har måske ikke umiddelbart passet ind i de mønstre,<br />
som fremkom i det øvrige materiale, men efter devisen at de indeholder værdifuld<br />
information og viser nye sider af undersøgelsesgenstanden, har vi ladet dem indgå<br />
som en del af empirien frem for at afvise dem som værende unormale og irrelevante.<br />
6.2.2. Reliabilitet<br />
Begrebet reliabilitet betyder i Silverman’s forståelse, at forskeren gør rede for sin<br />
metode med henblik på at give læseren mulighed for at vurdere, hvorvidt den kan<br />
siges at være troværdig og veludført (Silverman 2000:185ff.). Silverman taler for, at<br />
man som kvalitativ forsker bør gøre sit rå datamateriale tilgængeligt, idet der hermed<br />
sikres adgang til respondenternes egne ord og kategorier. En anden dimension af<br />
reliabilitetskriteriet er ifølge Davies (Davies 1999) videnskabelig refleksivitet. Som<br />
forsker skal man således sikre, at man konstant er bevidst om sin rolle, og blandt<br />
andet om den påvirkning, der er mellem forskeren og undersøgelsesobjektet. Vi vil<br />
løbende lade vores refleksioner og overvejelser i forbindelse med valg af metode og<br />
analysestrategier komme til udtryk i specialet.<br />
6.2.3. Generaliserbarhed<br />
Generaliserbarhed i en kvalitativ sammenhæng mange er et spørgsmål om at relatere,<br />
ekstrapolere eller redegøre for emnets relevans (Alasuutari 1995:156f). Vi vil<br />
undervejs i analysen og især i specialets perspektivering relatere vore pointer og<br />
konklusioner til andre praksisser eller sektorer, hvor der er interessante og relevante<br />
paralleller til evaluering af mediebistand. Det sker med afsæt i den i indledningen<br />
skitserede nysgerrighed over for evaluering som samfundsfænomen.<br />
6.3. Metodisk refleksion<br />
I specialeprocessen har vi søgt at balancere mellem på den ene side at leve op til den<br />
diskursanalytiske metodes krav om grundighed og omfang, og på den anden side at<br />
designe en undersøgelse, som vi havde realistisk mulighed for at gennemføre på et<br />
semester. Af praktiske hensyn vurderer vi ikke, at vores empiriske materiale kunne<br />
have været meget mere omfattende, men med de selvkritiske briller på vil vi påpege<br />
tre svagheder ved vores undersøgelsesdesign.<br />
For det første vurderer vi, at det ville have styrket undersøgelsen, hvis den også<br />
omfattede observationer af et eller flere evaluerings- og reviewforløb. Dermed ville<br />
66
vi få adgang til andre og mere ufortolkede data om, hvordan interaktionen mellem<br />
konsulenter, Danida og de evaluerede aktører foregår. På et tidligt stadie overvejede<br />
vi denne mulighed, men valgte den af såvel metodiske som praktiske årsager fra:<br />
Dels ud fra den betragtning, at vores problemformulering fordrede en analyse baseret<br />
på en række forskellige evalueringsforløb – ikke blot på et eller to, som er det antal,<br />
vi realistisk set havde råd og tid til at observere. Dels fordi vi ved at følge et hold<br />
konsulenter ikke ville kunne undersøge de evaluerede aktørers oplevelse af<br />
magtudøvelsen i forbindelse med kontrol- og læringsformålet, da disse sandsynligvis<br />
ville opleve os som en del af evalueringsholdet. Vi vurderer altså, at vi ville påvirke<br />
vores analysegenstand på en uhensigtsmæssig måde, som både ville efterlade os med<br />
et mangelfuldt datamateriale og kunne virke obstruerende på evalueringsprocessen.<br />
Som det tredje argument gjorde der sig også et rent praktisk forhold gældende,<br />
nemlig at vores indsamling af empiri fandt sted i en periode, hvor Danida ikke stod<br />
for at skulle foretage en bedømmelse af deres mediebistandsprojekter. Disse<br />
forklaringer ændrer dog imidlertid ikke ved, at feltobservationer ville have været<br />
yderst interessante at supplere den aktuelle undersøgelse med.<br />
En anden svaghed ved undersøgelsen er, at empirien udelukkende omfatter reviews<br />
og evalueringer, som Danida har været opdragsgiver til. Det har for det første den<br />
implikation, at dataindsamlingen i vid udstrækning er sket med afsæt i de forslag og<br />
kontakter, vores kontaktperson i Danida har bidraget med – fordi vi ikke har haft<br />
mulighed for at danne os et overblik over samtlige dokumenter eller personer, der<br />
kunne være relevante at inddrage i undersøgelsens perspektiv, da oplysningerne ikke<br />
er offentligt tilgængelige. Dette har vi – som det fremgik af afsnit 6.2.2.1. – forsøgt at<br />
tage metodisk højde for ved selv at opsøge interviewpersoner ud over de forslag, vi<br />
fik fra Danida.<br />
Endvidere betyder vort koncentrerede fokus, at vi har afskrevet muligheden for at<br />
undersøge andre, relevante organisationer. Et interessant sammenligningsgrundlag<br />
kunne have været bedømmelsesaktiviteter iværksat af NGO’er, da vi har en<br />
formodning om, at relationen mellem NGO’erne og de evaluerede aktører i højere<br />
grad er præget af jævnbyrdighed og participation – eller i hvert fald af idealer herom.<br />
Hvilken betydning det har for samspillet mellem læring og kontrol i forbindelse med<br />
evalueringer og reviews, er et interessant spørgsmål, som vi desværre må lade en<br />
anden undersøgelse forfølge.<br />
Sidst, men ikke mindst, ville vi gerne have haft muligheden for at konfrontere<br />
interviewpersonerne med analysens konklusioner i form af opfølgende, diskuterende<br />
interviews – eventuelt en fokusgruppe. Dette skyldes, at vi i bearbejdningen og<br />
fremstillingen af analysen har erfaret, at interviewpersonerne giver udtryk for<br />
modstridende, ofte selvmodsigende og uklare forståelser af begreberne kontrol og<br />
67
læring. En konfrontation ville sandsynligvis kunne bidrage til både at udfordre og<br />
forfine såvel vores som deres fortolkning af disse begreber.<br />
Til trods for disse svagheder kan det dog fastslås, at specialet er det første forsøg på<br />
systematisk at undersøge evaluering af dansk mediebistand. På den baggrund<br />
vurderer vi, at det indsamlede datamateriale giver god basis for at fremdrage<br />
væsentlige problemstillinger og spørgsmål.<br />
68
7. Danidas evalueringspraksis<br />
Vi tager nu hul på selve analysen og indleder med at præsentere analysens genstand:<br />
Danidas evalueringspraksis. Som vi redegjorde for i den teoretiske gennemgang i<br />
kapitel 2, betragter vi evalueringer som grænseobjekter, gennem hvilke de tre<br />
praksisfællesskaber Danida, Danidas partnere og de eksterne konsulenter interagerer.<br />
I nærværende kapitel vil vi præsentere både grænseobjekter og praksisfællesskaber<br />
ved at gennemgå de formelle strukturer, som kendetegner disse. Gennemgangen<br />
danner afsæt for en efterfølgende analyse af de forhandlinger og forståelser, som<br />
præger evaluering af Danidastøttet mediebistand. Indledningsvist i afsnit 7.1. redegør<br />
vi for forskelle og ligheder mellem evalueringer og reviews. Det efterfølgende afsnit<br />
7.2. behandler de tre praksisfællesskaber enkeltvist.<br />
7.1. Evalueringer og reviews<br />
I det foregående kapitel om metode beskrev vi de fire former for bedømmelses-<br />
aktiviteter, som gennemføres i Danida: evalueringer, reviews, projektrapportering og<br />
mål- og resultatstyring. Her uddybes ligheder og forskelle mellem de to bedøm-<br />
melsesformer, som vi fokuserer på, det vil sige reviews og evalueringer.<br />
Gennemgangen bygger på dokumenterne Evaluation Guidelines (Danida 1999) og<br />
Guidelines for Project Management (Danida 2003B) og inddrager interview-<br />
materiale, hvor det er relevant.<br />
Danida skelner skarpt mellem reviews og evalueringer:<br />
... vi holder sådan en meget skarp skillelinie. Hvis der er nogen, der bruger<br />
ordet ’evaluering’ her i huset, så skal den lande [i Evalueringskontoret]. Der<br />
laves mange studier, som ligner evalueringer, også reviews, der er meget<br />
omfattende og tilbundsgående og så videre. Men de er ikke evalueringer – de<br />
bliver ikke udsat for den samme kvalitetssikring og den samme uafhængighed,<br />
som vi lægger i evalueringer, og de bliver heller ikke offentliggjort. Det gør<br />
alle vores evalueringer. (<strong>OG</strong>)<br />
Her opridser den citerede Danidamedarbejder kort, på hvilke punkter evalueringer og<br />
reviews adskiller sig fra hinanden i Danidas terminologi. Det drejer sig dels om<br />
offentliggørelse og dels om bedømmelsesaktiviteternes forskellige organisatoriske<br />
forankring i Danida. Disse faktorer handler de kommende to underafsnit om.<br />
7.1.1. Offentliggørelse<br />
Af Danidas retningslinier for evalueringer fremgår det, at forskellen mellem<br />
“evaluation” og “review” består i, at ”[T]he former is an inquiry that will be available<br />
to the public, while the latter is an internal, periodic assessment” (Danida 1999:2). En<br />
vigtig forskel mellem reviews og evalueringer er således, at førstnævnte er interne<br />
arbejdsdokumenter, mens evalueringer er offentligt tilgængelige og som følge heraf<br />
underlagt skrappere krav til uafhængighed og kvalitet. Den primære målgruppe for<br />
69
eviews er aktører, som er involverede i et givent projekt eller program, idet reviews<br />
betragtes som ”key management tools allowing national partners, Danish authorities<br />
and any other donors involved in the project to assess progress and adjust the support<br />
in light of changes in project context, sector development, and achievement of<br />
objectives” (Danida 2003B:8). Hvor reviews retter sig mod organisationsinterne<br />
målgrupper, er evalueringer henvendt til såvel interne som eksterne målgrupper. De<br />
eksterne målgrupper for evalueringerne omfatter både ’offentligheden’ i Danmark og<br />
i modtagerlandet (nærmere bestemt medier, borgere og beslutningstagere, Danida<br />
1999:100ff.) samt NGO’er, andre donoragenturer og interessenter generelt. At<br />
målgruppen for evalueringerne er bred og noget diffus illustreres tydeligt i disse<br />
udsagn, hvor en af de interviewede Danidamedarbejdere forklarer os, at målgruppen<br />
for evalueringer er ”nogen helt andre aktører i…i…i kredsen” (<strong>OG</strong>), mens en anden<br />
ansat i Danida mener, at målgrupperne er ”dem ude i byen” og ”samarbejds-<br />
partnerne” (<strong>OG</strong>). For at nå disse mange og heterogene målgrupper udgiver Danida<br />
forskellige versioner af evalueringsrapporten: Dels den fulde rapport på engelsk, dels<br />
en læsevenlig populærversion på dansk. Ved udgivelse af en evaluering udsendes<br />
altid en pressemeddelelse, blandt andet for at imødekomme den del af evalueringer-<br />
nes formål, som handler om at gøre offentligheden bekendt med udviklingsbistandens<br />
aktiviteter og resultater. Interessen fra medierne er dog svingende:<br />
Vi har i mange år holdt presseseminarer eller pressekonference, når vi har<br />
offentliggjort en evaluering. Og der er det vores erfaring, at når vi sender<br />
invitationen ud og ligesom giver et lille pip om, hvad evalueringen drejer sig<br />
om – hvis den er kritisk, så kommer der syv journalister, hvis den positiv, så<br />
kommer der ikke et øje. (<strong>OG</strong>).<br />
Det er begrænset, hvor megen omtale en evaluering opnår i medierne, og dermed<br />
hvor stort et kendskab befolkningen får til den. Dette underbygges af, at vores<br />
søgning på avisdækningen i forbindelse med udgivelsen af den eneste større<br />
evaluering af Danidas mediebistand (Danida 2000A) ikke gav noget resultat.<br />
7.1.1.1. Offentliggørelse og symbolsk funktion<br />
Vurderet i forhold til medieomtale og offentlighedens kendskab til<br />
udviklingsbistandens resultater er der således ingen vægtig forskel mellem reviews<br />
og evalueringer. Når offentliggørelse alligevel er et interessant parameter, skyldes<br />
det, at evalueringer som offentlige dokumenter er en del af Danidas måde at varetage<br />
kontakt til organisationens omverden på. Evalueringer besidder dermed en<br />
”symbolsk” dimension (Dahler-Larsen 2004:31). Dermed menes, at evaluering ikke<br />
kun udføres med henblik på at anvende resultaterne instrumentelt til at forbedre en<br />
indsats, men også for at ”hjælpe en organisation med at genkende sig selv via en ydre<br />
anerkendelse af, at der er tale om en acceptabel aktør, der anvender tidens<br />
accepterede procedurer og tankefigurer til at løse accepterede problemer på<br />
70
accepterede måder” (Dahler-Larsen 1998:131). Selve det at evaluere sender således<br />
et signal til omverdenen og til Danida selv om, at Danida er en seriøs og omstillings-<br />
parat organisation, der står inde for udviklingsbistandens kvalitet og er villig til at<br />
”tage kontingens på sig” (Dahler-Larsen 2004:28). I kraft af offentliggørelsen spiller<br />
evalueringer en vigtig rolle i forhold til at argumentere for udviklingsbistandens<br />
legitimitet i forlængelse af kontroldiskursens krav om ansvarliggørelse 34 .<br />
Det er årsagen til, at evalueringer er underlagt en skrappere kvalitetskontrol, samt at<br />
retningslinierne for evalueringer er langt mere udbyggede end retningslinierne for<br />
reviews. Danidas evalueringsretningslinier fylder således over hundrede sider<br />
(Danida 1999), mens retningslinierne for reviews begrænser sig til fire sider (Danida<br />
2003B:40-43).<br />
7.1.2. Organisatorisk forankring<br />
Reviews og evalueringer adskiller sig desuden ved at være forankret i forskellige<br />
organisatoriske enheder i Danida. Dette kræver en nærmere forklaring, som bedst<br />
gives ved at illustrere Danidas organisationsstruktur 35 :<br />
Udenrigsministeren Udviklingsministeren<br />
Direktøren<br />
Ministersekretariat Ministersekretariat<br />
Bistandsfaglig<br />
tjeneste (BFT)<br />
Evaluering af<br />
udviklingsbistand<br />
(EK)<br />
Figur 7a<br />
Kvalitetssikring af<br />
udviklingsbistand<br />
(KVA)<br />
Udenrigsråd for<br />
Sydgruppen<br />
Ambassade Ambassade<br />
Multilateral bistand:<br />
(1) FN og Verdensbanken,<br />
(2) FN’s<br />
udviklingsbistand<br />
Humanitær bistand<br />
og NGO-samarbejde<br />
Naboskabsprogrammet<br />
Udviklingspolitik<br />
Landekontorer:<br />
(1) Afrika, (2) Asien,<br />
(3) Mellemøsten,<br />
Nordafrika, Latinamerika <br />
Erhvervsinstrumenter<br />
i<br />
udviklingsbistanden<br />
Miljø og<br />
bæredygtighed<br />
34 Begrebet ansvarliggørelse (accountability) definerer Danida som: ”An obligation for an organisation<br />
or person who manages resources to answer or report to others – whether higher level authorities, a<br />
donor or the public – about the intended and effective use of the resources and on the achievement of<br />
results.” (Danida 1999:110).<br />
35 Kilde: Organigram fremsendt 13. august 2004 af Ulla Braager, Kommunikationsenheden,<br />
Udenrigsministeriet.<br />
71
I organigrammet er de fire enheder fremhævet, som er særligt interessante i<br />
forbindelse med bestilling, udførelse og anvendelse af evalueringer og reviews af<br />
mediebistand. Betragter man evalueringer isoleret, er det EK, som bestiller, designer<br />
og har ansvaret for opfølgning på evalueringer. Anderledes forholder det sig med<br />
reviews, idet opdragsgiverfunktionen her er fordelt på flere hænder: dels på den<br />
bevilgende enhed (en ambassade eller et landekontor), som er ansvarlig for bestilling<br />
af og opfølgning på reviews, og dels på Bistandsfaglig Tjeneste (BFT), som varetager<br />
reviewdesignet og i enkelte tilfælde også deltager i udførelsen. Vi uddyber de enkelte<br />
enheders roller i det følgende.<br />
7.1.2.1. Evalueringskontoret<br />
Som det fremgår af organigrammet, er EK organiseret som en specialenhed med<br />
direkte reference til Udenrigsråden for Sydgruppen. Denne organisatoriske placering<br />
betyder, at EK på én gang er uafhængig af og samtidig tæt på de ansatte i Danida, der<br />
arbejder med udviklingsbistand på et strategisk og operationelt plan. Netop EK’s<br />
placering har flere gange været genstand for offentlig debat, idet der jævnligt er<br />
blevet sået tvivl om, hvorvidt evalueringerne kan betragtes som troværdige og<br />
upartiske, når EK er en del af den organisation, som evalueres (Danida 2003A:2).<br />
7.1.2.2. Bevilgende enheder<br />
Den opdragsgiverfunktion, som EK varetager i forbindelse med evaluering, er for<br />
reviews’ vedkommende placeret i den enhed, som har ansvaret for bevillingen til det<br />
reviewede projekt/program. Bevillingerne til mediebistandsprojekter varetages i dag<br />
af ambassaderne, idet forvaltningen af projekter med en samlet årlig bevilling under<br />
30 mio. kr. blev pr. 1. september 2003 decentraliseret fra tidligere at have hørt under<br />
Danidas lande- og policykontorer i København. Eftersom vores indsamling af empiri<br />
går tilbage til 2000, indgår der også eksempler på reviews, som er iværksat af<br />
Danidas landekontorer, hvorfor vi taler om ’bevilgende enheder’ frem for blot<br />
’ambassader’. En bevilgende enhed varetager løbende kontakt til projekt-<br />
organisationen og sikrer monitorering af de støttede aktiviteter.<br />
7.1.2.3. Bistandsfaglig tjeneste<br />
Den bistandsfaglige tjeneste (BFT) er en selvstændig enhed i Danida, hvis<br />
medarbejdere er fagpersoner med en specifik, faglig viden om bistandsrelevante<br />
emner, eksempelvis sundhed, miljø eller god regeringsførelse. I BFT er der ansat en<br />
medarbejder med mediebistand som en del af sit ansvarsområde. BFT har en<br />
rådgivende funktion i forhold til Danidas beslutningstagende og bevilgende enheder<br />
og vejleder blandt andet om planlægning, implementering, reviews og evaluering af<br />
bistandsaktiviteter.<br />
72
7.1.2.4. Ansvar og roller<br />
EK’s, BFT’s og de bevilgende enheders ansvar og roller i forbindelse med<br />
evalueringer og reviews fremgår af nedenstående skema, hvor vi skelner mellem fire<br />
trin i processen:<br />
Initiering refererer til den proces, hvor det vedtages, at en evaluering eller et<br />
reviews skal sættes i gang, samt hvad bedømmelsen skal fokusere på.<br />
Design: I designfasen præciseres formål og emne, og der træffes valg om<br />
konsulentholdets sammensætning, kommissorium, metode, svarpersoner,<br />
evalueringskriterier og tidsramme.<br />
Udførelse omfatter dataindsamling og -analyse i forbindelse med dokument- og<br />
feltstudier samt afrapportering.<br />
Opfølgning beskriver tre trin: distribution af rapporten, gyldiggørelse forstået<br />
som den proces, hvor aktørerne vurderer resultaternes validitet og relevans samt<br />
konsekvensdragelse: legitimering og iværksættelse af handlinger på baggrund af<br />
den indsamlede viden.<br />
Inddelingen er inspireret af Dahler-Larsen (2004:41ff.) 36 og Andersen Management<br />
International A/S (AMI 2003:9) 37 .<br />
Initiering<br />
Design<br />
Udførelse<br />
Opfølgning<br />
Figur 7b<br />
EK<br />
Evalueringer<br />
EK (i samråd med BFT, den bevilgende<br />
enhed og de evaluerede aktører)<br />
Eksterne konsulenter<br />
EK (i samråd med BFT, den bevilgende<br />
enhed og de evaluerede aktører)<br />
Reviews<br />
Den bevilgende enhed<br />
Den bevilgende enhed (i samråd med BFT<br />
og de evaluerede aktører)<br />
Eksterne konsulenter (undtagelsesvist<br />
interne konsulenter)<br />
Den bevilgende enhed (i samråd med BFT<br />
og de evaluerede aktører)<br />
I det følgende gennemgår vi fællestræk og forskelle mellem de strukturer og<br />
retningslinier, som gælder for henholdsvis reviews og evalueringer på de fire trin.<br />
36 Dahler-Larsen inddeler en evalueringsproces i otte trin: (1) Initiering, (2) Dagsorden (fastsættelse af<br />
evalueringens overordnede fokus), (3) Vidensforvaltning og –organisering, (4) Design, (5)<br />
Dataindsamling, (6) Analyse og sammenfatning, (7) Gyldiggørelse, (8) Konsekvensdragelse. Fordelen<br />
ved Dahler-Larsens model er, at han ikke forstår trinnene som kronologisk skarpt adskilte faser, men<br />
snarere som momenter, der kan overlappe og påvirke hinanden. Da vi ikke analyserer de enkelte<br />
evalueringsforløb med samme detaljeringsgrad som Dahler-Larsen kondenserer vi for overblikkets skyld<br />
hans otte trin til fire.<br />
37 Analyseinstituttet AMI opererer i deres gennemgang af Danidas evalueringsstruktur med syv faser i et<br />
evalueringsforløb: (1) Evalueringskommissorium og struktur, (2) Valg af konsulenter, (3) Indledende<br />
undersøgelser, (4) Evalueringsplan, (5) Feltarbejde, (6) Rapportudkast, (7) Opfølgning og udgivelse. Vi<br />
supplerer Dahler-Larsens otte trin med AMI’s fasemodel, da disse forholder sig specifikt til Danidas<br />
evalueringsstruktur.<br />
73
7.1.3. Initiering<br />
7.1.3.1. Evalueringer<br />
EK varetager såvel igangsættelse som afslutning af alle evalueringer, der foretages i<br />
Danida. Evalueringernes antal og tidsmæssige placering besluttes i en rullende<br />
treårsplan, der opdateres hvert år under inddragelse af relevante departementer i<br />
Udenrigsministeriet, ambassaderne, Danidas Styrelse og Folketingets Udenrigs-<br />
udvalg (Danida 1999:36). Første trin i en evalueringsproces består i briefing af de<br />
involverede parter. Ved større evalueringer foregår dette ved, at EK udarbejder et<br />
såkaldt ”approach paper” 38 . Heri foreslås et overordnet formål med den pågældende<br />
evaluering, hvilke temaer der skal dækkes, samt hvilken tids- og handlingsplan<br />
evalueringsprocessen kan foregå efter. Formålet med evalueringer er ifølge evalue-<br />
ringsretningslinierne dobbelt, idet de både skal bidrage til erfaringsopsamling<br />
(læring) og dokumentation af bistandens effekter (kontrol) (Danida 1999:7).<br />
7.1.3.2. Reviews<br />
Hvornår et projekt skal gennemgå et review er fastlagt fra projektets start og fremgår<br />
af projektplanen 39 . Man skelner i Danida mellem midtvejsreviews, hvis primære<br />
formål det er at foreslå justeringer for resten af den indeværende projektfase, og<br />
slutreviews, som sigter mod en vurdering af, om bevillingen skal forlænges med<br />
endnu en fase. Vægtningen af formålene erfaringsopsamling/læring og<br />
dokumentation/kontrol afhænger således af, hvornår i en projektfase reviewet er<br />
placeret. En Danida-medarbejder beskriver formålet således: ”Review er den der<br />
stock taking på basis af, hvad der er lavet, og så med et fremadrettet perspektiv”<br />
(<strong>OG</strong>). At reviews har en orientering mod en fremtidig indsats betyder, at de ofte<br />
foretages i sammenhæng med udarbejdelsen af fremadrettede projektdokumenter og<br />
handlingsplaner.<br />
7.1.3.3. Forskelle og fællestræk<br />
For både reviews og evalueringer gælder det, at Danida stort set er enerådende i<br />
forhold til at beslutte, hvorvidt og hvornår en vurdering af et mediebistandsprojekt<br />
skal sættes i gang. Principielt har interessenter i både modtagerlandet og Danmark<br />
mulighed for at komme med ønsker til den treårige evalueringsplan. EK har i et<br />
enkelt tilfælde været ude for, at Folketingets Udenrigsudvalg er fremkommet med et<br />
sådant ønske, men ellers er EK’s udkast til evalueringsprogrammer blevet godkendt<br />
uden ændringer. For reviews gælder det, at partnerne i princippet har indflydelse på<br />
38 Approach-papiret udsendes til information og kommentering hos de involverede regionskontorer i<br />
Danida, relevante ambassader samt modtagerorganisationer (Danida 1999:38). For særligt komplekse<br />
områder med mange involverede aktører kan der afholdes en workshop om de emner, approach-papiret<br />
omfatter, og der kan desuden nedsættes en referencegruppe bestående af interne eller eksterne<br />
ressourcepersoner, der følger evalueringsforløbet fra start til slut.<br />
39 Reviews kan dog også foretages på direkte foranledning af den bevilgende enhed eller et projekts<br />
styregruppe, hvis det vurderes hensigtsmæssigt (Danida 2003:40).<br />
74
projektplanerne og dermed på fastsættelsen af tidspunkter for reviews, ligesom der<br />
også foreligger en teoretisk mulighed for, at de beder om at få fremskyndet et review,<br />
hvis særlige forhold gør sig gældende. Vi er dog ikke bekendt med eksempler på, at<br />
en partner på denne måde har søgt indflydelse på initieringen af et review. Til<br />
gengæld har vi hørt om flere tilfælde, hvor partnerne har bedt om at få udskudt et<br />
review begrundet i et ønske om arbejdsro, uden at Danida dog har imødekommet<br />
dette ønske. Vi finder det derfor rimeligt at hævde, at Danida i realiteten er den<br />
eneste aktør, som har noget at skulle have sagt i initieringsfasen. Dette er en<br />
væsentlig pointe i forhold til diskussionen om kontrol versus læring, da der i<br />
initieringsfasen grundlægges et ejerskab til den pågældende bedømmelsesaktivitet,<br />
ligesom det signaleres, at det er Danida, der vurderer partnerne – ikke omvendt.<br />
7.1.4. Design<br />
Designfasen omfatter to trin: udarbejdelse af et kommissorium 40 samt udvælgelse af<br />
konsulenthold.<br />
7.1.4.1. Evalueringer<br />
EK er ansvarlig for at formulere et forslag til et kommissorium, der fungerer som<br />
oplæg til forhandling og diskussion mellem de involverede parter, det vil for<br />
eksempel sige bevilgende enheder, BFT, relevante partnerorganisationer,<br />
interessenter og eksterne konsulenter (Danida 1999:39). Målet er at give de berørte<br />
aktører mulighed for indflydelse i denne fase. Parallelt med udarbejdelsen af<br />
kommissoriet sammensættes evalueringsholdet, hvilket ligeledes sker i samarbejde<br />
med de involverede dele af Danida og de evaluerede aktører. Kriterier for udvælgelse<br />
af konsulenter til holdet er ”professional competence, impartiality, and experience in<br />
relation to the task” (Danida 1999:41) 41 . Man prioriterer således på baggrund af<br />
erfaring og faglighed, men også uafhængighed er afgørende, idet evaluatorerne ikke<br />
må have tilknytning til de undersøgte udviklingsaktiviteter (Danida 1999:8).<br />
7.1.4.2. Reviews<br />
I forbindelse med reviews står den bevilgende enhed for udvælgelsen af konsulenter.<br />
Som oftest sker dette i tæt samråd med BFT, da den ansvarlige medarbejder i den<br />
bevilgende enhed typisk har et begrænset kendskab til mediebistandsområdet som<br />
følge af Danidas rotationsordning. Denne ordning redegør vi for senere. Retnings-<br />
linierne for reviews stiller – som for evalueringer – krav om, at reviews skal foretages<br />
40 Både konsulenter, partnere og medarbejderne i Danida anvender den engelske term: ”Terms of<br />
Reference” eller i daglig tale blot ”terms”.<br />
41 Af en udredning af Danidas evalueringsfunktion, som er foretaget i 2003, fremgår det, at 95 % af<br />
Danidas evalueringsopgaver udbydes i licitation, og at 40 % af opgaverne udføres af udenlandske<br />
konsulentfirmaer (Danida 2003A:11).<br />
75
af eksterne konsulenter 42 . Imidlertid er der eksempler på, at Danidas egne ansatte<br />
udfører reviews 43 . Den bevilgende enhed udarbejder endvidere et udkast til<br />
kommissorium, som runder BFT, hvorefter den bevilgende enhed godkender de<br />
eventuelle ændringer, BFT måtte foreslå. Dernæst får det udpegede konsulenthold og<br />
de evaluerede aktører mulighed for at kommentere på indholdet, og på baggrund<br />
heraf foretages eventuelle justeringer.<br />
7.1.4.3. Forskelle og fællestræk<br />
Et fællestræk mellem evalueringer og reviews er, at Danida i designfasen arbejder ud<br />
fra et ideal om, at flest mulige interessenter skal inddrages i forløbet. Man kan sige,<br />
at Danida dermed søger at rette op på den ejerskabsskævhed, som grundlægges i<br />
initieringsfasen. Hvorvidt og under hvilke omstændigheder, det lykkes Danida at<br />
inddrage og engagere Danidas partnere og andre aktører, behandler vi i afsnit<br />
12.1.3.1.<br />
7.1.5. Udførelse<br />
Udførelsen af reviews og evalueringer varetages af de valgte konsulenter og består<br />
typisk af tre dele: (A) et dokumentstudium, og (B) et feltstudium, hvor konsulent-<br />
teamet besøger det pågældende projekt eller program 44 . Afslutningsvist foregår der<br />
(C) en afrapportering, der omfatter en såkaldt debriefing til de involverede aktører<br />
samt udfærdigelse af den endelige rapport. Retningslinierne for henholdsvis reviews<br />
og evalueringer udspecificerer ikke, hvordan dokumentstudium, feltstudium og<br />
afrapportering skal foregå. Det varierer fra undersøgelse til undersøgelse og afhænger<br />
i nogen grad af kommissoriet samt i høj grad af de konsulenter, som udfører evalue-<br />
ringen. Vores dokumentanalyse viser, at Danida kun i ganske få tilfælde opstiller<br />
krav til metode i kommissorierne. Af de otte analyserede kommissorier indeholder<br />
kun ét deciderede metodiske anvisninger (MISA 01/02), tre kommissorier angiver<br />
ingen krav til metode (NSJ 02, MISA 02 & Zambia 02), mens metodeanvisningerne i<br />
de resterende fire kommissorier må betegnes som uspecifikke. Et eksempel på en<br />
sådan uspecifik metodeanvisning er denne formulering: “It consists of a desk study<br />
and possibly a field study.” (Danida 2000A:52, vus). Årsagen til de manglende eller<br />
vage metodeanvisninger er et bevidst valg fra Danidas side:<br />
Vi gør i vores Terms of Reference ikke ret meget ud af metodeovervejelser.<br />
(…) Andre donorer går meget langt med at eksplicitere metoderne, og så er det<br />
42 Internationale trends tyder på, at kravet om anvendelse af eksterne konsulenter i forbindelse med<br />
reviews bliver mere dominerende. I hvert fald er det for nylig besluttet, at alle reviews udført under FNorganisationer<br />
som eksempelvis UNDP og UNESCO skal varetages af eksterne konsulenter.<br />
43 I tre ud af de i alt fem reviewrapporter, som indgår i vores empiri, deltager en Danidaansat på<br />
reviewmissionen. I reviewet af MISA i 2004 varetog den Danida-ansatte konsulent funktionen som<br />
reviewer (evaluator) i samarbejde med en ekstern konsulent. I reviewene af mediestøtten til Bangladesh<br />
i 2002 og til støtten til NSJ 2003 deltog den deltagende Danida-ansatte ikke i selve den retrospektive<br />
vurderingsdel af reviewarbejdet, men i en tilknyttet fremadrettet formulering af fremtidige<br />
støttemuligheder (en såkaldt ”formulation” eller ”appraisal”).<br />
44 Feltstudiet kan udelades, hvilket evalueringen af MISA fra 2002 er et eksempel på (bilag 7).<br />
76
i sidste ende i et spørgsmål om at finde kvalificerede folk. Vi vil godt have<br />
deres inputs til, hvordan kan de løse opgaven. Vi giver nogle gange vejledning<br />
til metodevalg, hvad vi gerne ser, men ikke i detaljer. (<strong>OG</strong>)<br />
Konsekvensen er, at anvendelsen af metoder i høj grad afhænger af de enkelte<br />
konsulenter og disses fagligheder og præferencer, samt at der er stor variation mellem<br />
de enkelte reviews og evalueringer. Vi vil derfor ikke som i de foregående<br />
underafsnit skelne mellem evalueringer og reviews, men i stedet beskrive typiske<br />
forhold, som gør sig gældende i forbindelse med de tre dele af udførelsen.<br />
7.1.5.1. Dokumentstudier<br />
I dokumentstudiet sætter konsulenterne sig ind i den eksisterende projekt-<br />
rapportering. Der er ofte tale om ganske mange typer dokumenter, som vi kort vil<br />
beskrive her. Vi henviser til bilag 5 for en uddybning. Danida stiller i sine retnings-<br />
linier for projektledelse krav til omfang, antal og karakter af den dokumentation, som<br />
skal udarbejdes i en projektcyklus. Danida inddeler projektcyklussen i tre faser:<br />
forberedelse, implementering og afslutning (Danida 2003B:11), og de obligatoriske<br />
dokumenter, som skal udarbejdes i hver fase af enten projektorganisationen, ambas-<br />
saden eller EK fremgår af denne model 45 :<br />
Forberedelse<br />
Identification/Preparation<br />
report<br />
Vurdering af muligheder<br />
Implementering<br />
Arbejdsplan/budget<br />
Afrapportering fra projekt<br />
til ambassade<br />
Afslutning<br />
Project Completion<br />
Report<br />
D. bev. enheds rapport<br />
Figur 7c<br />
Appraisal<br />
Teknisk-faglig<br />
vurdering<br />
Project Progress<br />
Report<br />
Opfyldelse af mål<br />
Evaluering<br />
(ikke obligatorisk)<br />
Project Document<br />
Mål, strategier,<br />
metoder<br />
Review<br />
Den bevilgende enhed har det overordnede dokumentationsansvar i forbindelse med<br />
mediebistandsprojekter, idet denne skal tilse udarbejdelsen af alle tre forberedelses-<br />
dokumenter, reviewet og den afsluttende Project Completion Report, som opsamles<br />
og arkiveres centralt i Danida hos EK. Den løbende projektrapportering, hvilket vil<br />
sige arbejdsplaner/budgetter, Project Progress Reports og Process Action Plans skal<br />
udarbejdes af projektorganisationen på baggrund af formater fastlagt i Danidas ret-<br />
45 Figuren illustrerer udelukkende de obligatoriske dokumenter i en projektcyklus - plus evalueringer.<br />
Dertil kommer en række andre dokumenter, som kan udarbejdes afhængig af projektets størrelse eller<br />
hvis særlige omstændigheder gør sig gældende (Danida 2003B:11f.).<br />
Process Action Plan<br />
Opfølgningsdokument<br />
77
ningslinier for projektledelse (Danida 200B3:35ff.). Figuren illustrerer, at der i de<br />
dokumentstudier, der foretages som en del af et review, indgår minimum fem<br />
dokumenttyper. I evalueringers dokumentstudiedel skal der som et minimum<br />
inddrages hele otte dokumenttyper, hvilket udgør en del af forklaringen på, at denne<br />
del af review-/evalueringsudførelsen ofte kræver mere tid end planlagt. Denne pointe<br />
vender vi tilbage til i kapitel 11.<br />
7.1.5.2. Feltstudier<br />
Den praktiske koordinering af feltstudiet og kontakt til interviewpersoner sker i et<br />
samarbejde mellem konsulentholdet og den projektansvarlige ambassade, der forud<br />
for konsulenternes ankomst indgår interviewaftaler og sørger for indlogering og<br />
transport. Et feltstudieprogram kan eksempelvis omfatte enkeltinterviews,<br />
observationer, besøg på projekter, workshops og møder med målgruppen og andre<br />
interessenter. I kapitel 10 behandler vi indgående de forhandlinger, som finder sted<br />
under feltstudierne mellem konsulenter, de evaluerede aktører og ambassa-<br />
den/Danida.<br />
7.1.5.3. Afrapportering<br />
Afrapportering består af tre trin: Inden konsulenternes afrejse fra felten afholdes en<br />
debriefing. En sådan debriefing kan foregå mundtligt som en diskussion mellem<br />
konsulenterne, de evaluerede aktører og repræsentanter for ambassaden. Den kan<br />
også foregå skriftligt – det vil sige, ved at konsulenterne sender en foreløbig oversigt<br />
over konklusioner til de implicerede parter. Konsulenterne udarbejder dernæst udkast<br />
til rapporten, som igen bliver distribueret til de involverede aktører, der har mulighed<br />
for at kommentere for sidste gang. Herefter udarbejdes den endelige rapport, som<br />
distribueres af den bevilgende enhed eller af EK til interne og/eller eksterne målgrup-<br />
per, afhængigt af om der er tale om et review eller en evaluering.<br />
7.1.6. Opfølgning<br />
7.1.6.1. Evalueringer<br />
EK har ansvaret for, at Danida følger op på de gennemførte evalueringer. Det sker<br />
ved, at EK tilser, at de involverede enheder i Danida samt Danidas partnere<br />
udarbejder et opfølgningspapir, der opstiller de konkrete tiltag, Danida vil tage for at<br />
følge op på rapportens konklusioner og anbefalinger (Danida 1999:46). EK under-<br />
søger herefter løbende, om planen følges, og at evalueringen dermed bidrager til<br />
kvalitetssikring af Danidas bistandsaktiviteter. Det er ligeledes EK, som formidler<br />
evalueringsresultaterne til interne og eksterne målgrupper.<br />
7.1.6.2. Reviews<br />
For reviews gælder det, at den bevilgende enhed er ansvarlig for distribution af<br />
rapporten til de evaluerede aktører og til BFT, og endvidere bliver den via det interne<br />
78
netværk gjort tilgængelig for alle medarbejdere i Danida. Den bevilgende enhed har<br />
ligeledes ansvaret for, at der bliver lavet et opfølgningsnotat (Process Action Plan, jf.<br />
figur 7c), hvor man forholder sig til rapporten, samt til hvorledes anbefalingerne kan<br />
imødekommes.<br />
7.1.6.3. Forskelle og fællestræk<br />
Den vigtigste forskel mellem procedurerne i forbindelse med opfølgning på reviews<br />
og evalueringer er, at evalueringsopfølgningen er forankret i EK, som er en<br />
organisatorisk enhed uden for rotationsordningen. Det vil sige, at medarbejderstaben<br />
er relativt stabil og har mulighed for at følge evalueringen og opfølgningen over<br />
længere tid. Modsat er ansvaret for opfølgning af reviews placeret i de bevilgende<br />
enheder, hvor medarbejderne er under rotation. Vi beskriver rotationsordningen og<br />
dens konsekvenser i redegørelsen for Danida som praksisfællesskab i afsnit 7.2.<br />
7.1.7. Forskelle og ligheder mellem reviews og evalueringer<br />
Vi har nu redegjort for de organisatoriske rammer og formelle procedurer, som<br />
gælder for reviews og evalueringer i Danida, og har i den forbindelse peget på en<br />
række forskelle og ligheder, hvoraf nogle synes væsentligere end andre. Først og<br />
fremmest adskiller evalueringer sig fra reviews ved at være offentlige dokumenter<br />
med en symbolsk funktion i forhold til at varetage forholdet mellem Danida og<br />
organisationens omverden. Desuden spiller det en vigtig rolle, at reviews er forankret<br />
i bevilgende enheder, som er underlagt rotationsordningen, mens ansvaret for<br />
evalueringer er placeret i EK. En sidste forskel er, at retningslinierne for evalueringer<br />
er langt mere udbyggede og præcise end for reviews. Dette betyder i praksis, at<br />
evalueringsretningslinierne – eksempelvis i forhold til anvendelse af bestemte<br />
evalueringskriterier, håndhævelse af uafhængighedskriteriet i udvælgelsen af<br />
konsulenter med mere – forplanter sig nedad i dokumenthierarkiet og således også<br />
anvendes i forbindelse med reviews. Derfor minder reviews ofte om evalueringer,<br />
både hvad angår anvendte metoder, form og indhold:<br />
... en gang i mellem så er det sådan lidt semantik, altså et godt og grundigt<br />
reviewstudie kan være lige så værdifuldt som en evaluering. Så man skal ikke<br />
sådan sige, at det ene er bedre end det andet, men de opfylder forskellige<br />
målsætninger. (<strong>OG</strong>)<br />
Præcis hvilke ”forskellige målsætninger”, der er tale om, fremgår dog ikke klart –<br />
hverken af Danidas retningslinier eller af de interviewede Danidamedarbejderes<br />
udsagn. Eksempelvis har flere medarbejdere udtrykt, at det læringsformål,<br />
henholdsvis reviews og evalueringer har, ikke er det samme – eksempelvis sigter<br />
evalueringernes læringsdimension primært mod Danidas organisation, og reviews’<br />
ditto mod projektorganisationerne, mener en medarbejder. En anden mener<br />
imidlertid, at forskellen består i, at det læringsmæssige udbytte af evalueringer er<br />
forholdsvist begrænset, de tjener i højere grad til en bagudrettet kontrol af Danidas<br />
79
indsats i en region eller sektor, mens reviews har læring som det fremmeste mål, og<br />
kontrollen er sekundær. Vi vil tillade os at se den interne uenighed, der er skitseret<br />
her, som udtryk for, at der ikke eksisterer en fælles holdning til, hvori den eksakte<br />
forskel mellem formålene med reviews og evalueringer består, samt at forskellene er<br />
så små, at man ikke kan argumentere for at opretholde et så skarpt analytisk skel<br />
mellem reviews og evalueringer, sådan som Danidas medarbejdere ellers har<br />
opfordret os til. I vores udredning af samspillet mellem læring og kontrol vil vi derfor<br />
– med ovenstående forskelle in mente – behandle reviews og evalueringer under et,<br />
hvor intet andet er nævnt.<br />
7.2. Danida, konsulenter og partnere – tre<br />
praksisfællesskaber<br />
Fra at have karakteriseret grænseobjekterne, evalueringer og reviews, vender vi nu<br />
blikket mod de praksisfællesskaber, som interagerer igennem grænseobjekterne. Det<br />
drejer sig om Danida, de eksterne konsulenter og Danidas partnerorganisationer. Vi<br />
har tidligere skelnet mellem fire roller, der indgår i en evaluerings-/reviewproces (se<br />
afsnit 1.4.2.). Af skemaet neden for fremgår det, hvilke roller de tre nævnte<br />
praksisfællesskaber indtager i løbet af processen:<br />
Opdragsgiver<br />
Evaluator/reviewer<br />
Evalueret aktør<br />
Målgruppe<br />
Figur 7d<br />
Danida Eksterne konsulenter Danidas partnere<br />
X<br />
(X)<br />
X<br />
X<br />
Danidas rolle i evaluerings- og reviewsammenhæng er – som det fremgår af figuren –<br />
kompleks og sammensat, idet organisationen, eller rettere forskellige dele af<br />
organisationen, indtager alle funktioner undervejs i processen. I afsnit 7.1.<br />
underinddelte vi praksisfællesskabet Danida i en række mindre enheder – herunder<br />
EK, BFT og de bevilgende enheder. EK og de bevilgende enheder har rollen som<br />
opdragsgivere, og i visse tilfælde agerer BFT reviewere (interne konsulenter). De<br />
bevilgende enheders arbejde er desuden genstand for evaluering og review, hvorfor<br />
Danida også i mange tilfælde kan karakteriseres som en evalueret aktør. Endelig<br />
udgør Danida en af de interne målgrupper for både reviews og evalueringer. Det er<br />
imidlertid i rollen som opdragsgiver, Danida er mest interessant i forhold til den<br />
aktuelle problemstilling. I vores ordvalg tillader vi os derfor at reducere<br />
kompleksiteten ved at anvende betegnelsen opdragsgiver synonymt med Danida.<br />
De eksterne konsulenter agerer som evaluatorer/reviewere, og om disse aktører<br />
anvender vi betegnelserne: konsulent, evalueringshold og reviewhold.<br />
X<br />
(X)<br />
X<br />
X<br />
80
Danidas partnere er først og fremmest evaluerede aktører, hvorfor vi anvender de to<br />
betegnelser – partnere og evaluerede aktører – synonymt. Ydermere er de en del af<br />
målgruppen for både reviews og evalueringer, og i tilfælde, hvor man kan tale om<br />
’selvevaluering’, indtager partnerne også i rollen som evaluatorer/reviewere.<br />
På de følgende sider karakteriseres de tre aktørgrupper som praksisfællesskaber med<br />
hver deres arbejdsmetoder, fysiske rammer, organisationsstrukturer, aktiviteter samt<br />
interaktions- og kommunikationsformer. Fokus er lagt på særlige forhold, som har<br />
betydning for analysen af forhandlingerne i forbindelse med evalueringer og reviews.<br />
7.2.1. Opdragsgiveren: Danida<br />
7.2.1.1. Rotation<br />
Danida er først og fremmest præget af den såkaldte rotationsordning, som vi allerede<br />
har nævnt et par gange. Den består i, at Danidas medarbejdere hvert, hvert andet eller<br />
hvert tredje år skifter kontor og arbejdsområde. Eftersom en stor del af Udenrigsmini-<br />
steriets opgaver løses på repræsentationer i udlandet, så betyder rotationen, at<br />
medarbejderne med nogle års mellemrum bliver udstationeret for en periode. Når<br />
man i Udenrigsministeriet organiserer sig på denne måde, skyldes det frem for alt, at<br />
det er en nødvendighed for at kunne holde på de ansatte, fordi det af hensyn til<br />
familie og karriere ikke lader sig gøre for en stor del af medarbejderne at blive<br />
udstationeret i en længere årrække. Konsekvenserne af rotationen er imidlertid<br />
mange, og ikke mindst for et lille område som mediebistanden har det betydning, at<br />
der med en relativt høj frekvens er udskiftning blandt de ansvarlige medarbejdere.<br />
Rotationsordningen betyder, at de ansatte i de bevilgende enheder som hovedregel<br />
ikke har et forhåndskendskab til mediebistand, samt at de ikke når at oparbejde en<br />
grundig viden i løbet af deres relativt korte udstationering. BFT er et forsøg på at<br />
kompensere for rotationsordningens konsekvenser og sikre en faglig specialviden og<br />
kontinuitet:<br />
… grunden til, at, at det er BFT, som fagteknikere, der ved mest om<br />
programmerne, det er fordi de har normalt haft en større kontinuitet i huset.<br />
Hvor resten af huset har jo cirkuleret med rimelig høj hastighed, og det gør jo<br />
så, at folk, måske i Afrika-kontoret, der har siddet med NSJ eller MISA, har<br />
siddet med det i et halvt eller et helt år, måske op til to år, hvis de har været<br />
rigtig, rigtig heldige. Og det er altså sjældent set.<br />
Den faglige viden og det store overblik befinder sig således i København, mens det er<br />
medarbejderen på ambassaden, der har kendskab til projekternes fremdrift, aktuelle<br />
problemer og samfundsmæssige kontekst. Rotationsordningen udgør en stor<br />
udfordring i forhold til at realisere Danida som ’en lærende organisation’ (jf. afsnit<br />
4.3), idet der er risiko for, at mange pointer og erfaringer går tabt. Vi vender i<br />
81
analysen tilbage til denne problematik, når vi i afsnit 12.2.2. ser nærmere på de<br />
konkrete konsekvenser af rotationsordningen.<br />
7.2.1.2. Travlhed<br />
Et andet kendetegn ved Danidas organisation er den travlhed, der præger de fleste<br />
medarbejderes hverdag, og som er blevet skærpet i forbindelse med en række<br />
nedskæringer i medarbejderstaben, der har fundet sted i løbet af de seneste tre til fire<br />
år. Travlheden giver sig udslag i, at der ikke er én medarbejder i Danida, som blot<br />
beskæftiger sig med mediebistand. Området varetages af en person i BFT, som<br />
desuden er ansvarlig for aktiviteter, der vedrører køns- og ligestillingsaspekter samt<br />
oprindelige folks rettigheder.<br />
7.2.2. Evaluatorerne: Eksterne konsulenter<br />
Blandt andet for at kompensere for travlheden og den manglende fagspecifikke viden<br />
i Danida, benytter organisationen sig i vidt omfang af ekstern konsulentbistand.<br />
Samlet set køber Danida sig således årligt til eksterne konsulentydelser for lidt over<br />
600 mio. kr. (Katîc 2004). På medieområdet er der primært tale om to former for<br />
konsulentydelser: dels såkaldte ’rådgivningsopgaver’, hvor en ekstern konsulent<br />
hyres til at rådgive et bestemt mediebistandsprojekt eller -program i kortere eller<br />
længere tid, dels opgaver i forbindelse med udarbejdelse af reviews, evalueringer<br />
eller en af de andre dokumentationsopgaver, vi redegjorde for i afsnit 7.1.5.1.<br />
7.2.2.1. Økonomisk afhængighed af Danida<br />
Mediebistand er et lille felt. For det første fylder det ikke meget på Danidas budget,<br />
for det andet er der ikke mange donorer/opdragsgivere på feltet, og for det tredje er<br />
der ganske få konsulenter, som er specialiserede inden for netop medier, demokrati<br />
og udvikling. Det betyder, at der er mange gengangere blandt de eksterne<br />
konsulenter, som Danida benytter sig af, og at disse gengangere følgelig er<br />
økonomisk afhængige af at få opgaver fra Danida. Graden af økonomisk<br />
afhængighed varierer, alt efter om der er tale om fuldtidskonsulenter eller om<br />
eksempelvis forskere og undervisere ved højere læreanstalter, som har en anden<br />
primærindkomst. Den samlede gruppe af mediekyndige konsulenter, som anvendes af<br />
Danida, betegnes i daglig tale ’ressourcebasen’.<br />
7.2.2.2. Engagement<br />
Et vigtigt kendetegn ved de eksterne konsulenter, som Danida gør brug af på<br />
medieområdet, er, at de typisk har et stort fagligt og idealistisk engagement i<br />
mediebistand. Det kommer til udtryk i tilstedeværelsen af subjektive<br />
holdningstilkendegivelser i rapporterne. Nedenstående citat er et eksempel på en<br />
tilkendegivelse, idet forfatteren ved brug af modalverbet ”should” markerer sine<br />
personlige normer for både køns- og mediepolitik:<br />
82
Media workers should also be intellectual activists, political thinkers and<br />
knowledgeable commentators on art and culture, science and philosophy, on<br />
history (her story) governance and human rights. (MISA 04:25)<br />
Desuden udtrykkes engagementet i de interviews, vi har gennemført, hvor der tegner<br />
sig et billede af, at konsulenterne nærer et stort ønske om at kunne bidrage til<br />
videreudvikling og forbedring af mediebistanden. Dette ønske udmønter sig blandt<br />
andet i en frustration over ikke at kunne følge et review eller en evaluering til dørs,<br />
idet man som ekstern konsulent slipper processen, når den endelige rapport<br />
godkendes af Danida. Konsulenterne har derfor ingen indflydelse på evalueringens/<br />
reviewets videre skæbne eller på, hvilke konsekvenser partnerne og Danida drager af<br />
konklusionerne. Dette oplever samtlige af de interviewede konsulenter som<br />
frustrerende:<br />
Det synes jeg nemlig er et meget stort problem: at man afleverer sin rapport, og<br />
så er man ude af det projekt. Og så har man ikke nogen… altså så skal man<br />
jo… (P1). Man har ikke nogen ret til ligesom… at få at vide, hvad det er, der<br />
sket. Så skal du altså rende rundt selv og skaffe de der oplysninger, ikke, og<br />
irritere folk med at spørge og spørge, ikke? Altså, det synes jeg er et stort<br />
problem, det er den manglende kontinuitet. Det er… det er det værste ved at<br />
arbejde som konsulent, synes jeg. At du… Du arbejder og er totalt engageret i<br />
et projekt i øh… altså sådan en reviewproces tager jo over en måned, ikke, når<br />
du tager forbehold… nok seks uger… seks uger til to måneder, ikke? (…)<br />
Totalt engageret i det der, ikke? Og så øh... afleverer du en rapport, og så…<br />
hører du ikke mere. (P3). (KS)<br />
Som denne konsulent forklarer, skyldes frustrationen det bratte skift fra at have det<br />
fulde ansvar og være ”totalt engageret” til ikke alene at miste berøringen med<br />
processen, men også at miste retten til ”at få at vide, hvad det er, der er sket”. Vi<br />
behandler konsulenternes engagement i mediebistanden og deres økonomiske<br />
afhængighed af Danida mere indgående i kapitel 10.<br />
7.2.3. De evaluerede aktører: Danidas partnere<br />
Som det fremgik af begrebsafklaringen i afsnit 1.4.1. anvender vi betegnelsen<br />
’Danidas partnere’ om projektorganisationer og eksterne implementerende<br />
organisationer (IO).<br />
7.2.3.1. Projektorganisationer<br />
Projektorganisationer er ansvarlige for driften af et medieprojekt, eksempelvis en<br />
journalistisk efteruddannelsesinstitution, et medieinstitut, en lokalradio eller<br />
lignende, og har i udgangspunktet hjemsted i Danidas programsamarbejdslande i<br />
Afrika, Asien og Latinamerika. Dog er der inden for mediebistanden enkelte<br />
eksempler på projektorganisationer med base i Danmark. Fælles for dem alle er, at de<br />
opererer med usikre fremtidshorisonter, idet støtten fra Danida typisk bevilges i faser<br />
af to til tre års varighed. Hvorvidt støtten forlænges, afhænger blandt andet af<br />
konklusionerne på reviews og/eller evalueringer, men også andre faktorer som for<br />
83
eksempel skiftende danske regeringers forskellige politiske prioriteringer kan være<br />
udslaggivende herfor.<br />
Den kompetente projektorganisation<br />
En anseelig del af kommunikationen mellem Danida og projektorganisationerne sker<br />
i form af dokumentation og løbende rapportering, hvoraf de periodiske reviews samt<br />
eventuelle evalueringer udgør en mindre del. Som nævnt er der en række formelle<br />
krav og procedurer, der gør sig gældende i forbindelse med udarbejdelsen af<br />
projektrapportering – krav og procedurer, som er fastsat af Danida. Således foregår<br />
kommunikationen mellem projekterne og donoren i vidt omfang på sidstnævntes<br />
præmisser, hvorfor det er væsentligt for en projektorganisation at besidde en række<br />
kompetencer i form af et bestemt sæt arbejdsmetoder og en bestemt sprogbrug, som<br />
er gængse inden for donorverdenen. Hvorvidt en projektorganisation besidder disse<br />
kompetencer afhænger af tre faktorer. Først og fremmest spiller det en rolle, hvor<br />
længe organisationen har indgået i partnerskabet med Danida, idet den med tiden vil<br />
tilegne sig erfaringer og viden om de vilkår, praksisfællesskabet fungerer under<br />
(Bowker & Star 1999:299). For det andet har medarbejdernes uddannelsesniveau<br />
betydning, idet projektrapportering og andre bedømmelsesaktiviteter i høj grad<br />
kræver tekniske og akademiske forudsætninger. Endelig spiller geografien ind. Jo<br />
længere væk – både fysisk og kulturelt – en projektorganisation befinder sig fra<br />
Asiatisk Plads i København, desto vanskeligere kan det være at forstå Danidas<br />
struktur og kultur. Med henblik på at øge en projektorganisations kompetencer kan<br />
det derfor være en fordel for organisationen (og Danida) at have tilknyttet en<br />
rådgiver.<br />
Rådgiverrollen<br />
En rådgiver kan enten være en fuldtidsansat, udstationeret person, der fungerer som<br />
daglig leder af et mediebistandsprojekt, eller en deltidsansat rådgiver, som jævnligt<br />
besøger et projekt, men ellers er bosat i Danmark. Det er projektets karakter og<br />
størrelse, der afgør hvilken rådgivertype, man ansætter: Jo større projektet er, jo<br />
større vurderes behovet for at ansætte en udstationeret rådgiver.<br />
7.2.3.2. Eksterne implementerende organisationer<br />
En IO er mellemled mellem Danida og projektorganisationen, og den er således<br />
forpligtet over for begge parter. Over for donor er IO ansvarlig for at implementere<br />
og dokumentere projektet og skal desuden foretage opfølgning på reviews og<br />
evalueringer. Sideløbende med disse forpligtelser over for donor indgår IO som en<br />
uadskillelig del af projektorganisationen og er ofte involveret i den daglige drift. En<br />
IO varetager således i mange tilfælde udarbejdelse af arbejdsplaner og budgetter,<br />
ansættelse af medarbejdere samt sparring med projektorganisationens ledelse. Når et<br />
84
projekt evalueres eller reviewes, er en IO’s indsats også under lup, hvorfor vi<br />
betragter IO’erne som en del af gruppen evaluerede aktører.<br />
I forhold til besvarelse af vores problemstilling er projektorganisationerne den mest<br />
interessante gruppe blandt de evaluerede aktører, da de er mest afhængige af<br />
bistandsmidlerne og derfor mest følsomme i forhold til evalueringers og reviews<br />
kontrolaspekt. Når både rådgivere og IO har fået relativt megen omtale i dette afsnit,<br />
skyldes det, at disse indgår i specialets empiri som repræsentanter for de evaluerede<br />
aktører. Grunden er som nævnt, at det af metodiske årsager ikke har været muligt for<br />
os at gennemføre interviews med projektaktører i et større omfang.<br />
Vi har valgt at udelade en opsummering efter dette redegørende kapitel, idet de<br />
fremstillede pointer enten taler for sig selv eller fungerer som et oplæg til en senere<br />
analyse. Vi vil derfor straks bevæge os videre til en analyse af de tre<br />
praksisfællesskabers forskellige forståelser af kontrol og læring.<br />
85
8. Forskellige forståelser af læring og kontrol<br />
Af Danidas retningslinier fremgår det, at organisationen gennemfører evaluering med<br />
et dobbelt formål: erfaringsopsamling og dokumentation.<br />
(1) Accumulation of Experience. Evaluations shall contribute to the<br />
improvement of aid by the collation, analysis and dissemination of experience<br />
from current and completed aid activities. Evaluations shall seek the causes and<br />
explanations as to why activities succeed or fail to succeed and produce<br />
information that helps make future activities more relevant and effective.<br />
(2) Documentation. Evaluations shall provide political decision makers and<br />
the general public with professional documentation as to the use and results of<br />
aid resources and also contribute to a better understanding of development aid,<br />
its potential and limitations as an instrument for economic and social change.<br />
(Danida 1999:7)<br />
Danida taler altså ikke om kontrol og læring, men anvender de mere neutrale<br />
betegnelser ”dokumentation” og ”erfaringsopsamling”. De evaluerede aktører<br />
forbinder imidlertid kontrolformålet med en negativ oplevelse af at skulle ”tjekkes”.<br />
Samtidig ønsker de en større grad af ”nytteværdi” og ”deltagelse”. Blandt de eksterne<br />
konsulenter behæftes evalueringers og reviews’ kontrolfunktion med associationer<br />
som ”straf”, ’eksamen’ og ’dom’, mens læringsformålet omtales i mere positive<br />
vendinger såsom ”dialog”, ”participation” og ”fælles proces”.<br />
Disse forskellige ordvalg indikerer, at de tre praksisfællesskaber – Danida, Danidas<br />
partnere og de eksterne konsulenter – har forskellige forståelser af, hvad de to formål<br />
betyder i praksis, samt hvordan de bidrager til at forme Danidas evalueringspraksis.<br />
Det er disse forskellige forståelser, vi stiller skarpt på i nærværende kapitel. Den<br />
teoretiske ramme omkring analysen er Foucaults diskursbegreb (Foucault 1978 &<br />
1991). Vi beskrev i kapitel 2 evalueringer og reviews som diskursive praktikker, i<br />
udførelsen af hvilke de involverede aktører trækker på de videnshorisonter og<br />
subjektpositioner, som stilles til rådighed inden for bestemte diskurser. Aktørernes<br />
handlinger og forståelser er ikke udtryk for individuelle, intentionelle valg, men<br />
afspejler de strukturer og styrkeforhold, som manifesterer sig i den konkrete<br />
diskursive praktik. En analyse af Danidas, partnernes og konsulenternes ordvalg og<br />
forståelser af kontrol og læring er således en nøgle til analyse af de magtrelationer,<br />
som præger evaluering og review af dansk mediebistand.<br />
Kapitlet er inddelt i fire afsnit. Indledningsvist undersøges i afsnit 8.1. de to<br />
kontrolforståelser, som kommer til udtryk i vores interviewmateriale: Henholdsvis<br />
legitim kontrol og inspektion. Afsnit 8.2. omhandler de to læringsforståelser:<br />
Konsensusbaseret læring og participatorisk læring. Hvorvidt de tre<br />
praksisfællesskaber anser lærings- og kontrolformålene for at være gensidigt<br />
86
understøttende eller i modstrid med hinanden behandler vi i afsnit 8.3., mens 8.4.<br />
opsamler kapitlets hovedpointer.<br />
8.1. Kontrol<br />
I den korte præsentation af Danidas, partnernes og konsulenternes ordvalg blev det<br />
antydet, at der er to overordnede opfattelser af kontrol på spil i Danidas review- og<br />
evalueringspraksis. Den ene er positivt ladet og trækker på den evalueringsteoretiske<br />
kontroldiskurs’ perspektiv på kontrol som en demokratisk legitim foranstaltning.<br />
Denne forståelse, som vi benævner legitim kontrol, fremføres hovedsageligt af<br />
Danida og bliver præsenteret nærmere i afsnit 8.1.1. Den anden opfattelse hæfter<br />
negative konnotationer på kontrolbegrebet og trækker dermed på den kritik af<br />
evalueringer som kontrolredskab, der fremføres af fortalere for den participatoriske<br />
læringsmodel. Den negative oplevelse af kontrol som en ubehagelig inspektion<br />
kommer særligt til udtryk i interviews med partnere og konsulenter og introduceres i<br />
afsnit 8.1.2.<br />
8.1.1. Legitim kontrol<br />
Under fremstillingen af den evalueringsteoretiske kontroldiskurs i kapitel 4<br />
præsenterede vi begrebet ansvarliggørelse – et krav til den offentlige forvaltning om<br />
at fremvise resultater og stå til regnskab overfor politikerne og vælgerne. Kravet, som<br />
de Danidaansatte har oplevet i stigende grad gennem de seneste 10-15 år, giver sig<br />
blandt andet udslag i indførelsen af resultatbaseret ledelse og et større fokus på<br />
evalueringer og reviews:<br />
… når der er kommet mere politisk fokus på evaluering, så er det nok et<br />
spørgsmål om resultatorientering, målbare resultater. Kravet fra politisk hold<br />
om, at vi skal vise, hvad der kommer ud af pengene (...). Det er kommet op<br />
gennem 90’erne. Value for money. Hvad får vi ud af det? (<strong>OG</strong>)<br />
I Danida er medarbejderne på den ene side irriterede over tendensen til resultat-<br />
orientering: ”Alt skal sgu måles og rapporteres. Og det synes jeg, at det er en… det er<br />
ved at gå for vidt” (<strong>OG</strong>), som en af dem udtrykker det. På den anden side opleves det<br />
som positivt, at man i organisationen får lejlighed til at dokumentere pengenes<br />
anvendelse, da det giver håndfaste modargumenter, eksempelvis når der i medierne<br />
berettes om, hvordan statskassen yder støtte til mislykkede projekter:<br />
... vi bliver nødt til at blive bedre til at dokumentere det fantastiske arbejde<br />
(griner), vi synes, vi laver. Jamen, det er møgirriterende, at en eller enkelt<br />
artikel i en dansk avis om misbrug for to millioner skal gå ind og ligesom ryste<br />
hele systemet, fordi vi har… altså om året bruger vi 10 milliarder, så det er jo<br />
også… (<strong>OG</strong>)<br />
At kontrolelementet indgår i både reviews og evalueringer kan således ses som følge<br />
af både et eksternt pres for dokumentation af bistandens resultater og en intern<br />
motivation for at bevise nytten af organisationens aktiviteter og imødegå tendensen<br />
87
til bistandstræthed i befolkningen. I og med at evalueringer offentliggøres, mens<br />
reviews er interne arbejdsdokumenter, sker kommunikationen til offentligheden mest<br />
direkte igennem evalueringerne. Men skønt reviews er internt rettet, vurderer vi, at<br />
denne bedømmelsesaktivitet tillige har en betydelig symbolsk funktion (Dahler-<br />
Larsen 2004:31), som hviler – ikke på resultaterne deraf – men på selve udførelsen:<br />
Ved at gennemføre reviews signalerer Danida nemlig, at organisationen løbende<br />
monitorerer sig selv. Både reviews og evalueringer bidrager således til, at Danida<br />
over for offentligheden kan hævde at have fokus rettet mod kvalitetssikring og<br />
opnåelse af resultater.<br />
I Danidas dokumenter og i interviews med organisationens ansatte refereres der til<br />
offentligheden, medierne og politikerne både som målgruppe for og årsag til<br />
evalueringernes og reviewenes kontrolfunktion. Relationen mellem Danida som<br />
kontrollant og partnerne som de kontrollerede tematiseres ikke. Den væsentlige<br />
relation i forståelsen af kontrollen som demokratisk legitim er således offentligheden<br />
versus udviklingsbistanden, hvor sidstnævnte omfatter både Danida og Danidas<br />
partnere, der antages at have en fælles interesse i at ’dokumentere’ og ’kvalitetssikre’<br />
deres fælles arbejde (Danida 1999:7).<br />
8.1.2. Inspektion<br />
Dette positive fællesskab, som ifølge Danida eksisterer mellem organisationens<br />
partnere og den selv, opleves ikke på samme måde af partnerne og konsulenterne,<br />
som i højere grad problematiserer det ulige styrkeforhold mellem Danida og Danidas<br />
partnere i kontrolsituationen. Både konsulenter og partnere udtrykker ganske vist<br />
forståelse for Danidas behov for at legitimere sig og leve op til kravet om<br />
ansvarliggørelse:<br />
… vor herre bevares, de systemer har også brug for deres dokumentation for, at<br />
det de gør, er rigtigt. (PO)<br />
Men som det fremgår, så føler den citerede partner sig ikke som en del af ”de<br />
systemer”, der har en andel og interesse i kontrollen – tværtimod oplever både<br />
partnere og konsulenter, at de bliver taget som gidsler i Danidas dokumentations-<br />
bestræbelser. Denne påstand vil vi uddybe i det følgende ved først at se på den<br />
betydning, som de økonomiske rammer omkring mediebistanden spiller for<br />
partnernes oplevelse af at blive udsat for inspektion, og dernæst ved at undersøge<br />
samspillet mellem konsulenter og evaluerede aktører i løbet af review- og<br />
evalueringsprocessen.<br />
8.1.2.1. Utryghed<br />
Partnerne betragter reviews og evalueringer som en obligatorisk forudsætning for<br />
fortsat støtte, og i den forstand er der i partnernes kontrolforståelse – samt ikke<br />
mindst i deres motivation for at deltage i kontrollen – et underliggende spørgsmål om<br />
88
økonomi. Med andre ord er det et uomtvisteligt vilkår, eller rettere: et nødvendigt<br />
onde, for projektet at udsætte sig for kontrol. I kraft af fasestrukturen lever Danidas<br />
partnere en økonomisk usikker tilværelse, og denne usikkerhed skærpes i forbindelse<br />
med gennemførelsen af reviews og evalueringer:<br />
… vi har ikke kunnet få at vide, hvad der skulle ske, og vores projekter, vores<br />
institutter, lider under det, fordi der er jo for så vidt aftaler om… altså der er toårs<br />
kontrakter, hvor man kun ved, hvad der skal ske to år frem. (…) Og<br />
[reviewet] bekymrer os selvfølgelig lidt, fordi det betyder, at der kommer<br />
mindst et års forsinkelse. Så vi søger bridging til nogle af de her, for at holde<br />
institutterne kørende. Øh… men altså, vi er selvfølgelig også lidt bekymrede<br />
over kontinuiteten i det, fordi gad vide hvem der bliver hyret som konsulenter<br />
til at sige, hvad de mener, der er behov for dernede. (PO)<br />
At partnerne er særdeles bevidste om sammenhængen mellem en positiv bedømmelse<br />
og fortsat støtte fra Danida, underbygges af de to følgende citater, hvor forskellige<br />
partnere udtaler sig om deres oplevelse af at blive henholdsvis reviewet og evalueret:<br />
It can therefore be stated that if the conclusion was that the success criteria had<br />
been achieved, this would be evidence to support the fact that Danish foreign<br />
aid was being used effectively and usefully. Such a conclusion was<br />
furthermore, necessary to guarantee further support from Denmark (PO, vus.)<br />
... det var blandt andet derfor [pga. en positiv evaluering] vi også fik penge<br />
igen. At vi så gerne ville have haft nogle flere (…) – det er så en anden ting.<br />
Men… Så på den måde var det jo dejligt. (PO:14)<br />
Magten til at bedømme mediebistandsprojekterne, og dermed magten til – i hvert fald<br />
i nogen udstrækning – at afgøre deres fremtid, er delegeret til de eksterne<br />
konsulenter. Denne kontrollantrolle opfattes som ubehagelig af samtlige af de<br />
konsulenter, vi har talt med, hvilket de blandt andet giver udtryk for ved at beskrive<br />
kontrolprocessen med ord som ’dom’, ’straf’ og her ’eksamen’:<br />
… man kommer ud og behandler projektet eller programmet eller<br />
samarbejdsorganisationen, kan du sige, som objektet, ikke. Så at nu skal vi ud<br />
og eksaminere jer. (KS)<br />
8.1.2.2. Manglende indflydelse<br />
Et andet forhold, der bidrager til partnernes negative oplevelse af kontrol som<br />
inspektion, er deres manglende mulighed for at påvirke bedømmelsesprocessen. Som<br />
beskrevet i det foregående kapitel, er det reelt kun Danida, der har indflydelse på<br />
initieringen af evalueringer og reviews, og vi vil senere argumentere for, at<br />
partnernes muligheder for at påvirke designet af undersøgelserne i praksis er<br />
begrænset, trods Danidas gode intentioner. Tilbage står partnernes mulighed for at<br />
påvirke udførelsen af og opfølgningen på evalueringer og reviews. Hvorvidt en<br />
partnerorganisation er i stand til at udnytte denne mulighed afhænger imidlertid dels<br />
af dens grad af ’kompetence’, det vil sige dens evner til at interagere med donor på<br />
dennes præmisser, og dels har det betydning, hvilken metodisk tilgang konsulenterne<br />
har valgt.<br />
89
I kapitel 9 og 10 redegør vi nærmere for de anvendte metoder i de analyserede<br />
review- og evalueringsforløb og for partnernes forskellige oplevelser heraf, men her<br />
bør det nævnes, at partnerne generelt giver udtryk for frustration over, at de er<br />
overladt til ukendte konsulenters nåde. Partnerne må finde sig i at blive<br />
dobbelttjekket, når der eksempelvis er: “obvious and clear instances of occasions<br />
when the team needed to verify certain statements” (PO), eller når konsulenterne ”...<br />
var mere optaget af… af, det de hørte fra dem, vi arbejder med, end vores egen<br />
forståelse af, hvad det var vi gjorde” (PO). Konsulenternes distance, som vokser ud<br />
af den evalueringsteoretiske kontroldiskurs’ forskrifter om objektivitet, opleves af<br />
partnerne som et udtryk for mistillid og manglende respekt:<br />
Fordi man må også respektere ligesom, at man arbejder med en organisation,<br />
som selvom den er støttet af Danida, så er den en enhed, der har sin egen<br />
vision, og sine egne visioner om, hvad man vil, ikke. Ledelsen og<br />
medarbejderne har deres egne idéer om, hvad de, hvorfor de er der, og hvad de<br />
gerne vil. Og det kan man jo ikke bare sådan… lege med som legoklodser og<br />
sige, jamen nu har I lavet det, og nu skal I lave det. Og det er den der respekt i<br />
det, den manglede noget, syntes jeg. (PO)<br />
Partnerens fremstilling af reviewprocessen som en ’leg med legoklodser’ under-<br />
streger, i hvor høj grad vedkommende har følt sig behandlet som en genstand for<br />
inspektion. I stedet efterspørger partnerne respekt – en efterspørgsel, der blandt andet<br />
udmønter sig i ønsket om at blive inddraget og få medindflydelse på evaluerings- og<br />
reviewprocessen.<br />
8.2. Læring<br />
Hvor de tre praksisfællesskabers kontrolopfattelser let lader sig placere på en positiv-<br />
negativ-akse, er deres læringsforståelser mindre håndgribelige. Dette skyldes givetvis<br />
læringsbegrebets slagordsagtige status, der blev beskrevet i afsnit 4.3., for ”hvem er<br />
imod læring?”, som Dahler-Larsen retorisk spørger (Dahler-Larsen 1998:33). Dét er<br />
hverken Danida, de eksterne konsulenter eller Danidas partnere. Men ved nærmere<br />
eftersyn adskiller aktørgruppernes forståelse af og krav til en god læringsproces sig<br />
fra hinanden. Mens partnerne og konsulenterne stiller krav om inddragelse, indflydel-<br />
se og myndiggørelse og dermed trækker på en participatorisk læringsdiskurs, er den<br />
forståelse, som kommer til udtryk i Danidas dokumenter og interviews med organisa-<br />
tionens medarbejdere, mere ukonkret.<br />
8.2.1. Konsensusbaseret læring<br />
Når vi beskriver Danidas læringsbegreb som ukonkret, skyldes det, at det af såvel<br />
Danidamedarbejdernes udtalelser som i organisationens publikationer fremgår, at det<br />
vigtigste formål med evalueringer og reviews er at opsamle erfaringer. Men præcis<br />
hvilke erfaringer, der skal opsamles, hvordan de skal formidles til hvem, og hvem der<br />
har det konkrete ansvar for, at erfaringerne omsættes til en forbedring af indsatsen,<br />
har vi ikke kunnet få klare bud på. Det citat om evalueringers læringsmålsætning,<br />
90
som indledte kapitlet, er netop et eksempel på de ukonkrete og entusiastiske<br />
formuleringer, som omgærder Danidas læringsforståelse:<br />
Evaluations shall contribute to the improvement of aid by the collation,<br />
analysis and dissemination of experience from current and completed aid<br />
activities. (Danida 1999:7, vus.)<br />
Heraf fremgår det tydeligt, at Danida sætter lighedstegn mellem erfaringsopsamling<br />
og forbedring af udviklingsbistanden. Læring er altså per definition en god ting.<br />
8.2.1.1. Hologrammetaforen<br />
At Danidas læringsforståelse ligger i umiddelbar forlængelse af organisationens<br />
kontrolforståelse kommer til udtryk ved, at de i mediebistanden involverede aktører<br />
beskrives som en enhed med fælles interesse i at opsamle erfaringer. De interviewede<br />
Danidamedarbejdere skelner således ikke mellem, om det er projektorganisationerne,<br />
IO’erne eller Danida selv, som har læringsudbytte af evalueringer og reviews. I stedet<br />
anvender de betegnelser som ”man” og ”vi”, hvilket nedenstående uddrag er et<br />
eksempel på:<br />
... reviewene er jo netop, i og med at de er fremadrettede og er med som<br />
justerende elementer i processen, de er jo også med til at tillade, at man kan<br />
tage nogen chancer, at man kan prøve noget af, og sådan noget. Og så kan man<br />
så take stock efter et år eller halvandet år, og så sige, jamen, giver det her<br />
bonus eller giver det ikke bonus? Jamen, det gør det åbenbart ikke alligevel,<br />
jamen så justerer vi på en anden måde. (<strong>OG</strong>, vus)<br />
Den erfaringsopsamling, som reviews og evalueringer danner rammen omkring,<br />
anses således for at være til gavn for den samlede mediebistand.<br />
I interviewene beskrives den enkelte Danidamedarbejders udvikling og læring som<br />
en integreret del af den organisatoriske læringsproces, hvilket indikerer, at<br />
medarbejderne trækker på det læringsbegreb, vi tidligere har beskrevet ved hjælp af<br />
Morgans hologrammetafor (jf. afsnit 4.3.1). Ligesom den enkelte del af hologrammet<br />
afspejler helheden, antages hver enkelt medarbejder at afspejle den fælles<br />
organisatoriske vision om kvalitetssikring og læring.<br />
... det er så fedt at have besøg af et, et rigtig godt, engageret review-team. Øh,<br />
både fordi man bliver begejstret igen, men også fordi at man så, hvis man…<br />
Det er legitimt, at man bruger tre fjerdedele af sin tid på det her i en hel uge.<br />
(...) Fordi man så også får gjort den der selvrefleksion, ikke. (<strong>OG</strong>)<br />
Når medarbejderne udspørges om, hvori læringen i forbindelse med reviews og<br />
evalueringer består, giver de som denne medarbejder udtryk for, at bedømmelses-<br />
aktiviteterne udgør velkomne anledninger til ”selvrefleksion” i en travl hverdag.<br />
Netop forestillingen om en direkte kausal sammenhæng mellem den enkelte<br />
medarbejders læring og forbedringen af mediebistanden gør ifølge Dahler-Larsen<br />
opskriften på den lærende organisation attraktiv for både individer og organisationer:<br />
91
Opskriften sælges nemlig med løfte om, at den individuelle medarbejders<br />
faglige og personlige udvikling er en forudsætning for og en integreret del af<br />
de organisatoriske transformationsprocesser, som en lærende organisation<br />
gennemløber. På den måde kommer ”den lærende organisation” til at lyde<br />
tiltalende for både individ og organisation. (Dahler-Larsen 2000:33-34)<br />
8.2.1.2. Danida har styringen<br />
For at sikre at den erfaringsopsamling og ”selvrefleksion”, som evalueringer og<br />
reviews skal facilitere, er i overensstemmelse med Danidas relevanskriterier og<br />
værdier, ønsker EK og de bevilgende enheder at bevare en vis styring med<br />
processerne. I nedenstående citat udtaler en Danidamedarbejder sig om de<br />
overvejelser, der gøres i forbindelse med inddragelse af partnerne i design og<br />
udførelse af evalueringer. På den ene side ønsker Danida en høj grad af inddragelse,<br />
men samtidig vil man ikke indføre deciderede participatoriske læringsevalueringer,<br />
da man dermed ville miste styringen med, hvad partnerne lærer:<br />
Så det er ikke en participatory evaluering – det er ikke det ord, jeg vil bruge –<br />
men de, der skal bruge evalueringen er involveret i processen fra start til slut.<br />
For at få stillet de spørgsmål, som de har behov for at få svar på. Men så sidder<br />
vi jo så her i Danida og siger: ’Jamen øh, der er altså også nogle spørgsmål her,<br />
som I ikke stiller, som vi føler, er væsentlige’, som vi så tager med ind. (<strong>OG</strong>)<br />
Citatet illustrerer, at læringen i sidste ende foregår på Danidas præmisser. Så længe<br />
der er konsensus mellem opdragsgiver og de evaluerede aktører om, hvad der er<br />
relevant, bliver sidstnævnte inddraget og hørt. Men i det øjeblik, konsensus ophører,<br />
sætter Danida den endelige dagsorden.<br />
Den læringsforståelse, som primært kommer til syne i Danidas publikationer og i<br />
interviews med medarbejderne, trækker således i høj grad på det læringsbegreb, vi i<br />
afsnit 4.3.1. omtalte som konsensusbaseret læring.<br />
8.2.2. Participatorisk læring<br />
De interviewede konsulenter og partnerrepræsentanter giver den ovenfor citerede<br />
Danidamedarbejder ret i, at inddragelse af partnerne i evaluerings- og review-<br />
processerne er en forudsætning for partnerorganisationens læringsudbytte heraf. Et af<br />
de ønsker, partnerne har til processen, er at kunne bruge den som en ”anledning til at<br />
reflektere”:<br />
... vi har jo for lidt refleksion over, hvad vi egentlig går og gør. Altså, vi har for<br />
travlt med at lave tingene, men vi kunne garanteret få meget mere ud af de<br />
erfaringer, vi har, hvis vi blev tvunget til og fik anledning til at reflektere over:<br />
’Jamen, hvorfor fungerer det, det du gør? Og hvad er det egentlig, du gør?’<br />
ikke også. (PO)<br />
Når man befinder sig i projektets faste stab bliver man ”meget opfanget af praksis,”<br />
beretter en partner, og ”logikken [bliver] helt anderledes”, end når man står uden for.<br />
92
Derfor har man ”brug for hjælp til at eksplicitere tingene” gennem en participatorisk<br />
og ’interaktiv proces’, hvor der er plads til samtale og diskussion medarbejderne<br />
imellem. Læringen skal altså komme fra partnerne selv: De besidder selv den viden,<br />
som kan bringe dem videre, men skal blot hjælpes til at bruge den.<br />
Tager man personsammenfaldet mellem de to grupper i betragtning, er det ikke<br />
overraskende, at konsulenterne deler partnernes opfattelse af og ønsker til review- og<br />
evalueringsprocessen. I forlængelse heraf er deres mål at agere som facilitatorer for<br />
en participatorisk læringsproces frem for at spille rollen som eksperter og<br />
kontrollanter:<br />
’Jamen, det er jo ikke mig, der ved noget om jeres verden. Det er jer, der ved<br />
det. Men jeg kan lave en ramme, der gør, at I finder ud af med hinanden, hvad<br />
det er, I egentlig laver, og hvad der virker og hvad der ikke virker.’ (KS)<br />
Konsulenterne og partnerne er således enige med Danida om, at inddragelse er en<br />
god ting, men de lægger op til en langt mere omfattende inddragelse i tråd med<br />
forskrifterne inden for den participatoriske læringsdiskurs. De ønsker at gennemføre<br />
reviews og evalueringer som participatoriske processer, hvor kontrolaspektet helt<br />
udelades eller lades så meget i baggrunden, at kontroldiskursens krav om eksempel-<br />
vis uafhængighed og objektivitet bliver irrelevante:<br />
Ideelt set synes jeg, en review skal foregå i et meget, meget tæt samarbejde<br />
med den organisation, som du reviewer. Og dybest set så bør de også være med<br />
i alle interviewene, fordi det er ikke en kontrol; det er et stykke… hvad skal jeg<br />
sige… arbejde, som man laver for at komme videre i projektet. Og al den<br />
information vi får, som vi ofte får uden at der er nogen af organisationen til<br />
stede… eller fra organisationen til stede, den sidder jo inde i vores hjerner, for<br />
det er jo ikke alt vi kan skrive ned på papir, og det bør vi jo heller ikke. Altså,<br />
vi skriver jo kun konklusionerne ned. Og det vil være enormt givtigt for dem at<br />
være med i sådan en proces hele vejen rundt. (KS)<br />
Efter konsulenternes opfattelse begrænser Danidas hensigter med et review eller en<br />
evaluering sig stort set til produktet: en rapport med klare konklusioner og<br />
anbefalinger. Selv anser konsulenterne imidlertid den færdige rapport som et<br />
biprodukt af selve processen, som i deres øjne er det absolut væsentligste: Her finder<br />
den reelle læring nemlig sted, mener de, og for at sikre at den evaluerede organisation<br />
tager del heri, bør dens medarbejdere tildeles en rolle, hvor de indgår i styringen af<br />
reviewforløbet og derigennem bliver i stand til at tage ejerskab for dens konklusioner<br />
og anbefalinger. Sker det, vil reviewet være præget af langt større åbenhed, og<br />
dermed kan det fungere som ”eye-opener” og en konfliktløsende instans for<br />
organisationen (KS). Dette underbygges af en repræsentant for en af Danidas<br />
partnerorganisationer, som har oplevet at blive reviewet og evalueret efter både en<br />
kontrolmodel og en participatorisk læringsmodel. Vedkommende beskriver sin<br />
oplevelse af forskellene således:<br />
93
Over the years, we have had many evaluations and many reviews. Some<br />
external, some internal. I must say, that most of them were reviews where the<br />
consultants would come in and look at what we are doing, interview some<br />
people and write the report. The last one, the one that we just done, was not the<br />
same, where we had two consultants, come together with us and went through<br />
the review in terms of other indicators, how, why, and other questions like that.<br />
(…) I think it was, as I said, it was different from the ones we had before<br />
(utydeligt), so it was a very good process. (PO)<br />
Her skildrer interviewpersonen sin oplevelse af de forskellige roller, som potentielt<br />
tildeles partnerorganisationen afhængig af hvilken metode, konsulenterne anvender.<br />
Tidligere reviews og evalueringer af denne organisation er foregået ved, at<br />
konsulenterne har studeret de ansattes eller aktives gøren og laden, interviewet et par<br />
mennesker og afslutningsvist skrevet en rapport. Anderledes forholdt det sig med det<br />
seneste review, hvor konsulenterne lod partnerne vurdere deres egen indsats ved at<br />
stille åbne spørgsmål som ’hvordan’ og ’hvorfor’. Dette oplevede den citerede<br />
partner som ’en rigtig god proces’.<br />
8.2.2.1. Et spørgsmål om myndiggørelse<br />
I ovenstående citat slås endnu et tema an i forhandlingerne mellem Danida og<br />
partnere/konsulenter om, hvordan læringsmålsætningen skal forstås og omsættes i<br />
praksis. Det drejer sig om magtrelationerne i bedømmelsesprocessen, om partnernes<br />
myndiggørelse. At omfanget af inddragelse har særdeles stor betydning for<br />
partnernes oplevelse af processen, kommer indirekte til udtryk ved, at de reagerer<br />
med vrede mod de eksterne konsulenter, når de føler sig behandlet som ’legoklodser’.<br />
Eksempelvis blev en interviewet partner efter eget udsagn ”stiktosset” på de<br />
evaluatorer, som stod bag en ikke-participatorisk vurdering af vedkommendes<br />
organisation. Ikke fordi evalueringen var negativ – tværtimod – men fordi interview-<br />
personen ikke følte, at partnerorganisationen kunne bruge evalueringen ”til en skid<br />
(...) fordi det vokser ikke ud af den... vores egen forståelse af det vi gør”. Det skarpe<br />
ordvalg er ét ud af flere eksempler på, at distancerede evalueringer og reviews<br />
afføder en følelse af afmagt og frustration hos partnerne.<br />
I vore interviews med konsulenter og partnere kommer der således to vægtige<br />
argumenter for participatorisk og mod konsensusbaseret læring frem: For det første<br />
bidrager den participatoriske læring positivt til partnernes fornemmelse af, at<br />
processen har nytteværdi, og for det andet indebærer denne læringsform myndig-<br />
gørelse af partnerne, bringer dem på lige fod med Danida og understøtter derved det<br />
ligeværdige donor-modtagerforhold, som foreskrives inden for den kritiske<br />
udviklingsdiskurs. Således ser konsulenter og partnerorganisationer participatoriske<br />
læringsevalueringer som en mulighed for at genforhandle og forandre relationen<br />
mellem Danida og partnerne.<br />
94
8.3. Kontrol og/eller læring?<br />
Vi har nu redegjort for de forskellige forståelser af læring og kontrol, som Danida,<br />
partnere og konsulenter giver udtryk for. Det har vist sig, at Danida betragter kontrol<br />
som en demokratisk legitim foranstaltning, mens læring anskues som en samlende,<br />
konsensusbaseret proces. Disse forståelser falder i tråd med den evalueringsteoretiske<br />
kontroldiskurs. Anderledes forholder det sig med konsulenter og partnere, der begge<br />
trækker på den participatoriske læringsdiskurs. Vi finder her forklaringen på de<br />
forskellige praksisfællesskabers påstande om, hvorvidt læring og kontrol kan gå hånd<br />
i hånd eller nødvendigvis må adskilles.<br />
8.3.1. Danida: Både-og<br />
De to formål de hænger sammen, de kan ikke skilles ad. Det er kunstigt at gøre<br />
det. (<strong>OG</strong>)<br />
Altså kontrollen er, eller dokumentationen, det synes jeg er bedre måske, end<br />
kontrollen, øh er jo, synes jeg er en forudsætning for det andet. For hvordan<br />
fanden kan du lave erfaringsopsamling uden det andet? Det forstår jeg ikke.<br />
(<strong>OG</strong>)<br />
Så derfor så synes jeg, det er sådan en lidt underlig... Altså, der er jeg i hvert<br />
fald ikke sådan lige, i den praksis, jeg kender, synes jeg ikke lige, at man kan<br />
lave den der øh, den der skelnen, ligesom. (…) Altså på den måde, så er det<br />
noget, noget, undskyld, noget akademisk øh, kunstigt at skille dem op på den<br />
måde, tror jeg. (<strong>OG</strong>)<br />
Hvor partnere og konsulenter i deres skarpe skelnen mellem læring og kontrol er på<br />
linie med de gængse anbefalinger inden for evalueringsteorien, så ser Danida ikke<br />
nogen uoverensstemmelse mellem de to formål. Det giver de ovenfor citerede<br />
Danidamedarbejdere tydeligt udtryk for, og deres holdninger underbygges af<br />
formuleringerne i Danidas evalueringsretningslinier 46 samt af EK’s særlige organisa-<br />
toriske placering. Det organigram, som blev gengivet i kapitel 7, beskriver EK som<br />
en intern specialenhed, der på den ene side er uafhængig af de bevilgende,<br />
rådgivende og besluttende enheder i Danida, og som på den anden side er en<br />
organisationsintern instans. Dermed forsøger EK at imødekomme både kontrol-<br />
diskursens krav om uafhængighed og distance, og den participatoriske lærings-<br />
diskurs’ forskrifter om relevans og nærhed mellem evaluatorer og evaluerede aktører<br />
(Danida 2003A:18).<br />
Danidas sammenkobling af læring og kontrol afspejler praksis i de fleste andre<br />
offentlige institutioner i Danmark, og man kan ifølge den danske evalueringsforsker<br />
46 I Danidas evalueringsretningslinier skelnes der skarpere mellem erfaringsopsamling og<br />
dokumentation, end tilfældet er i praksis (Udenrigsministeriet 1999). Det forklarer en ansat i Danida<br />
således: ”Vi begik nok en fejl, da vi lavede vores evalueringspolitik i 1997, som så resulterede i vores<br />
guidelines i 1999, at vi forsøgte at skille de to ting sådan rimeligt skarp ad (...). [D]et viste sig jo<br />
lynhurtigt, at det var en kunstig skelnen - du kan ikke gøre det ene uden det andet. Du kan ikke begynde<br />
at uddrage erfaringer, uden at du forsøger at måle resultaterne.”<br />
95
Hanne Foss Hansen betegner forholdet mellem udviklingen inden for henholdsvis<br />
evalueringsteori og -praksis som paradoksalt:<br />
I litteraturen lægges således op til heterogenitet og differentiering i<br />
konstruerede standarder over opgave og tid. Modsat synes en del politikområder<br />
karakteriseret ved stærke pres for homogenisering af standarder. (Hansen<br />
2001:117)<br />
Forklaringen på paradokset mener vi skal findes i de to forskellige evaluerings-<br />
diskurser, som er på banen i både teori og praksis. Forståelsen af læring som en<br />
konsensusbaseret proces stemmer overens med opfattelsen af kontrol som en<br />
demokratisk legitim foranstaltning. Begge disse fortolkninger af evalueringers rolle<br />
har vi betegnet som hørende inden for en evalueringsteoretisk kontroldiskurs, der i<br />
kraft af sin tendens til topstyring og sit positivistisk inspirerede objektivitetsideal<br />
trækker på samme hammel som den udviklingsteoretiske moderniseringsdiskurs. Ved<br />
at definere kontrol og læring som gensidigt understøttende aspekter baseret på<br />
konsensus og legitimitet nedtoner og retfærdiggør Danida på en og samme tid den<br />
dominerende position, som organisationen indtager overfor partnere og konsulenter i<br />
kraft af sin status som opdragsgiver og donor. Danida kan derfor siges at have en<br />
væsentlig interesse i at genetablere den evalueringsteoretiske kontroldiskurs.<br />
8.3.2. Partnere og konsulenter: Enten-eller<br />
Det modsatte gælder for partnerne, som ønsker at udfordre Danidas dominans ved at<br />
tilkæmpe sig en så høj grad af medbestemmelse som muligt. De plæderer derfor<br />
sammen med konsulenterne for participation og myndiggørelse og ser<br />
kontrolformålet som værende en barriere herfor:<br />
… man skal skille de der ting ad, altså. Du kan ikke komme ud den ene dag<br />
med kontrollantkasketten på, og så næste dag være den faglige<br />
sparringspartner, det kan man ikke. Det kan den menneskelige hjerne<br />
simpelthen ikke skille ad. (KS)<br />
... altså du kan ikke begge dele. Enten må du sætte dig på den ene stol, eller<br />
også må du sætte dig på den anden stol. Og den kontrolfaktor synes jeg godt,<br />
andre kan overtage. (KS)<br />
Hvem der skal overtage ’kontrolfaktoren’ er der imidlertid ingen enighed om.<br />
Interessant nok viser det sig nemlig, at mens der blandt de konsulenter, som primært<br />
udfører reviews, kan identificeres en holdning om, at kontrollen skal varetages af<br />
evalueringer, så mener en konsulent, som har været inddraget i evalueringsopgaver,<br />
at det må være reviews, der løfter kontrolfunktionen:<br />
… når man har noget der hedder et review, som er et spørgsmål om at justere<br />
på… altså, det er dybest set et spørgsmål om at justere på projektet, ikke? Øh…<br />
videre fremover. Så bør man holde sig til det, og så forbeholde øh… så lave<br />
evalueringerne, hvis man ønsker en kontrolfunktion. (P2). Altså, man kan ikke<br />
sammenblande det efter min mening. Det… det er jeg helt, helt overbevist om,<br />
at man ikke kan. (konsulent på reviews)<br />
96
Ja, altså det var tydeligt at… hvad man kan sige… for hele<br />
[evaluerings]opgaven, for alle de ni teams i virkeligheden, der var det tydeligt,<br />
at det gjaldt om at finde læringspunkter og erfaringsopsamling. ( konsulent på<br />
evaluering)<br />
Partneres og konsulenters modvilje mod Danidas krav om kontrol kommer også til<br />
udtryk ved, at de i de konkrete review- og evalueringsprocesser forsøger at påvirke<br />
både designet og udførelsen sådan, at læringsformålet træder i forgrunden. Vort<br />
empiriske materiale rummer således eksempler på, at konsulenterne forsøger at<br />
omdefinere kommissorier, der efter deres mening lægger for stor vægt på kontrol.<br />
Dette gør de ved at trække på deres status som fagligt dygtigere og mere erfarne end<br />
’skrivebordspersonerne’ i Danida:<br />
Så der, hvor hele opgaven bliver defineret, det er, sådan er min erfaring i hvert<br />
fald for det, at det er enormt vigtigt at tage mange af de der diskussioner<br />
allerede deroppe. Og også, ikke nødvendigvis bare æde et eller andet sæt terms,<br />
du får inde fra Danida. Stukket ud af en eller anden deskperson (KS)<br />
I citatet udtrykker konsulenten en manglende faglig respekt for Danidas<br />
kommissorieudkast, der beskrives som tilfældige dokumenter udarbejdet af en<br />
tilfældig, uvidende person: ”et eller andet sæt terms (…) Stukket ud af en eller anden<br />
deskperson”. I modsætning hertil betragter konsulenterne sig som ”faglige folk”, der<br />
griber evaluerings- eller reviewopgaven an som et ”fagligt job”. Forsøgene på at<br />
påvirke kommissorierne er dog ikke altid succesfulde, idet de Danidaansatte i nogle<br />
tilfælde afviser konsulenternes indblanding som utidig og ukvalificeret:<br />
Ja, (P2) jo, men det er det der med… at det der med at i den første fase så gå<br />
ind og sige, jamen jeg vil gerne bruge den tilgang og den metode, for at få det<br />
ud af det, det opleves nogen gange som truende, overfor de programme<br />
officers, der sidder med det. (...) Øh, det har jeg ofte, altså det har jeg oplevet<br />
flere gange, at det oplever de som øh… altså at det så i virkeligheden ikke<br />
bliver en forhandling om en faglig tilgang, men at det bliver en forhandling om<br />
øh, at det bliver et magtspil ikke? Nu er det mig, der er boss, det er mig, der har<br />
defineret det, så skal du ikke komme og sige, at du vil, og sådan noget, ikke.<br />
Og øh, der synes jeg tit, at der har manglet den der forståelse for, ja for læring,<br />
for processer, ikke. I forskellige måder at bruge konsulenthold på, altså, den er<br />
måske lidt begrænset eller lidt stiv, og det er måske så måske ministeriets<br />
kultur, i det hele taget, ikke. Altså forståelse for læreprocesser, hvordan man<br />
bedst designer det, eller hvordan man bedst får… altså skille den der<br />
kontrolfunktion ad fra læringsfunktionen. (KS)<br />
I nogle tilfælde, hvor det ikke er lykkedes for konsulenter eller partnere at overbevise<br />
opdragsgiveren om at fokusere på læring frem for kontrol, ses der eksempler på, at de<br />
to praksisfællesskaber sammen omdefinerer kommissoriet, efter at dette er lagt fast.<br />
8.4. Forskellige forståelser – forskellige interesser<br />
Vi har nu set, hvordan Danidas forståelse af kontrol og læring understøtter<br />
organisationens position som det af de tre praksisfællesskaber med den stærkeste<br />
97
position i forbindelse med evaluering og review af mediebistand. Som donor kan<br />
Danida insistere på, at modtagerne af mediebistanden indvilger i at blive vurderet, og<br />
som opdragsgiver har Danida magt til definere formål og fokus for bedømmel-<br />
sesaktiviteterne. Groft sagt er det ingen sag at hævde konsensus og legitimitet, når<br />
man er den stærkeste.<br />
Omvendt trækker partnerne i deres fortolkning af kontrol- og læringsbegreberne på<br />
den participatoriske læringsdiskurs, som med værdier om myndiggørelse og<br />
magtkritik har mange lighedspunkter med den kritiske udviklingsdiskurs. For<br />
partnerne er der betydelige økonomiske interesser forbundet med at insistere på at få<br />
indflydelse på evalueringer og reviews – både i forhold til at præge den konkrete<br />
vurdering og i forhold til at anvende bedømmelsesaktiviteterne som anledninger til at<br />
styrke deres medindflydelse på mediebistanden generelt. Umiddelbart har Danidas<br />
partnere ikke samme mulighed som Danida for at definere forhandlingerne i<br />
evaluerings- og reviewsammenhæng, men de har til gengæld en vigtig allieret –<br />
konsulenterne – som deler deres forståelser af kontrol og læring.<br />
Med analysen af de tre praksisfællesskabers forskellige forståelser og interesser er<br />
udgangspunktet for interaktionen mellem dem ridset op. Hvordan den konkret<br />
udspiller sig, og hvordan evalueringsdiskurserne manifesterer sig i rapporter og<br />
forløb, fokuserer de kommende kapitler på.<br />
98
9. Evalueringer og reviews som grænseobjekter<br />
Vi har i det foregående kapitel set, at de praksisfællesskaber, som er involveret i<br />
Danidas reviews og evalueringer af mediebistandsprojekter, har forskellige<br />
forståelser af, hvad kontrol og læring er og bør være. Disse forståelser er knyttet til de<br />
positioner og interesser, de pågældende aktører har i forhold til evalueringer og<br />
reviews. I præsentationen af specialets teoretiske afsæt beskrev vi Stars påstand om,<br />
at et praksisfællesskab translaterer et grænseobjekt – og dermed sin interaktion med<br />
andre aktører – i overensstemmelse med fællesskabets forståelsesrammer og måder at<br />
gøre ting på. Praksisfællesskaberne fortolker altså grænseobjektet, det vil sige et<br />
review eller en evaluering, på egne præmisser i det omfang, objektets robusthed til-<br />
lader det. Konsekvensen af disse translationsprocesser er, at de enkelte review- og<br />
evalueringsforløb opfattes forskelligt af de involverede aktører, samt at processerne<br />
forløber uforudsigeligt og sjældent ender med at opfylde de målsætninger, som er<br />
fastlagt i kommissorierne.<br />
Ved at anskue evalueringer og reviews som grænseobjekter mister evaluerings-<br />
teoriens skarpe skelnen mellem lærings- og kontrolevalueringer sin berettigelse.<br />
Denne skelnen baserer sig nemlig på en antagelse om, at evalueringer er som<br />
”legetøjstog”, der følger ”de skinner, der på forhånd er lagt ud” (Dahler-Larsen<br />
2004:11). I modsætning hertil mener vi, der er empirisk belæg for at hævde, at<br />
evaluerings- og reviewforløb minder ”mere om en tur i radiobilerne end en tur med et<br />
legetøjstog (…). Når evalueringer minder om kørsel i radiobiler, kører de forskellige<br />
deltagere ikke på en fælles rute, som tilfældet var i skinnetoget. Nogen vil blive kørt<br />
mere ned end andre. De forskellige deltagere vil opleve turen forskelligt” (Dahler-<br />
Larsen 2004:13).<br />
Når vi tilslutter os dette perspektiv, kan vi ikke meningsfuldt karakterisere en<br />
evaluering eller et review som enten en læringsproces eller en kontrolforanstaltning.<br />
For de eksempler på review- og evalueringsforløb, vi i dette kapitel vil redegøre for,<br />
gælder det da også, at de alle rummer elementer af begge dele. Dette dog i forskellig<br />
udstrækning, hvorfor vi vil placere de cases, som indgår i vores empiri, på et<br />
kontinuum, hvor kontrol udgør den ene yderpol og læring den anden.<br />
9.1. Kontrol og læring i otte evaluerings- og reviewforløb<br />
Vores empiri omfatter i alt fem reviewrapporter og tre evalueringsrapporter (se afsnit<br />
6.1.1.). Disse dokumenter har vi analyseret blandt andet med henblik på at undersøge,<br />
hvordan formålene kontrol og læring manifesterer sig i den endelige rapport.<br />
Metodisk har vi grebet analysen an ved i første omgang at vurdere rapporterne på<br />
fem parametre, der hver især indikerer, hvorvidt en given rapport er orienteret mod<br />
99
henholdsvis et kontrol- eller læringsformål eller begge dele. Dette uddyber vi i afsnit<br />
9.1.1. Derefter følger i afsnit 9.1.2. en præsentation af den analyse af de otte<br />
rapporter, som vi har foretaget på baggrund af de opstillede parametre, og denne<br />
præsentation leder over i afsnit 9.2., der rummer en fremstilling af udvalgte<br />
evaluerings- og reviewforløb.<br />
9.1.1. Kontrol- og læringskomponenter i rapporterne<br />
Inden for hvert af de fem parametre skelner vi mellem tekstkomponenter, som peger i<br />
retning af enten kontrol eller læring. De i alt ti lærings- og kontrolkomponenter, som<br />
vi har identificeret på baggrund af dokumentanalyserne, og som danner afsæt for<br />
vores kategorisering af projekterne, ser på skemaform således ud:<br />
Kontrolkomponenter<br />
Målopfyldelse, effektvurdering<br />
Konsulentens/(donors)<br />
vurdering<br />
Bevillingen er eksplicit til<br />
genovervejelse<br />
Enkeltinterviews, observation og<br />
dokumentanalyse<br />
Skriftlig<br />
Figur 9a<br />
Fem parametre Læringskomponenter<br />
Hvordan vurderes<br />
genstanden?<br />
Hvis værdier ligger til grund<br />
for vurderingen?<br />
Er bevillingen til<br />
genovervejelse?<br />
Anvendte metoder<br />
Debriefing<br />
Erfaringsopsamling, anbefalinger<br />
Partnerens vurdering<br />
Partnerne gives en eksplicit<br />
’tryghedsgaranti’<br />
Participatoriske metoder:<br />
workshops, debatter, mm.<br />
Mundtlig<br />
I det følgende vil vi uddybe komponenterne parvist, det vil sige med afsæt i de fem<br />
parametre, i den hensigt at synliggøre forskellen mellem de enkelte lærings- og<br />
kontrolkomponenter.<br />
9.1.1.1. Målopfyldelse og erfaringsopsamling<br />
Vi skelner i ovenstående figur mellem målopfyldelse og effektmåling på den ene side<br />
og opsamling af erfaringer og anbefalinger på den anden. Der er tale om<br />
målopfyldelse og effektvurdering i det øjeblik, en evalueringsrapport vurderer sin<br />
genstand retrospektivt ud fra på forhånd fastsatte kriterier. I Danida opererer man<br />
med fem evalueringskriterier, som bliver præsenteret nærmere i kapitel 11. Disse<br />
kriterier danner afsæt for en vurdering af, hvorvidt de aktualiserede resultater af<br />
indsatsen står mål med hensigterne bag mediebistanden, og man kan derfor betragte<br />
forekomsten af effektmåling i en rapport som et kontrolelement. Når projektet<br />
vurderes med henblik på at opsamle generelle erfaringer, som kan overføres til andre<br />
100
lignende projekter, eller konsulenterne fremkommer med anbefalinger til en<br />
fremtidig justering af indsatsen, kan man tale om, at rapporten indeholder et<br />
læringselement. Samme rapport kan rumme såvel målopfyldelse/effektmåling som<br />
erfaringsopsamling/anbefalinger.<br />
9.1.1.2. Konsulentens eller partnerens vurdering?<br />
Enhver bedømmelse finder sted på baggrund af et sæt im- eller eksplicitte værdier,<br />
som evalueringsgenstanden vurderes i forhold til (Dahler-Larsen 1998:86f). Disse<br />
værdier kommer konkret til udtryk i de kriterier, som anvendes i det pågældende<br />
review/evaluering. I forhold til vægtningen af kontrol og læring i reviews og<br />
evalueringer er det interessant at undersøge, hvorvidt det er donor, konsulentholdet<br />
eller de evaluerede aktører selv, der definerer de kriterier og dermed de værdier, som<br />
ligger til grund for vurderingen. I og med at Danida opererer med et sæt forud-<br />
definerede evalueringskriterier, vil der i alle tilfælde være tale om, at opdragsgiverens<br />
værdier er grundlæggende for bedømmelsen. Men i evaluerings-/reviewforløb, hvor<br />
partneren får mulighed for selv at vurdere sin egen indsats og definere succes-<br />
kriterier, rummer forløbet et element af selvrefleksion. Vi betragter det derfor som en<br />
læringskomponent, når partneren kommer indirekte eller direkte til orde i rapporten.<br />
Derimod gøres Danidas partnere til genstand for kontrol, når konsulenten vurderer<br />
genstanden enten på baggrund af de af donor opstillede mål for indsatsen eller på<br />
baggrund af ’objektive’ fakta, som udspringer af analysen.<br />
Vi har søgt at omsætte denne problemstilling til et tekstanalytisk værktøj ved at<br />
undersøge de afsenderidentiteter, som kommer til udtryk i rapporterne. Her har vi<br />
identificeret syv forskellige afsenderidentiteter, hvoraf fire er særligt interessante i<br />
nærværende sammenhæng. Disse er:<br />
Den nøgterne konsulentrolle<br />
Denne afsenderidentitet kommer til udtryk, når konsulenterne benytter sig af et<br />
konstaterende sprog til at beskrive genstanden så neutralt og ’objektivt’ som muligt.<br />
Det vil sige uden brug af værdiladede tillægsord, understregende biord, konjunktive/<br />
imperative verber eller andre tekstelementer, som angiver forfatterens tilslutning og<br />
holdning. Den nøgterne konsulentrolle anvendes eksempelvis i denne sætning:<br />
… it is a fact that over the 10 years of the NSJ’s existence, the media<br />
environment in the Southern part of Africa has improved. (NSJ 03:7, vus.)<br />
Anvendelse af den nøgterne afsenderidentitet indikerer, at forfatteren mener at have<br />
kendskab til en objektiv virkelighed, som vedkommende kan vurdere det reviewede/<br />
evaluerede projekt i forhold til.<br />
Den opsummerende konsulentrolle<br />
Den opsummerende konsulentrolle kommer til udtryk i disse to eksempler, hvor<br />
forfatterne underbygger deres konklusioner ved at referere til den indsamlede empiri:<br />
101
It is quite evident from a number of interviews conducted for this review…<br />
(NSJ 03:4, vus.)<br />
From these scenarios it is clear that the development of the media cannot be<br />
left to governments alone. (NSJ 02:40, vus.)<br />
Ved at referere til datamaterialet tilfører konsulenterne deres konklusioner en vægt,<br />
der gør, at de i højere grad fremstår som indiskutable sandheder, end hvis de var<br />
fremsat uden dokumentation. Som tilfældet er i forbindelse med den nøgterne<br />
konsulentrolle, signalerer konsulenten ved brug af en opsummerende forfatterrolle, at<br />
vedkommende kender ’virkeligheden’ – på baggrund af data.<br />
Den faciliterende konsulent<br />
Denne rolle kommer til udtryk, når konsulenterne lader de evaluerede aktører komme<br />
indirekte til orde ved at gengive deres holdninger og oplevelser:<br />
The participants in the review/evaluation process considered these… (MISA<br />
01/02:3, vus.)<br />
During the email-debate it emerged that most participants felt… (MISA<br />
01/02:51, vus.)<br />
Vi betragter anvendelsen af en faciliterende afsenderidentitet som et udtryk for, at<br />
rapporten indeholder et element af participatorisk læring, idet grundlaget for<br />
bedømmelsen i nogen grad er defineret af de evaluerede aktører selv.<br />
De evaluerede aktører som afsendere<br />
I forbindelse med anvendelsen af den faciliterende konsulentrolle kommer de<br />
evaluerede aktører kun indirekte til orde i rapporten – gennem konsulentens<br />
fortolkning. I vores analyse er der to eksempler på, at de evaluerede aktører også<br />
kommer direkte til orde og dermed har rollen som medforfattere af rapporten (NSJ<br />
03:55-56 & MISA 04:appendix). Vi betragter denne og den foregående afsender-<br />
identitet som indikatorer på, at rapporterne tilstræber at bidrage til læring.<br />
Til disse fire afsenderidentiteter kommer tre øvrige, som vil blive behandlet senere i<br />
analysen. Disse tre har vi kaldt den uafhængige konsulent, den vurderende konsulent<br />
samt den forretningsdrivende konsulent. I samtlige rapporter varieres der mellem<br />
forskellige afsenderidentiteter. I de otte undersøgte rapporter skriver forfatteren<br />
således ud fra i alt tre til fem forskellige roller. Den nøgterne og den opsummerende<br />
konsulentrolle anvendes i seks af de i alt otte rapporter, mens den faciliterende<br />
konsulentrolle anvendes i tre. Endelig optræder de evaluerede aktører som afsendere i<br />
to rapporter (se bilag 4I og figur 9d).<br />
102
9.1.1.3. En bevilling på spil<br />
En af evalueringernes og reviewenes vigtigste kontrolfunktioner er at fungere som<br />
grundlag for donors beslutning om at forlænge bevillingen til de evaluerede<br />
projekter. Der er dog forskel på, i hvilket omfang de enkelte reviews og evalueringer<br />
gennemføres specifikt med formålet at genoverveje bevillingen. Det afhænger såvel<br />
af donors prioriteringer som af tidspunktet for bedømmelsesaktiviteten. I to af de<br />
analyserede rapporter har vi set eksempler på, at bevillingen eksplicit er til<br />
genovervejelse, hvilket nedenstående uddrag fra reviewet af Zambia i 2002<br />
illustrerer:<br />
A Phase III is contingent, however, upon a positive outcome of the review. A<br />
positive outcome of the review involves that the review sees a continued basis<br />
for Danish support to the media sector in Zambia. (Zambia 03:45)<br />
I to andre rapporter gives der allerede i kommissorierne eksplicitte ’trygheds-<br />
garantier’ til projekterne, idet det erklæres, at bevillingen ikke står på spil. Formålet<br />
med bedømmelsen er således mere lærings- end kontrolorienteret. Af kommissoriet<br />
til reviewet af MISA i 2004 fremgår det eksempelvis, at den næste fase ikke står til<br />
diskussion, og at dialogen mellem MISA og donorerne antages at fortsætte – uanset<br />
udfaldet af vurderingen:<br />
Further to this, it is viewed as an important mechanism for dialogue within<br />
MISA and between MISA and its strategic partners. This review will form the<br />
basis of MISA’s next phase of its operations. (MISA 04:45)<br />
Af de resterende fire rapporter fremgår det ikke eksplicit, hvorvidt de forholder sig til<br />
bevillingen.<br />
9.1.1.4. Anvendte metoder<br />
Det fjerde parameter, som indgår i vurderingen af lærings- og kontrolkomponenterne<br />
i de undersøgte rapporter, er de anvendte undersøgelsesmetoder under dokument- og<br />
feltstudierne. I de tilfælde, hvor konsulenterne kun anvender enkeltinterviews og<br />
dokumentanalyse, betragter vi dette som et udtryk for, at kontrolelementet er<br />
fremherskende. Modsat anser vi det for et læringselement, når konsulenterne<br />
supplerer dokumentanalyse og enkeltinterviews med anvendelse af participatoriske<br />
metoder som eksempelvis workshops, emaildebatter og lignende. Forklaringen herpå<br />
findes i de to forskellige evaluatorroller, som realiseres under brug af henholdsvis<br />
participatoriske og såkaldte ’distancerede metoder’ (Patton 1986:102). Patton<br />
illustrerer den vidensudveksling som finder sted i kontrolevaluering og i<br />
participatorisk læringsevaluering således:<br />
103
Participant Participant<br />
Evaluator<br />
Participant Participant<br />
Pilene betegner det ”knowledge flow” (Patton 1986:156), som finder sted i en<br />
evalueringsproces, og med den sammenkædning af begreberne viden og magt, som<br />
Foucault foretager, kan pilene også ses som et forsøg på at skitsere magtpositionerne<br />
mellem evaluator og evaluerede aktører. I figur 9b illustreres det, hvordan<br />
evaluatoren i en kontrolevaluering opsamler og vurderer informationer fra de<br />
evaluerede aktører. Evaluator bliver i dette tilfælde centrum for den indsamlede<br />
evalueringsviden og har derved magten til at vurdere genstanden egenhændigt. Figur<br />
9b illustrerer en participatorisk læringsevaluering, hvor den primære videns-<br />
udveksling finder sted mellem de evaluerede aktører og den sekundære mellem<br />
evaluator og de evaluerede aktører. I denne model distribueres informationerne<br />
mellem alle involverede aktører, og man kan derfor ikke i samme grad betegne<br />
evaluator som videns- og magtcentrum.<br />
9.1.1.5. Afrapportering<br />
Et femte og sidste parameter, vi har analyseret rapporterne ud fra, er måden, hvorpå<br />
debriefingen er foregået. Hvor debriefingen finder sted som en mundtlig diskussion<br />
mellem konsulenterne og de evaluerede aktører, gives sidstnævnte mulighed for at<br />
påvirke og kommentere evalueringsresultatet. En mundtlig debriefing ser vi som et<br />
forsøg på at inddrage partneren aktivt i opfølgningen af evalueringen/reviewet og<br />
dermed søge at omsætte den indsamlede viden til egentlig organisatorisk læring.<br />
Aflægges debriefingen derimod som en skriftlig rapport, betragter vi dette som en<br />
mere passiv feedback, hvor konsulenterne orienterer de evaluerede aktører om,<br />
hvordan vurderingen er faldet ud – uden at give dem samme mulighed for at<br />
diskutere og forholde sig til konklusionerne.<br />
Participant Participant<br />
Evaluator<br />
Participant Participant<br />
Figur 9b: Kontrolevaluering Figur 9c: Participatorisk evaluering<br />
Vi har nu gennemgået de i alt fem parametre, som vi har anvendt i vores analyse af<br />
vægtningen af kontrol og læring i evaluerings- og reviewrapporterne. Parametrene<br />
skal på ingen måde betragtes som udtømmende, idet man også kan pege på<br />
forekomster af andre elementer i rapporterne, som peger på enten kontrol eller<br />
læring. For ikke at komplicere analysen unødigt har vi udvalgt de fem spørgsmål,<br />
som vi finder mest væsentlige, og vi foretager en forsimpling ved at sideordne de fem<br />
parametre. Man kunne eksempelvis argumentere for, at det er mere væsentligt for en<br />
104
edømmelses kontrolsigte, om der står en bevilling på spil eller ej, end om<br />
debriefingen er foregået skriftligt eller mundtligt. Denne diskussion går vi med vilje<br />
ikke nærmere ind i, da formålet med analysen alene er at danne et overblik over<br />
forekomsten af lærings- og kontrolkomponenter i rapporterne og dermed empirisk<br />
underbygge påstanden om, at ingen evaluering / intet review har enten et lærings-<br />
eller et kontrolsigte, men at alle forløb rummer begge komponenter.<br />
9.1.2. Oversigt over de analyserede rapporter<br />
På skemaform ser en oversigt over forekomsten af lærings- og kontrolkomponenter i<br />
de otte rapporter således ud:<br />
Målopfyldelse,<br />
effektvurdering<br />
Kontrolkomponenter<br />
Afsender: nøgtern/<br />
opsummerende kons.<br />
Bevillingen er eksplicit til<br />
genovervejelse<br />
Metoder: Interviews,<br />
dokumenter, observation<br />
Skriftlig debriefing<br />
Erfaringsopsamling,<br />
anbefalinger<br />
Læringskomponenter<br />
Afsender: Faciliterende<br />
kons./evaluerede aktører<br />
Partnerne gives en eksplicit<br />
’tryghedsgaranti’<br />
Participatoriske metoder:<br />
workshops, debat, mm.<br />
X X X X NSJ 02 X<br />
X X X X MISA 02<br />
Generel<br />
X<br />
X X<br />
X<br />
medieeval. 99/00 X<br />
X<br />
X MISA 01/02 X X X X X<br />
X X X X Bangladesh 01/02 X<br />
X X X X Zambia 02 X X X<br />
X X X X X NSJ 03 X<br />
X MISA 04 X X X X X<br />
Figur 9d 47<br />
Figuren viser, at alle rapporter både rummer kontrol- og læringskomponenter.<br />
Eksempelvis er der i samtlige otte rapporter både en målopfyldelses-/effektvurdering<br />
og erfaringsopsamlinger/anbefalinger. Samtidig illustrerer figuren også, at<br />
rapporterne vægter kontrol- og læringskomponenterne forskelligt. Dette har vi søgt at<br />
uddybe yderligere ved at placere de otte rapporter på et kontinuum, hvor kontrol<br />
udgør det ene yderpunkt og læring det andet. Den metode, vi har anvendt hertil, er at<br />
opgøre antallet af kontrolkomponenter, som er repræsenteret i den enkelte rapport, og<br />
fratrække antallet af læringskomponenter – jo højere en værdi dette regnestykke<br />
giver, desto højere grad af kontrol. Eksempelvis rummer evalueringen af NSJ fra<br />
2002 i alt fire kontrolkomponenter og en læringskomponent. Når læringskomponen-<br />
terne trækkes fra antallet af kontrolkomponenter, får evalueringen værdien +3.<br />
47 I bilag 4 findes samtlige registranter udarbejdet under analysen: NSJ 02 i bilag 4A; MISA 02 i bilag<br />
4B; Den generelle medieevaluering i bilag 4C; MISA 01/02 i bilag 4D; Bangladesh 01/02 i bilag 4E;<br />
Zambia 02 i bilag 4F; NSJ 03 i bilag 4G og MISA 04 i bilag 4H.<br />
Mundtlig debriefing<br />
105
Maksimalt kan en rapport opnå en værdi på +5/-5, hvorfor nedenstående skala spæn-<br />
der over netop disse værdier:<br />
Læring<br />
-5<br />
Figur 9e<br />
-4<br />
MISA 01/02<br />
MISA 04<br />
-3<br />
-2<br />
-1<br />
0<br />
Generel<br />
medieevaluering<br />
99/00<br />
+1<br />
Zambia 02<br />
+2<br />
+3<br />
NSJ 02<br />
MISA 02<br />
Bangladesh 02<br />
+4<br />
NSJ 03<br />
På baggrund af de otte rapporters fordeling på kontrol-lærings-kontinuumet inddeler<br />
vi dem i tre hovedgrupper:<br />
Længst til højre på kontinuumet med værdier på +3 og +4 befinder der sig fire<br />
rapporter: evalueringerne af NSJ og MISA fra 2002 samt reviewene af<br />
Bangladesh 01/02 og NSJ fra 2003, som alle vægter kontrolaspektet højere end<br />
læring. I afsnit 9.2.1. præsenterer vi de to reviewforløb af NSJ og mediestøtten til<br />
Bangladesh som eksempler på, hvordan kontrolformålet opleves af de<br />
involverede parter og kommer til udtryk i rapporterne.<br />
Længst til venstre på skalaen med værdien -4 er de to reviews af MISA 01/02 og<br />
MISA 04. I begge disse rapporter vægtes læringsaspektet højere end kontrol, og<br />
vi vil gennemgå de to forløb i 9.2.2. som afsæt for en senere diskussion af<br />
muligheden for at gennemføre participatoriske læringsevalueringer i Danidaregi.<br />
I midten af kontinuumet ses to evalueringer med værdier på hhv. +1 og -1. Det<br />
drejer sig om den generelle medieevaluering 99/00 (Danida 2000A) samt et<br />
review af mediestøtten til Zambia foretaget i 2002. Begge disse rapporter vægter<br />
kontrol- og læringsaspekterne nogenlunde lige højt – dog med den væsentlige<br />
forskel, som ikke fremgår tydeligt af ovenstående opgørelse, at hvor reviewet af<br />
Zambia kan karakteriseres som en kombination af kontrol og læring, har den<br />
generelle medieevaluering snarere karakter af et hverken-eller. Dette forhold<br />
gennemgår vi i afsnit 9.3.1., hvor de to forløb præsenteres nærmere.<br />
9.2. Præsentation af evaluerings- og reviewforløb<br />
I dette afsnit præsenteres de seks evaluerings- og reviewforløb, som vi har viden om<br />
fra rapporter samt fra interviews med evaluerede aktører, konsulenter og opdrags-<br />
giverrepræsentanter. Præsentationen vil blive ganske kort, idet den blot danner<br />
grundlaget for en videre diskussion af de temaer og problemstillinger, som rejser sig i<br />
de enkelte cases. Formålet med præsentationen her er således at introducere læseren<br />
for den viden, vi har om evaluerings- og reviewforløb og dermed give denne<br />
mulighed for at kigge os i kortene og løbende vurdere analyseresultaternes gyldighed.<br />
+5<br />
106<br />
Kontrol
9.2.1. To ’kontrolreviews’: Bangladesh og NSJ 03<br />
9.2.1.1. Review af Nordic-SADC School of Journalism (NSJ) i 2003 48<br />
Danida har siden 1993 støttet NSJ – en journalistisk efteruddannelsesinstitution, som<br />
servicerer hele det sydlige Afrika. Støtten til NSJ er blevet doneret i faser, og det<br />
review, der blev foretaget i foråret 2003, var et slutreview, som dels havde til formål<br />
at opsamle erfaringer fra støttefasen 2000-2003: ”The review will, in addition, focus<br />
on the lessons learnt and main problems encountered during the implementation.”<br />
(NSJ 03:32). Dels skulle reviewet vurdere basis for at forlænge bevillingen: ”based<br />
on a positive review…” (NSJ 03:31), og endelig lægges der i kommissoriet op til, at<br />
reviewholdet kommer med anbefalinger til en eventuel ny fase (ibid.). Fra opdrags-<br />
givers side var der således lagt op til, at reviewet både skulle bidrage til kontrol og<br />
læring – dog med vægt på kontrol.<br />
Reviewholdet bestod af en dansk og en sydafrikansk konsulent 49 , som hver blev<br />
aflønnet for fire arbejdsuger, det vil sige tyve dage. Feltstudiet varede i sig selv tyve<br />
dage, og heraf bestod de fjorten af tæt pakkede dagsprogrammer på op til tolv timer<br />
dagligt, hvor reviewholdet indsamlede datamateriale. Blandt andet gennemførte de<br />
interviews med i alt 52 personer. De resterende seks dage var afsat til rapport-<br />
skrivning og interne diskussioner konsulenterne imellem. Rapporten fokuserer på<br />
organisatoriske og implementeringsmæssige vanskeligheder i NSJ og forholder sig<br />
meget kritisk – særligt i forhold til NSJ’s ledelse. Kritikken kommer til udtryk blandt<br />
andet i form af bagudrettede reprimander og en eksplicit placering af ansvar – både<br />
hos projektorganisationen og de implementerende enheder:<br />
The review team finds that this process should have deserved much more<br />
ongoing and systematic attention and intervention from all involved parties –<br />
RDE, Advisors, and in particular the NSJ Board and Executive Director. (NSJ<br />
03:23, vus.)<br />
Trods kommissoriets eksplicitte kontrolsigte, hvor det fremhæves, at bevillingen er til<br />
genovervejelse, munder kritikken ikke ud i en anbefaling om nedlæggelse af<br />
projektet, men konsulenterne tilkendegiver med brug af understregende biord og<br />
modalverbet ’will’, at kritikken bør få konsekvenser: “it will be necessary for the NSJ<br />
to carefully consider its future” (NSJ 03:5, vus.). Vi inddrager casen NSJ 03 i kapitel<br />
13 som afsæt for en diskussion af, hvorvidt Danida reelt genovervejer bevillinger<br />
som en følge af kritiske reviews og evalueringer.<br />
48 Registrant: bilag 4G, rapport: bilag 11.<br />
49 På missionen deltog endvidere en medarbejder fra Danida, hvis opgave var at undersøge basis for et<br />
styrket donorsamarbejde i forbindelse med en ny bevillingsstruktur. Danidamedarbejderen deltog<br />
således ikke i selve reviewarbejdet.<br />
107
9.2.1.2. Review af mediebistanden til Bangladesh 01/02 50<br />
Danida har støttet den lokale mediesektor i Bangladesh siden 1999 som en del af et<br />
større program til fremme af menneskerettigheder og god regeringsførelse i landet.<br />
Fase to af bevillingen løb fra 2000 til 2003 og undergik et midtvejsreview i vinteren<br />
2001/2002. Kommissoriet for reviewet er det mest omfattende (ti sider) i vores<br />
empiri og stiller krav om en særdeles grundig effektmåling samt en vurdering af<br />
muligheder for en kommende støttefase. Hvor bredt og ambitiøst formuleret<br />
kommissoriet er, illustreres i dette eksempel, som angiver et lille udpluk af de temaer,<br />
reviewholdet forventes at forholde sig til:<br />
…assess the relevance and, if applicable, formulate proposals on support for:<br />
legal assistance and health insurance for journalists, law reform work, the Press<br />
Council, media monitoring, the relationship between the media sector and the<br />
civic society, environmental journalism, journalist associations, editor/owners’<br />
associations, press clubs, regional networks and initiatives. (Bangladesh 02:31)<br />
De fem eksterne konsulenter, som indgik på holdet, fik samlet løn for 25 ugers<br />
arbejde, hvilket gør Bangladesh-reviewet til det ressourcemæssigt mest omfangsrige<br />
studie, som indgår i vores empiri. Holdet havde således flere ressourcer til rådighed<br />
end eksempelvis den generelle medieevaluering (Danida 2000A). Dokumentstudiet<br />
omfattede i alt 183 dokumenter herunder projektdokumentation, avisartikler og<br />
tekstanalyse af projekternes publikationer. I løbet af deres forstudier i Danmark og<br />
det tolv dage lange feltstudium mødtes konsulenterne med i alt 193 personer og<br />
foretog blandt andet observationer af kurser, lavede en lille receptionsanalyse og<br />
besøgte en række af de støttede projekter. På baggrund af dette særdeles omfattende<br />
datamateriale udarbejdede reviewholdet en rapport, som adskiller sig fra de øvrige<br />
syv rapporter, på den måde at det er lykkedes holdet at leve op til det meget<br />
ambitiøse kommissorium og rent faktisk levere en vurdering af mediebistandens<br />
effekter på alle ønskede niveauer. At rapporten er kogt ned til 25 sider betyder, at der<br />
ikke er en indgående vurdering af de enkelte projekter, hvorfor rapporten – trods dens<br />
kontrolkarakter i form af et kraftigt fokus på effektmåling – ikke kontrollerer de<br />
evaluerede aktører i form af ansvarsplacering og revurdering af de enkelte projekters<br />
bevilling. Alligevel gav reviewprocessen anledning til en stærk oplevelse af utryghed<br />
og utilfredshed blandt de evaluerede aktører, som vi vil beskæftige os mere<br />
indgående med senere i analysedelen, hvor vi inddrager denne case som et eksempel<br />
på, at partnernes oplevelse af forløbet afhænger af andre faktorer end den skrevne<br />
rapport.<br />
9.2.2. Den generelle medieevaluering og Zambia 02: Både/og eller<br />
hverken-eller?<br />
De to rapporter, der har værdien -1 og +1 på skalaen i figur 9e, er som nævnt meget<br />
forskellige. Hvor den generelle medieevaluering hverken kan karakteriseres som en<br />
50 Registrant: bilag 4E, rapport: bilag 9.<br />
108
lærings- eller en kontrolevaluering, rummer reviewet af mediestøtten til Zambia<br />
elementer af begge dimensioner.<br />
9.2.2.1. Den generelle medieevaluering 51<br />
Læser man kommissoriet, fremgår det, at formålet med evalueringen af Danidas<br />
mediebistand i årene 1990-1998 er ikke bare læring, men ’selvkritisk læring’:<br />
As this is a ”lessons learnt” evaluation, the emphasis is on accumulation of<br />
experience and self-critical learning, rather than on accountability. (Danida<br />
2000A:54)<br />
Kommissoriet opstiller en lang række emner, som evalueringsholdet skal forholde sig<br />
til – lige fra graden af kontekstfølsomhed i indsatsen over donorkoordination til<br />
mediebistandens effekter på demokrati og menneskerettigheder. Af hensyn til kravet<br />
om uafhængighed var konsulentholdet sammensat således, at ingen af deltagerne<br />
tidligere havde været involveret i dansk mediebistand. I kombination med det<br />
forhold, at Danida savnede et overblik over aktiviteterne på området, betød<br />
konsulenternes manglende forhåndskendskab, at holdet brugte stort set al tiden på at<br />
danne sig et indtryk af problemstillingerne på mediefeltet samt et overblik over<br />
Danidas mediebistandsaktiviteter. Resultatet blev, at rapporten kun i ringe omfang<br />
fremdrager læringspunkter og i stedet fokuserer på opgørelser over aktiviteter og en<br />
fremstilling af normative teorier om mediernes rolle i demokratiet. Man kan således<br />
ikke tale om, at evalueringsrapporten i sig selv rummer væsentlige kontrol- eller<br />
læringselementer.<br />
Dette affødte skuffelse hos både konsulenterne, opdragsgiveren og de evaluerede<br />
aktører, som alle havde forventet en ’selvkritisk’ læringsproces. En ansat i Danida<br />
omtaler evalueringen således:<br />
Man kan sige at den der generelle [evaluering], der blev lavet på<br />
menneskerettigheder og demokratisering, hvor medier var en del af det, da<br />
syntes jeg jo, at de var meget venlige, vil jeg sige. Der synes jeg jo nok, at hvis<br />
jeg selv skulle have lavet den, så kunne jeg være kommet med nogle flere<br />
kritiske kommentarer, for når man sidder med det selv, så kan man jo som<br />
regel se flere nuancer, end hvis man kommer fuldstændigt udefra og skal sætte<br />
dig ind i sådan et nyt område og sådan tænker, ’nå, men det går da nok meget<br />
godt det hele’. (<strong>OG</strong>)<br />
Den citerede Danidaansatte kæder manglen på kritik og læring sammen med<br />
konsulenternes manglende forhåndskendskab til mediebistandsfeltet. Omvendt giver<br />
en af konsulenterne Danidas ”system” skylden for det skuffende resultat:<br />
Der ligger altså et eller andet i det der system (griner), som gør, at man skal<br />
noget bestemt. Jeg synes, at vi endte med at skrive en enormt kedelig rapport,<br />
som ikke endte med at sige noget som helst. Og det… Jeg syntes, det var meget<br />
frustrerende. Jeg ærgrer mig. (KS)<br />
51 Registrant: bilag 4C, rapport: Danida 2000A.<br />
109
Vi inddrager den generelle medieevaluering (Danida 2000A) til at belyse de forhold<br />
ved ’systemet’ og ved konsulenterne, som udgør barrierer for gennemførelsen af<br />
kritiske evalueringer i Danida – herunder konsulenternes uafhængighed og Danidas<br />
tendens til at udarbejde meget ambitiøse evalueringskommissorier (se kapitel 11).<br />
9.1.2.2. Zambia 02 52<br />
I modsætning til den generelle medieevaluerings kommissorium lægger<br />
kommissoriet for reviewet af Danidas mediebistand til Zambia op til en høj grad af<br />
kontrol. Eksempelvis fremgår det eksplicit, at såvel den samlede bevilling som<br />
bevillingerne til hvert enkelt af de støttede projekter er til genovervejelse (Zambia<br />
02:45 & 48). Reviewholdet bestod af i alt fire eksterne konsulenter: tre danske og en<br />
zambisk, og de fik i alt løn for tyve arbejdsuger. I løbet af dokument- og feltstudierne<br />
indsamlede og analyserede reviewholdet 90 dokumenter og interviews med i alt 57<br />
personer. På baggrund af dette relativt omfattende datamateriale foretog<br />
konsulenterne en analyse af mediebistandens omfang og kvalitet med særlig fokus på<br />
implementeringsvanskeligheder. Både Danida og Danidas partnere kritiseres i<br />
rapporten, som især problematiserer forholdet mellem en ekstern IO og en af<br />
projektorganisationerne.<br />
Man kunne forvente, at kombinationen af et eksplicit kontrolsigte og kritik af<br />
navngivne organisationer ville afføde en oplevelse af utryghed blandt de evaluerede<br />
aktører. Dette er imidlertid ikke tilfældet – tværtimod beskriver en repræsentant for<br />
en af de kritiserede partnerorganisationer reviewforløbet som konstruktivt:<br />
… vi blev så hørt, efter de havde været dernede, med de ting de havde fundet<br />
ud af dernede og vores holdninger og vores meninger om det og vores<br />
reaktioner, vores synspunkter, og så videre. Så der var vi meget involveret,<br />
også fordi at den review, den… hvad skal man sige… den øh… den afdækkede<br />
og… hvad skal vi kalde det… den bragte nogle problemer i projektimplementeringen<br />
frem, vil jeg sige. (…) Og vi blev også meget involveret i en<br />
diskussion af: ’Jamen, hvad kunne så være en bærbar vej frem for en justering<br />
af projektet?’ (PO)<br />
Citatet viser, hvor vigtig inddragelsen af de evaluerede aktører er for disses oplevelse<br />
af processen og for deres accept af en eventuel kritik. En af konsulenterne fra<br />
reviewholdet forklarer her den valgte formidlingsstrategis betydning for, hvorvidt et<br />
reviews konklusioner omsættes til organisatorisk læring:<br />
… jeg tror, at selve processen også giver noget for organisationen, ikke? Jeg<br />
mener altså… du… Når du gennemfører det, så har du det, der hedder en øh…<br />
en briefing eller debriefing, hvor du sætter dig ned sammen med både<br />
donorerne og med samarbejdspartnerne og gennemgår det, du ligesom… de der<br />
anbefalinger og konklusioner, du er kommet frem til, og diskuterer det med<br />
dem. (KS)<br />
110
Ved at debriefe mundtligt til både ambassaden, projektorganisationerne, den eksterne<br />
IO og BFT, formåede konsulenterne at kombinere kontrol med læring i en og samme<br />
reviewproces. I kapitel 10 behandler vi med afsæt i reviewet af mediestøtten til<br />
Zambia, hvordan interaktionen mellem konsulenter, de evaluerede aktører og<br />
opdragsgiveren foregår under feltstudierne, og vi inddrager desuden casen i kapitel<br />
12 i forbindelse med en diskussion af partnernes motivation for at følge op på<br />
rapportens konklusioner.<br />
9.2.3. To reviews af MISA – eksempler på læringsprocesser<br />
Vi er nu fremme ved de to sidste cases, vi vil præsentere i dette afsnit. Det drejer sig<br />
om to reviews af organisationen MISA (Media Institute of Southern Africa), som har<br />
eksisteret siden 1992. Det ene review er gennemført i 2001 og udgivet i 2002 (MISA<br />
01/02), og det andet er gennemført i sommeren 2004 (MISA 04). Begge reviews er<br />
designet efter en participatorisk læringsmodel, hvor konsulenterne i alle faser har<br />
tilstræbt en høj grad af inddragelse af de reviewede aktører.<br />
9.2.3.1. MISA 01/02 53<br />
Reviewet af MISA fra 2001/2002 er gennemført i samarbejde mellem Danida, Sida<br />
og Hivos. Kommissoriet til reviewet er ganske omfattende – ni sider – og det eneste<br />
eksempel i vores empiri på, at kommissoriet indeholder specifikke metode-<br />
anvisninger som denne:<br />
A participatory evaluation shall be used as a method to allow a process which<br />
invites all identified stakeholders to articulate and present their needs, interests,<br />
and expectations. (MISA 01/02:8)<br />
Reviewet blev udført af i alt fem eksterne konsulenter 54 . som i forlængelse af<br />
kommissoriets krav anvendte ”a highly participatory methodology” (MISA 01/02:vi)<br />
og gennemførte en række workshops med de evaluerede aktører. På baggrund af<br />
diskussionerne her identificerede konsulentholdet nogle problemfelter, som blev<br />
diskuteret af de involverede aktører per e-mail i en måned. Syntesen af emaildebatten<br />
blev fremlagt på endnu en workshop og diskuteret på et opfølgningsmøde mellem<br />
donorer og partnere, hvor konsulenterne ikke var til stede. Rapporten afspejler i høj<br />
grad de evaluerede aktørers synspunkter enten i form af direkte citater eller indirekte<br />
henvisninger (bilag 4D: afsnit 2.3.2.).<br />
MISA er et af Danidas flagskibe på mediebistandsområdet, og denne status nyder<br />
organisationen også hos de fleste andre donorer. Organisationen står således ikke i<br />
reel fare for lukning. Skulle projektorganisationens medlemmer alligevel være i tvivl,<br />
53 Registrant: bilag 4D. Rapport: bilag 8.<br />
54 Evalueringsholdets leder er ekstern i den forstand, at vedkommende på daværende tidspunkt havde sit<br />
eget konsulentfirma. Men vedkommende har tidligere været rådgiver for MISA (KS) og opfyldte<br />
dermed ikke kravet om ikke at have været involveret i implementeringen af det reviewede/evaluerede<br />
projekt.<br />
111
søger konsulenterne at aflive en eventuel utryghed i forhold til reviewets<br />
konsekvenser allerede på rapportens tredje side, hvor de dels tilkendegiver deres<br />
sympati med projektet og garanterer projektets fremtid: ”Good luck to MISA in its<br />
continued effort to promote free and pluralistic media in Southern Africa” (MISA<br />
01/02).<br />
Af rapporten fremgår det, at konsulenterne har oplevet den participatoriske proces<br />
som konstruktiv og ærlig: ”The depth of the analysis is very much a result of the<br />
open and frank discussions conducted” (MISA 01/02:3, vus.). Det underbygges af en<br />
interviewperson, der beskriver forløbet som en ”interaktiv proces” (KS).<br />
9.2.3.2. MISA 04 55<br />
Efter reviewet/evalueringen i 2001/2002 blev det besluttet, at MISA skulle reviewes<br />
årligt. Reviewet fra 2004 er det andet af disse årlige reviews, og det er initieret og<br />
designet i et samarbejde mellem de fire donorer, som bevilger penge til MISA,<br />
herunder Danida 56 . Evalueringsholdet bestod af to konsulenter, hvoraf den ene – en<br />
konsulent fra Zimbabwe – var udpeget af MISA og havde deltaget på reviewholdet<br />
året før. Den anden konsulent er ansat i Danidas BFT og er således et sjældent set<br />
eksempel på, at man fra donorernes side ser stort på kriteriet om uafhængighed og<br />
hyrer en intern konsulent til at foretage et review.<br />
Kommissoriet lægger ikke specielt op til anvendelse af participatoriske metoder, men<br />
beskriver blot, at konsulenternes vurdering af MISA’s grad af målopfyldelse ønskes.<br />
Af kommissoriet fremgår det endvidere eksplicit, at bevillingen ikke står på spil (se<br />
afsnit 9.1.1.3.). Feltstudiet blev designet som en flerdages workshop, hvor<br />
konsulenterne lagde vægt på at facilitere menings- og erfaringsudveksling internt<br />
mellem projektorganisationens medlemmer, som det er illustreret i figur 9c. At<br />
målene med de anvendte metoder i vidt omfang er blevet indfriet, fremgår blandt<br />
andet af deltagernes evaluering af reviewprocessen, der er vedlagt som bilag til<br />
reviewrapporten (MISA 04, annex 5). Forløbet får særdeles gode skudsmål af de<br />
evaluerede aktører, der blandt andet bruger vendinger som: ”Educative and very<br />
enlightening”, ”interactive and reflective”, ”very inspiring”, “useful and<br />
empowering” og ”participatory” (MISA 04:76). Alle disse betegnelser rammer ind i<br />
en participatorisk læringsdiskurs, i fremstillingen af hvilken vi blandt andet<br />
præsenterede begreber som myndiggørelse, refleksion og participation. At det er<br />
lykkedes for reviewholdet at facilitere en åben og ærlig dialog, underbygges af disse<br />
deltagerudsagn: ”I feel there was HONESTY and willingness to look into our<br />
problems”, ”a level of honesty that is very unlike MISA” (MISA 04:76). Dette er<br />
interessant, især i betragtning af, at den ene af konsulenterne direkte repræsenterede<br />
55 Registrant: Bilag 4H. Rapport: Bilag 12.<br />
56 Norad (Norge), Sida (Sverige), Hivos (hollandsk NGO), Danida (Danmark).<br />
112
donorsiden. Omstændighederne omkring reviewet kunne man umiddelbart tro ville<br />
have affødt utryghed og mistillid.<br />
Vi vender senere til de to reviews af MISA med henblik på at undersøge hvilke<br />
betingelser, der synes at skulle være opfyldt, for at participatorisk læring kan<br />
gennemføres i Danidaregi. Vi vil desuden nuancere billedet af den læring, som har<br />
fundet sted i forbindelse med de to reviewprocesser.<br />
9.3. Opsamling<br />
Med ovenstående dokumentanalyse og fremstilling af de seks review- og<br />
evalueringsforløb har vi søgt at vise, at alle forløb rummer elementer af både læring<br />
og kontrol – om end i forskellig grad. Dette har vi illustreret ved at placere de otte<br />
analyserede rapporter på et lærings-kontrol-kontinuum afhængig af, i hvilken grad de<br />
rummer fremstillingsmæssige og/eller metodiske komponenter, som peger på enten<br />
kontrol eller læring. Gennemgangen af de seks forløb viser desuden, at radiobils-<br />
metaforen (Dahler-Larsen 2004:13) lader til at være dækkende for evaluerings- og<br />
reviewprocesserne, idet disse ikke forløber forudsigeligt i overensstemmelse med det<br />
formål, der er fastlagt i kommissorierne. En pointe, som særligt den generelle medie-<br />
evaluering (afsnit 9.2.2.1.) illustrerer. At de involverede aktører ofte oplever det<br />
samme forløb forskelligt, og at deres oplevelser afhænger af mange andre faktorer<br />
end ordlyden i den skrevne rapport, fremgår eksempelvis af reviewene af Bangladesh<br />
(afsnit 9.2.1.2.) og Zambia (afsnit 9.2.3.2.).<br />
Dette kapitel har – i lighed med de to foregående – haft til formål at præsentere vores<br />
datamateriale og introducere de forskellige manifestationer af kontrol- og lærings-<br />
forståelser i interviews og dokumenter. Vi har dermed søgt at lægge grunden for en<br />
mere problematiserende og diskuterende analyse af de forhandlinger, som lærings- og<br />
kontrolformålene er genstand for. Dette drejer de følgende kapitler sig om.<br />
113
10. Konsulenten som stødpude mellem donor og<br />
modtager<br />
Vi har nu præsenteret empirien og redegjort for evalueringer og reviews som grænse-<br />
objekter, der er til forhandling mellem forskellige praksisfællesskabers forståelser og<br />
interesser. I dette og de kommende kapitler undersøger vi evalueringer og reviews<br />
rolle som knudepunkt for forhandlinger om relationerne mellem Danida og Danidas<br />
partnere på mediebistandsområdet. Det forholder sig imidlertid sådan, at disse to<br />
praksisfællesskaber sjældent interagerer direkte i udførelsen af evalueringer og<br />
reviews. I stedet kommunikerer de gennem konsulenterne, hvis identitet som følge<br />
heraf bliver en genstand for og en afspejling af de ofte komplekse forhandlinger<br />
mellem donor og modtager. Ved at fokusere på konsulentidentiteten og særligt på de<br />
punkter, hvor den viser sig problematisk og ustabil, søger vi at indkredse konflikt-<br />
fyldte aspekter af donor-modtager-relationen.<br />
10.1. Den uafhængige, upartiske konsulent<br />
Under gennemgangen af den evalueringsteoretiske kontroldiskurs redegjorde vi for,<br />
hvorfor uafhængighedsprincippet er en forudsætning for, at evalueringer kan bidrage<br />
til at øge Danidas demokratiske legitimitet. I en udredning af Danidas evaluerings-<br />
funktion er sammenhængen mellem uafhængighed, troværdighed og legitimitet<br />
beskrevet således:<br />
Evalueringer spiller en helt særlig rolle som informationskilde, fordi de er<br />
udarbejdet af uafhængige konsulenter efter internationalt anerkendte principper<br />
og standarder. Som i mange andre lande afhænger den danske befolknings<br />
villighed til at bruge penge til bistand i stadig stigende grad af Danidas evne til<br />
at dokumentere bistandens resultater og nyttevirkning. (Danida 2003A:14)<br />
Principper om objektivet, troværdighed og uafhængighed står således centralt i<br />
Danidas evalueringsretningslinier (Danida 1999:2f. og 84f.) og er styrende for valg af<br />
konsulenter i forbindelse med både reviews og evalueringer. Også blandt<br />
konsulenterne selv trives idealet om objektivitet og uafhængighed, hvilket blandt<br />
andet kommer til udtryk i en udbredt anvendelse af den nøgterne og opsummerende<br />
afsenderidentitet samt i hyppigt forekommende ’uafhængighedserklæringer’ som<br />
denne:<br />
It should be noted that this report contains the views of the review team, which<br />
do not necessarily correspond to the views of the Government of Denmark or<br />
the Government of Bangladesh. (Bangladesh 02:i)<br />
Antager man, at konsulenterne faktisk spiller en upartisk og neutral rolle i<br />
forhandlingerne mellem donor og modtager, er konsulentidentiteten uvæsentlig at<br />
fordybe sig i. Imidlertid er den uafhængige konsulentidentitet særdeles problematisk:<br />
For det første oplever partnerne i udgangspunktet konsulenterne som Danidas<br />
kontrollanter, for det andet ser konsulenterne selv deres rolle som modsætningsfyldt,<br />
114
og endelig kan man for det tredje stille spørgsmålstegn ved, om konsulenternes<br />
uafhængighed af Danida er reel. Disse tre faktorer vil vi belyse i det følgende med<br />
henblik på at vise, at uafhængighedsprincippet spiller en vigtig politisk rolle i<br />
forhandlingerne mellem donor og modtager. Afsættet tager vi i to fortællinger, som<br />
på hver sin måde problematiserer konsulenternes uafhængighed.<br />
10.2. To fortællinger om utryghed og uafhængighed<br />
Vi viderebringer her to fortællinger, hvoraf den første omhandler en partners<br />
oplevelse af at blive udsat for inspektion af et eksternt konsulenthold. Her<br />
tematiseres sammenhængen mellem partnernes utryghed og konsulenternes forsøg på<br />
at værne om deres uafhængighed af og distance til de evaluerede aktører. Den anden<br />
fortælling, som vi har kaldt ”høflighedssammensværgelsen”, handler om en af inter-<br />
viewpersonernes oplevelser som rådgiver/konsulent for et projekt, hvor vedkom-<br />
mende selv var genstand for projektaktørernes utryghed i kraft af sin tilknytning til<br />
donoren. ”Høflighedssammensværgelsen” problematiserer konsulenternes tvetydige<br />
identitet som dels donors forlængede arm og dels solidariske med partneren.<br />
10.2.1. ”… sådan en nørd der, jamen altså, det skal han sgu da<br />
ikke have lov til”<br />
- Hvordan var det? At blive review/<br />
Det var da skidesvært (griner)<br />
- Ja? (griner)<br />
De skulle da ikke komme dér og sige noget! (griner)<br />
- Hvordan foregik det? Kan du ikke prøve at fortælle lidt?<br />
Jeg syntes det var svært, fordi de havde en anden tilgang til review end jeg<br />
normalt har, ikke altså. Øh, og øh, og teamleaderens stil, som jeg oplevede den,<br />
var meget at holde kortene tæt til kroppen. Så jeg følte meget, at vi blev<br />
evalueret, eller… ja ikke evalueret, men jeg syntes det var meget svært at<br />
komme tæt på med at fortælle om, hvordan vi nu syntes. Øhm, og hvorfor vi nu<br />
havde foreslået det og det for den næste fase, og hvad overvejelserne i det var.<br />
Jeg syntes ikke, det var rart. Det syntes jeg ikke. Vi havde klart nogle<br />
sammenstød omkring det altså.<br />
- Lærte du noget om organisationen?<br />
Jeg lærte noget negativt, ikke? Jeg lærte, at sådan vil jeg fandeme ikke gøre<br />
det! Altså, det blev sådan/<br />
- Men ikke noget om dit eget arbejde?<br />
Nej. Det var lidt ærgerligt, altså.<br />
- Hvad så efter det review blev udfærdiget? Der kom vel et første udkast, som<br />
du så også fik? Eller hvordan?<br />
115
Altså, det var noget af det, der var svært. At de ikke ligesom respekterede mig<br />
som medspiller, så jeg spillede med at holde kortene tæt til kroppen, ikke. (…)<br />
Jeg kunne ikke engang få, ja de ville ikke engang sende mig deres debriefing<br />
note. Jeg blev nødt til at gå bagom, og ligesom gå hen til min egen konsulent,<br />
som jeg på den anden side ligesom var chef for. Og sige, at han skulle spionere<br />
og hente det der materiale for mig, for jeg ville fandeme have indflydelse, jeg<br />
ville have lov at kommentere, jeg ville have lov at komme til orde. Øh, og<br />
sådan var det hele vejen igennem. Og jeg syntes, det var pissegroft og pisseirriterende,<br />
altså. Og jeg blev ikke inviteret med, når de havde debriefing i Danida,<br />
der blev jeg, de orienterede mig ikke, vel. Der gik jeg selv bag om og gik ind<br />
og sagde til [[den ansatte i BFT]], ’Hvad fanden foregår der?’ ’Nå, men du<br />
skal da også med, selvfølgelig’. Så kom jeg derind, og så var jeg så kommet før<br />
de andre, så da teamleaderen der, han kom ind, da var han ved at gå i gulvet,<br />
for han havde absolut ikke forestillet sig, at jeg skulle sidde der, vel. Og sådan<br />
noget.<br />
- Hvorfor tror du egentlig, at de/<br />
Ja og hvorfor, jamen det har jeg ingen anelse om! Jeg syntes bare, det var så<br />
utilfredsstillende.<br />
- Mmm. Var der nogle særlige kritikpunkter på noget af dit arbejde eller på<br />
strategien eller?<br />
Øh, der er selvfølgelig altid synspunkter, men der var ikke sådan noget med<br />
altså, at der var noget, der var gået rivende galt, på den måde. Overhovedet<br />
ikke, altså. Og der var ikke nogen, der ikke anerkendte, at jeg havde spillet den<br />
rolle, jeg skulle, altså. (P2) Og der kan man jo sige, at for mig var det jo… altså<br />
hvad lærte jeg af det? Jamen, jeg lærte at sådan vil jeg ikke gøre det. Jeg lærte<br />
også, at hvis der kommer sådan en nørd der, jamen altså, det skal han sgu da<br />
ikke have lov til. Ikke? (PO)<br />
Af fortællingen fremgår det, at interviewpersonen oplevede reviewholdets distance<br />
som et udtryk for manglende respekt, hvilket affødte en frustration over og vrede<br />
mod holdets leder, der i fortællingen omtales nedsættende som ”en nørd”.<br />
Fortællingen understreger, at inddragelse er afgørende for partnernes oplevelse og<br />
udbytte af reviews og evalueringer. Processen lader således til at være langt vigtigere<br />
end rapportens konklusioner, der – som vi tidligere har nævnt og som det også<br />
fremgår af interviewpersonens eget udsagn – ikke var videre kritiske, og slet ikke<br />
overfor den pågældende persons indsats. Ved at udføre reviews og evalueringer efter<br />
kontroldiskursens forskrifter, skaber konsulenterne grobund for en følelse af afmagt<br />
og utryghed blandt partnerne, og derved bidrager de til at understrege modernise-<br />
ringsdiskursens asymmetriske donor-modtagerforhold. Uafhængighedsprincippet er<br />
således ikke et neutralt og apolitisk element i de identitetsforhandlinger, som<br />
evalueringer og reviews udgør rammen om. Det uddyber vi efter gengivelsen af<br />
fortællingen om ”høflighedssammensværgelsen”.<br />
10.2.2. Høflighedssammensværgelsen<br />
Det fremgår af ovenstående fortælling, at skønt den interviewede partner følte sig<br />
afmægtig, så var vedkommende det ikke, idet vedkommende via sin kontakt i BFT og<br />
116
ved at få sin konsulent til at ’spionere’ formåede at få medindflydelse på og indsigt i<br />
processen. I den kommende fortælling viser Danidas partnere en tilsvarende<br />
opfindsomhed i forhold til at præge deres interaktion med Danida og konsulenterne.<br />
Denne fortælling er som nævnt et uddrag fra et interview med en rådgiver/konsulent,<br />
som fortæller om sine erfaringer med at balancere mellem på den ene side at være<br />
”en støtte” og ”faglig sparringspartner” for projektorganisationerne, og på den anden<br />
side at have rollen som ambassadens forlængede arm, der varetog kontrol af<br />
projektet. Imens dette ansættelsesforhold stod på, havde interviewpersonen ”en stærk<br />
fornemmelse” af at agere og blive betragtet som uafhængig – en fornemmelse, som<br />
måtte justeres efter hjemkomsten til Danmark:<br />
… min stilling [var] defineret sådan, at jeg var den person, der sad mellem<br />
ambassaden og programmet, altså samarbejdspartneren, ikke. Og hvor en del af<br />
rationalet i stillingen, det var at ambassaden simpelthen ikke havde ressourcer<br />
nok til at lave den der løbende monitorering af, øh, hvad laver de, og laver de<br />
det, de får penge for, og hvad går pengene til, og alt det der, ikke. Og det vil<br />
sige, der lå sådan en kontrolfunktion i, ikke. Og på den anden side, den anden<br />
halvdel af stillingen, var jo ligesom defineret som at være en støtte til<br />
organisationerne.<br />
Det vil sige, det var jo små NGO’er, som havde lavet små projekter op til de<br />
der tre millioner. Som lige pludselig fik deres drøm opfyldt, ikke. De fik en<br />
masse penge, og nu skulle de så ud og ’ahhh’, og alt det, der ligesom skulle<br />
med der, organisatorisk og ledelsesmæssigt og alt muligt i forhold til at få de<br />
der ting i sving, det var klart, at der skulle ligesom sådan noget<br />
kapacitetsopbygning ind. Øh, hvor min rolle ikke var at lave det hele selv, men<br />
altså hjælpe dem med ligesom at prøve at få en forståelse af de processer, og<br />
hjælpe dem med at finde ud af, at nå, men så skal vi lære det, og så skal vi have<br />
nogen ind, der kan hjælpe os med det og så videre og så videre.<br />
Øh (P2), og der havde jeg nok, altså det er jo lidt sjovt at se det så bagefter, når<br />
man holder op, ikke. I selve forløbet, der var jeg egentlig, der havde jeg en<br />
stærk fornemmelse af, at det fungerede meget godt begge dele. At jeg syntes, at<br />
jeg… At jeg godt kunne… At de godt kunne abstrahere fra min<br />
kontrolfunktion, når vi lavede kurser i evaluering og monitorering og hvad det<br />
nu kunne være. Og vi havde alle de der… Der var også klart nogle områder,<br />
nogle sektioner i organisationerne, som tog meget til sig på læringsplanet, ikke.<br />
(P1) Det jeg så fandt ud af bagefter, da jeg holdt op, og sådan har haft lidt med<br />
dem at gøre eller sådan har hørt lidt og sådan noget, bagefter, at der kan jeg se,<br />
at noget af den (respons), jeg troede, jeg havde, har været lidt spil for galleriet<br />
fra deres side, fordi de spillede op til mig, fordi jeg var konsulent. Så noget af<br />
det, jeg mente dengang, at det havde de lært, og at det ville de kunne blive ved<br />
med at performe på det niveau, fordi de ligesom havde taget den der læring til<br />
sig, fordi de ligesom havde taget den der måde at arbejde med projekter og<br />
samarbejdspartnere (utydeligt), at de ligesom havde taget det til sig. Det viste<br />
sig så bagefter, at det havde de altså ikke. At det havde været sådan et spil for<br />
galleriet, fordi at øh, øh… Det er jo så min fortolkning af det, ikke, altså har set<br />
det som: Nåh men, det var så den måde, man ligesom blev nødt til at opføre sig<br />
på, og leve med og så videre, så længe der nu var udsendt sådan en hvid<br />
kontrollant (griner).<br />
Altså, og da jeg så ikke var der længere, så begyndte de så at gøre tingene på<br />
deres egen måde igen, ikke… Hvilket jo altså (utydeligt) (griner). Men jeg,<br />
117
altså, i virkeligheden, konklusionen på det er, og det, det tror jeg også er det,<br />
jeg har plæderet for siden, ja og måske også før, men jeg ved ikke, men det er<br />
simpelthen, at man skal skille de der ting ad, altså. Du kan ikke komme ud den<br />
ene dag med kontrollantkasketten på, og så næste dag være den faglige<br />
sparringspartner, det kan man ikke. Det kan den menneskelige hjerne<br />
simpelthen ikke skille ad. (KS)<br />
Efter at være kommet på afstand af projektet fik konsulenten den opfattelse, at<br />
partnerorganisationerne i vid udstrækning ”spillede op til mig, fordi jeg var<br />
konsulent”. Interviewpersonen oplever således at være blevet udsat for det, vi<br />
tidligere har beskrevet som en høflighedssammensværgelse (”a conspiracy of<br />
courtesy”, Mosse 1993:20) – trods sin opfattelse af sig selv som uafhængig. Hvor<br />
interviewpersonen selv føler, at vedkommende kan adskille sine to roller, så oplever<br />
projektorganisationerne konsulenten som værende overvejende på donors side – og<br />
altså ikke en uafhængig instans. Interviewpersonen problematiserer<br />
projektorganisationens høflighedssammensværgelse eller ”spil for galleriet” på flere<br />
måder. Det fremstilles dels som et implementeringsmæssigt problem, at partnerne<br />
ikke ændrede deres adfærd i den retning, som den daværende rådgiver ønskede:<br />
”Altså, og da jeg så ikke var der længere, så begyndte de så at gøre tingene på deres<br />
egen måde igen”. Dels skildres det som et fagligt og personligt problem for<br />
interviewpersonen, der under opholdet havde en oplevelse af samhørighed og<br />
gensidig forståelse af projektet:<br />
Øh (P2), og der havde jeg nok, altså det er jo lidt sjovt at se det så bagefter, når<br />
man holder op, ikke. I selve forløbet, der var jeg egentlig, der havde jeg en<br />
stærk fornemmelse af, at det fungerede meget godt begge dele. At jeg syntes, at<br />
jeg… At jeg godt kunne… At de godt kunne abstrahere fra min<br />
kontrolfunktion, når vi lavede kurser i evaluering og monitorering og hvad det<br />
nu kunne være. Og vi havde alle de der… (KS, vus.)<br />
I denne passage fra fortællingen ovenfor veksler den tidligere rådgiver mellem at tale<br />
om et ”jeg”, et ”de” og et ”vi”. Anvendelsen af ”vi” indikerer, at vedkommende i<br />
nogen udstrækning har følt sig som en del af projektorganisationen, hvilket<br />
understreges af en indirekte reference til fælles oplevelser: ”Og vi havde alle de<br />
der…”. På den anden side fremgår det også af citatet, at samhørigheden med<br />
projektorganisationen var betinget af, at både rådgiveren/konsulenten og projektaktø-<br />
rerne ”kunne abstrahere” fra førstnævntes kontrolforpligtelser overfor den danske<br />
ambassade.<br />
Det anvendte eksempel drejer sig kun indirekte om reviews og evalueringer, idet det<br />
beskriver en rådgiveransættelse, som ganske vist implicerede bedømmelsesaktiviteter<br />
– men ’kun’ på projektrapporteringsniveau. Når vi alligevel har valgt at give det så<br />
meget plads, skyldes det for det første, at den interviewede konsulent selv drager en<br />
parallel til konsulentrollen i forbindelse med reviews og evalueringer. For det andet<br />
illustrerer eksemplet et gennemgående tema i vores empiri: Konsulentens rolle som<br />
118
stødpude mellem donor og partner. Eller som den ovenfor citerede interviewperson<br />
beskriver sin placering: ”mellem ambassaden og programmet, altså samarbejds-<br />
partneren”.<br />
10.3. Kunden har altid ret…<br />
Den ene side af konsulentidentiteten udløber af den forretningsmæssige relation til<br />
Danida: Danida er opdragsgiveren, kunden, som konsulenten har forpligtet sig på at<br />
levere en tilfredsstillende vare til. Som følge heraf føler konsulenterne sig forpligtet<br />
til at imødekomme opdragsgiverens krav om at kontrollere partnerne, selvom de<br />
interviewede konsulenter gerne vil undgå dette, hvilket fremgår af ovenstående<br />
fortælling, hvor konsulenten plæderer for en adskillelse af kontrol- og lærings-<br />
funktionen. Konsulenternes tilknytning til og loyalitet overfor opdragsgiveren<br />
forstærkes af deres vidensmæssige og økonomiske afhængighed af Danida. Disse<br />
faktorer gennemgås i afsnit 10.3.1., 10.3.2. og 10.3.3., inden vi i afsnit 10.3.4.<br />
undersøger, hvad den tætte relation mellem konsulenter og Danida betyder for<br />
partnernes oplevelse af bedømmelsesprocessen.<br />
10.3.1. Viden er magt<br />
En sideeffekt af uafhængighedsprincippet er, at de eksterne konsulenter som<br />
hovedregel ikke har detailviden om de undersøgte projekter/programmer og i mange<br />
tilfælde heller ikke om det land, hvor projektet hører hjemme. Uafhængighed er<br />
derfor ofte lig uvidenhed. For at kunne skaffe sig den manglende viden, må<br />
konsulenterne ty til de informationer, som er at finde i dokumenter om projektet,<br />
blandt Danidas medarbejdere og hos Danidas partnere, hvilket udgør et potentielt<br />
problem i forhold til idealet om uafhængighed. Ideelt set burde review-/evaluerings-<br />
holdet være uafhængigt af både opdragsgiver og evaluerede aktører, men står valget<br />
mellem en af disse aktører, foretrækkes det inden for en evalueringsteoretisk kontrol-<br />
diskurs, at evaluatorerne skaffer sig informationer fra opdragsgiveren. Som vi<br />
gennemgik i kapitel 4, anses evaluatorens kontakt med de evaluerede aktører nemlig<br />
for at udgøre en større trussel mod evalueringens troværdighed, end en vis kontakt<br />
med opdragsgiveren gør. Det skyldes, at de evaluerede aktører menes at have en stør-<br />
re subjektiv interesse i at påvirke evalueringens konklusioner end opdragsgiveren,<br />
som i kraft af dennes interesse i at finde frem til ”den virkelige virkelighed” anses for<br />
at være en troværdig kilde:<br />
Men jeg vil, jeg vil jo også altid være interesseret i, at de får så godt et billede,<br />
som overhovedet muligt, af den virkelige virkelighed. Fordi, ellers bliver det<br />
ikke nogen hjælp for mig. I, altså i den justering, der skal være af programmet.<br />
(<strong>OG</strong>)<br />
I henhold til denne selvopfattelse, som i høj grad ligger i forlængelse af kontrol-<br />
diskursens objektivitetskriterium, anser Danidamedarbejderen ikke en tæt kontakt og<br />
vidensudveksling mellem Danida og konsulenterne for at være problematisk. I det<br />
119
følgende vil vi udfordre denne påstand ved at fremdrage eksempler på, at ’opdrags-<br />
giverens viden’ manifesterer sig som ’opdragsgiverens magt’ – og altså ikke er<br />
neutral.<br />
10.3.1.1. Fortrolighed<br />
Allerede i løbet af dokumentstudierne grundlægges et tæt samarbejde mellem<br />
konsulentholdet og Danida, idet konsulenterne ofte kontakter enten BFT eller en<br />
ambassademedarbejder for at få uddybende oplysninger om eller en udredning af<br />
uklarheder i dokumenterne. I disse samtaler har Danidamedarbejderne mulighed for<br />
at formidle ”inside informations” og dermed spore konsulenterne ind på problem-<br />
stillinger, som er væsentlige – set fra et donorsynspunkt:<br />
… når man har lavet det deskstudie, så har man efterhånden en vis<br />
fornemmelse af, hvordan det her projekt går. Og jeg vil også sige, at man jo<br />
altså også får nogle inside informations indimellem, nogle ret fortrolige<br />
informationer omkring hvordan projektet har kørt, og det er klart, at Danida<br />
formidler nogle ting til os, som de gerne vil have, at vi ligesom tager fat i. (KS)<br />
Kombinationen af Danidamedarbejdernes detailviden og deres status som opdrags-<br />
givere gør, at de på den ene side kan hjælpe konsulentholdet til en øget indsigt i<br />
projektet og på den anden side kan bede holdet om at fokusere på bestemte<br />
problemer.<br />
10.3.1.2. Ambassaden tilrettelægger feltstudieprogrammet<br />
Samarbejdet mellem Danida og konsulenterne fortsætter under feltstudierne, idet<br />
evalueringsholdets feltstudieprogram tilrettelægges af ambassaden. Det er således<br />
ambassademedarbejderne, som i vidt omfang beslutter, hvilke personer, projekter og<br />
interessenter holdet præsenteres for. Formelt set har de eksterne konsulenter ret til at<br />
ændre ambassadens oplæg, men da disse – som vi tidligere har nævnt – i kraft af<br />
uafhængighedskriteriet sjældent kender konteksten, har de i praksis vanskeligt ved at<br />
vurdere, om feltstudieprogrammet er dækkende og fornuftigt:<br />
… altså, der bliver det jo lagt meget i hænderne på ambassaderne, og de gør det<br />
jo selvfølgelig så godt de kan. Altså, det er jo ikke… Men der er for lidt<br />
egentlig dialog der om, hvad det var, vi gerne ville kigge efter – ved<br />
ambassaden, inden vi kom derned, ikke? (KS)<br />
Konsulenternes manglende viden om projektet og konteksten medfører således en<br />
afhængighed af ambassaden i forhold til udarbejdelse programmet for feltstudiet. En<br />
Danidamedarbejder siger kort og godt: ”Jeg kan ikke se, hvordan konsulenterne ville<br />
kunne forberede et ordentligt program, øh, uden ambassaden” (<strong>OG</strong>). At ambassaden<br />
agerer mellemled mellem konsulenter og partnerorganisationer betyder dels, at<br />
førstnævntes afhængighed af ambassademedarbejdernes viden og kontakter øges<br />
yderligere, og dels at partnerorganisationerne opfatter konsulentholdet som en del af<br />
det ”officielle Danmark” og altså ikke som en uafhængig instans:<br />
120
Vi kan godt, inden vi kommer ud – altså på baggrund af de desk studies, vi har<br />
lavet – forlange, at vi vil tale med den og den og den. Og det gør vi også, men<br />
det er ligesom dem [på ambassaden], der laver aftalerne, og det gør jo, at man<br />
meget ofte bliver knyttet… altså, at man bliver sat i samme båd med de folk,<br />
ikke? Med det mere officielle Danmark, når du går rundt og reviewer. (P1). Det<br />
er der ingen tvivl om. (KS)<br />
10.3.1.3. Uformel kontakt under feltstudierne<br />
Foruden det formelle samarbejde mellem konsulenthold og ambassade finder der som<br />
regel også en uformel kontakt sted, idet konsulenterne og ambassademedarbejderne i<br />
en række tilfælde også ses uden for det fastlagte program. I nedenstående citat<br />
beskriver en tidligere ambassademedarbejder, hvordan vedkommende og<br />
konsulenterne mødtes over en middag eller ”en sundowner”, hvor de sammen<br />
reflekterede over dagens indtryk, og hvor ambassademedarbejderen bidrog til at<br />
”afklare misforståelser”:<br />
Men hvor de så kom tilbage og sad, og snakkede først indbyrdes sammen om<br />
de indtryk, de havde fået i dagens løb, og så fik vi typisk en sundowner, eller<br />
spiste middag sammen eller et eller andet, og så snakkede om forskellige ting,<br />
hvor jeg så kunne supplere... (...) Altså, det er når et team, når et review<br />
fungerer godt. Ikke. Når et review fungerer mindre godt, så er der kun lige<br />
kontakt, når man henter dem i lufthavnen, og så når de debriefer til allersidst,<br />
ikke. Det øh, det synes jeg ikke, er særligt smart. Fordi så bliver der meget lidt<br />
mulighed for også at afklare misforståelser. (<strong>OG</strong>)<br />
Den tidligere ambassademedarbejder giver her tydeligt udtryk for, at et godt<br />
evaluerings-/reviewforløb er kendetegnet ved en tæt kontakt mellem konsulenter og<br />
ambassade, idet denne kontakt garanterer ambassademedarbejderne en vis indflydelse<br />
på konklusionerne – jævnfør vedkommendes målsætning om at undgå ”misforståel-<br />
ser”. Den citerede ambassademedarbejder ser ingen modsætning mellem kontrol-<br />
diskursens objektivitetskrav og så sin egen indflydelse på konsulenterne. Tværtimod<br />
betragter vedkommende sig selv som en kilde til objektiv viden, der kan bidrage til at<br />
kvalificere konsulentholdets undersøgelse.<br />
10.3.2. Økonomisk afhængighed<br />
Konsulenternes afhængighed af Danidamedarbejdernes viden understøttes og<br />
forstærkes af deres økonomiske afhængighed af Danida som opdragsgiver.<br />
Altså, man er – og det bør man ikke være – men øh… jeg tror, de fleste er en<br />
anelse afhængige af opdragsgiveren. (KS)<br />
Som vi redegjorde for i kapitel 7, er den samlede mængde evaluerings- og rådgiv-<br />
ningsopgaver inden for mediebistandsfeltet begrænset. Dette har betydning for den<br />
del af ressourcebasen, som er specialiseret inden for mediebistand, hvor<br />
konsulenterne i mange tilfælde står i et økonomisk afhængighedsforhold til Danida.<br />
Deres forretning kan simpelthen ikke overleve uden opgaver herfra. I det følgende vil<br />
vi opridse, hvilke konsekvenser denne afhængighed har for interaktionen mellem de<br />
tre praksisfællesskaber i feltstudiefasen.<br />
121
En udredning af Danidas evalueringsfunktion fra 2003 slog fast, at konsulenter, som<br />
udfører mange opgaver for Danida, skriver lige så kritiske rapporter, som de<br />
konsulenter, hvis projektportefølje er spredt ud på flere opdragsgivere (Danida<br />
2003A: appendix 3, 24ff.). I det omfang der er tale om, at de valgte evaluatorer er<br />
økonomisk afhængige af Danida, udgør det ifølge udredningen ikke noget problem<br />
for evalueringernes troværdighed.<br />
Vores analyse peger imidlertid i en anden retning. Flere interviewpersoner giver<br />
nemlig udtryk for, at konsulenternes økonomiske afhængighed af Danida betyder, at<br />
evalueringsholdene ofte er mere lydhøre over for opdragsgiverens synspunkter, end<br />
de måske ellers ville have været. Den økonomiske afhængighed gør det med andre<br />
ord nemmere for Danidas medarbejdere at overbevise konsulenterne om, at de har<br />
”misforstået” noget:<br />
Øh, det man så gør i de der evalueringer, vi selv laver, det er at sikre sig, at de<br />
folk, der bliver hyret til at løse opgaven, ikke har været involveret i de der<br />
projekter. Så man sikrer den der uafhængighed, ikke. Men selvfølgelig, i og<br />
med at de mennesker jo er konsulenter generelt, lever af at lave opgaver for os,<br />
og ved også alt andet lige, at de skal have nogen i fremtiden, så påvirker det jo<br />
nok også deres måde at kigge på os på. Forstår du, hvad jeg siger? (…) Så man<br />
kan aldrig udelukke, at der er noget påvirkningsgrad der, og i og med at processerne<br />
også bliver... Hvor man laver draft rapport, den bliver kommenteret,<br />
og så, så tager man konsulenter ind og siger, at ’I har fuldstændigt misforstået<br />
det her, det er sådan og sådan, det hænger sammen’. (<strong>OG</strong>)<br />
Fra opdragsgiverens side vil man således ikke udelukke, at konsulenternes interesse i<br />
at stå sig godt med Danida, understøtter deres villighed til at godtage de informa-<br />
tioner og holdninger, som Danidas medarbejdere giver udtryk for. På denne baggrund<br />
mener vi, at udredningen fra 2003 har været for hurtig til at aflive afhængigheds-<br />
problemet. Vi vil i stedet konkludere, at konsulenternes økonomiske afhængighed af<br />
Danida udgør en potentiel barriere for den kritiske distance, som både ifølge kontrol-<br />
diskursen og den participatoriske læringsdiskurs burde eksistere mellem konsulent og<br />
opdragsgiver. Denne problematik vokser i takt med opdragsgiverens ’genbrug’ af<br />
konsulenter, og som et lille felt er mediebistand derfor særlig udsat.<br />
10.3.3. Uafhængighed avler afhængighed<br />
Ironisk nok blokerer uafhængighedskriteriet for konsulenternes uafhængighed, i og<br />
med at de bliver afhængige af opdragsgiverens viden. De informationer, som<br />
udveksles mellem Danida og konsulenterne i løbet af dokument- og feltstudierne, er<br />
ikke så neutral og objektiv, som Danidamedarbejderne hævder. Imidlertid er det<br />
overordentligt vanskeligt at påvise, at opdragsgiveren påvirker konsulenterne til at<br />
konkludere på en anden måde, end de ellers ville have gjort, da en sådan bevisførelse<br />
ville kræve viden om den kontrafaktiske situation. Men vi har i det ovenstående vist,<br />
122
at omstændighederne herfor er til stede i kraft af den tætte formelle og uformelle<br />
kontakt mellem opdragsgiver og konsulent. At viden er lig magt, og at uvidenhed<br />
derfor afføder afhængighed, er muligvis en banal konklusion. Den udfordrer dog ikke<br />
desto mindre både Danidamedarbejdernes og konsulenternes selvopfattelse, som i høj<br />
grad afspejler uafhængigheds- og objektivitetskriterierne inden for den evaluerings-<br />
teoretiske kontroldiskurs. Vi har endvidere redegjort for, at konsulenterne i et vist<br />
omfang kan karakteriseres som økonomisk afhængige af Danida, hvilket understøtter<br />
og forstærker deres vidensmæssige afhængighed.<br />
10.3.4. Partnernes syn på konsulenterne<br />
Ovenstående analyse peger på, at partnernes tendens til at betragte konsulenterne som<br />
donorens forlængede arm snarere end som uafhængige aktører ikke er helt<br />
uberettiget:<br />
… det siger jo sig selv, ikke? At der kommer donoren, som organisationerne er<br />
dybt afhængige af, nedsætter det der hedder en review til at gå ned og se på<br />
projektet, ikke? Altså, det er jo… Man er jo ikke primært opfattet som<br />
solidarisk med projektet. Man er primært opfattet som solidarisk med donoren,<br />
for nu skal donoren se, hvordan det her går, sådan så vi kan se, om vi skal blive<br />
ved med at give penge til det her, ikke? Nogen vil måske sige: ’Det går rigtigt<br />
dårligt det her, så luk lortet.’ (KS)<br />
I dette udsagn beskriver en konsulent, at partnernes utryghed grundlægges allerede i<br />
initieringsfasen. Som vi beskrev i kapitel 7, er Danida reelt den eneste aktør, som har<br />
noget at skulle have sagt i forhold til igangsættelsen af reviews og evalueringer. Og<br />
denne initiering foretages ud fra et hensyn til de ansvarliggørelseskrav, Danida<br />
mødes med som en del af den danske statsadministration – det vil sige, at bevillingen,<br />
og dermed projektets fremtid, i princippet altid står på spil. Således er der en<br />
grundlæggende interessemodsætning mellem donoren på den ene side og på den<br />
anden side projektorganisationerne, der i citatet betegnes som ”dybt afhængige” af<br />
donoren. Donorens magt til at lukke projekterne er i evaluerings- og review-<br />
sammenhæng delegeret til konsulenten, som derfor – ifølge interviewpersonen<br />
ovenfor – typisk bliver opfattet som en partshaver, der i den økonomisk funderede<br />
interessekonflikt mellem donor og modtager antages at være ”solidarisk med<br />
donoren”.<br />
10.3.4.1. Høflighed som strategi<br />
Partnernes usikkerhed og sårbarhed overfor de eventuelle negative konsekvenser af<br />
en evaluering eller et review gør, at de forsøger at fremstille sig selv så positivt som<br />
muligt i interviewsituationen. Dette var fortællingen om høflighedssammensværgel-<br />
sen et eksempel på, og det underbygges endvidere af dette udsagn, som betegner<br />
partnernes adfærd som et resultat af ”en reel nok analyse”:<br />
Altså, de ser jo på en sådan, altså de er altid meget, meget venlige. (…) Altså<br />
fordi de jo selvfølgelig er bange for, at man siger noget grimt, ikke, og så<br />
sørger for, at pengene ryger ud, ikke. Og det kan man jo reelt også, altså det er<br />
123
jo en reel nok analyse, de laver, ikke. Hvis man kommer med en dårlig review,<br />
øh og siger, øh: ’jeg kan ikke bestemme, at pengene skal tages ud, for det er en<br />
politisk beslutning, men jeg kan anbefale, at øh, det er simpelthen bare<br />
håbløst’. Og så er det jo svært i systemet her at acceptere et review, der<br />
kommer med det, og så ikke tage pengene tilbage eller finde en eller anden<br />
udfasning. (<strong>OG</strong>)<br />
Konsekvensen af partnernes ’venlighed’ er, at det er vanskeligt for konsulenterne at<br />
få partnerne i tale om, hvad der reelt foregår på projektet. Der er simpelthen ikke<br />
noget incitament for partnerne til at spille med åbne kort – i hvert fald ikke, hvis de<br />
vurderer, at deres åbenhed kan give bagslag i form af kritik:<br />
Det har jeg tænkt meget over: Hvorfor er det egentlig så svært at finde ud af,<br />
hvad det er, der virkelig virker og ikke virker? Og noget af det, som jeg tror,<br />
det skyldes, det har noget med magt at gøre. Altså magtbalancen mellem dem,<br />
der giver, og dem der får, altså den er der jo, den er jo skævt fordelt. Så hvis du<br />
beslutter dig for, at du vil støtte et projekt et sted, og der så kommer nogle<br />
andre ud og spørger dem, der har fået penge: ’Virker det her?’, selvfølgelig<br />
siger de, det virker. Du kan jo ikke forvente, at de siger: ’Eej, det virker ikke’.<br />
De kan godt finde på at sige: ’Ejmen, det ville virke endnu bedre, hvis vi fik<br />
nogle flere penge’, altså. Det er også logisk. (KS)<br />
Vi ser således, at partnernes utryghed blokerer for deres ærlighed og åbenhed i<br />
dataindsamlingsprocessen, og derved spænder kontrolfunktionen ben for både<br />
indsamling af objektiv information – et af de centrale kriterier inden for den<br />
evalueringsteoretiske kontroldiskurs – og udgør desuden en barriere for realiseringen<br />
af participatoriske læringsevalueringer. Sidstnævnte forhold formuleres sådan af<br />
Dahler-Larsen:<br />
Der er også typisk tale om en helt anden mentalitet hos de involverede parter [i<br />
læringsevalueringer]. Hvor kontrolevalueringerne typisk leder til, at man viser<br />
sine bedste sider og skjuler sine dårlige, så godt man kan, forudsætter<br />
læringsevalueringer en åben og tillidsfuld fremlægning især af ens egne<br />
svageste sider, for det er her, at læringspotentialet er størst. (Dahler-Larsen<br />
2004:25)<br />
Ikke desto mindre fastholder Danida – og til en vis grad også konsulenterne – idealer<br />
om at anvende evalueringer og reviews til indsamling af objektiv information og som<br />
redskaber til læring. Vores ærinde er ikke at erklære det for umuligt at etablere et<br />
tillidsforhold mellem partnere og konsulenter eller at gennemføre participatoriske<br />
processer i forbindelse med evalueringer og reviews af Danidastøttede medie-<br />
bistandsprojekter. En sådan erklæring ville stride imod vores empiri, idet<br />
evaluerings- og reviewforløb indeholder såvel lærings- som kontrolaspekter, hvilket<br />
vi viste i kapitel 9. Derimod er vores ærinde at påpege problemer ved at antage, at<br />
fundamentale idealer inden for de to dominerende evalueringsteoretiske diskurser om<br />
henholdsvis objektivitet og participation uden videre lader sig realisere i en utryg<br />
bedømmelseskontekst. Til sidst i specialet vil vi derfor komme med en række<br />
anbefalinger til, hvordan partnernes utryghed kan imødekommes og undgås.<br />
124
10.4. Konsulenten som modtagerens advokat<br />
En anden side af konsulenternes identitet udløber af deres engagement i medie-<br />
bistandsfeltet. Flere af konsulenterne føler sig – om ikke som en del af projekt-<br />
organisationen (jf. fortællingen om høflighedssammensværgelsen) – så i hvert fald<br />
som solidariske med og ansvarlige overfor de evaluerede/reviewede projekter:<br />
Der er selvfølgelig den der utrolig store… det der ansvar, man har, når man<br />
kommer ud og… som en smart fyr med armbåndsur og jetsetter ind med store<br />
jernfugle og sætter sig ned og er dommer over noget, som nogle folk har gået<br />
og kæmpet med i årevis. (KS)<br />
Citatet fremstiller konsulenterne som udefrakommende ’smarte fyre’, der ”jetsetter<br />
ind med store jernfugle” og skal agere ’dommere’ over projektorganisationernes<br />
arbejde. En dom, som i sidste ende kan betyde, at man bidrager til at lukke projekter<br />
og dermed i nogle tilfælde at fratage projektmedarbejderne deres levegrundlag:<br />
Og der er altså det der, som konsulent, du kommer ud, du har magten, og det<br />
ved de jo, ikke. Fordi du har magten i forhold til at hvad skriver du af<br />
anbefalinger, hvad får du af indtryk, hvordan vurderer du… det er jo et<br />
kolossalt ansvar, og det er jo en reel magt i forhold til dem, i forhold til at… de<br />
der sætninger, du skriver, de kan rent faktisk betyde, om de får penge eller ej,<br />
ikke altså. (KS)<br />
Jeg har været med til at lukke projekter. (…) Men det gør da ondt, altså. Og der<br />
er en masse mennesker involveret, ikke. Steder hvor der jo ikke er noget at leve<br />
af, tit, så tager du deres brød fra dem (KS)<br />
Citaterne udtrykker en medfølelse og en solidaritet med modtagerne, der omtales som<br />
”mennesker”, som har ”kæmpet i årevis”, og hvis ”brød” man som kritisk konsulent<br />
risikerer at berøve dem. Sammenlignes dette billede af en menneskelig modtager,<br />
som står i en barsk virkelighed, med den ovenstående karakteristik af en konsulent<br />
som ”en smart fyr med armbåndsur” og med nedenstående omtale af ’skrivebords-<br />
personerne’ i Danida, fremstår det tydeligt, hvor konsulenternes sympati befinder sig:<br />
Så derfor, for mig, når jeg laver rapporten, jeg ved godt, den primære kunde,<br />
kan du sige, det er jo en eller anden desk… programme officer i Danida, ikke.<br />
(…) Men altså, i lige så høj grad at skrive til partnerne. Fordi det er jo dem, der<br />
skal tage det i hånden og gå ud og bruge det bagefter, det er ikke den der<br />
person, der sidder bag et skrivebord i Danida. Øh, for om et halvt år, så er det<br />
en anden person. Og den anden person læser ikke den rapport, vel? Så dem, der<br />
skal leve med på godt og ondt, hvad jeg nu synes, (griner) jeg kan udbrede mig<br />
om, det er jo partnerorganisationerne. (KS)<br />
Denne sympatitilkendegivelse hænger tæt sammen med konsulenternes ønske om at<br />
foretage participatoriske læringsevalueringer, hvor de evaluerede aktører sættes i<br />
centrum og gives magten til selv at vurdere deres egen situation. Jævnfør det partici-<br />
patoriske læringsideal solidariserer konsulenterne sig med modtagerne – ikke sådan<br />
at forstå, at de mener, at disse nødvendigvis har ret i alt, men på den måde at de gerne<br />
vil gøre evalueringen eller reviewet til et nyttigt redskab til videreudvikling af medie-<br />
bistandsprojekterne.<br />
125
10.4.1. Evnen til at stille de rigtige krav<br />
Samtidig med at partnerne er på vagt overfor konsulentens rolle som donorens<br />
forlængede arm, ønsker de selv at benytte evaluerings- og reviewholdene som<br />
’advokater’, der skal tage partnernes parti i en eventuel konflikt med Danida. I<br />
nedenstående citat forklarer en interviewet repræsentant for en projektorganisation,<br />
hvordan man som evalueret aktør kan spille på konsulenternes ønske om at bidrage<br />
positivt til projektet:<br />
Så det er selvfølgelig også organisationen, der skal forstå at stille de rigtige<br />
krav til dem, der evaluerer. Altså fordi evaluatorer og konsulenter de vil… på<br />
den ene side har de fået en kontrakt – de skal forholde sig kritisk – på den<br />
anden side vil de jo også gerne kunne bidrage, altså de vil også gerne have, at<br />
det har en eller anden nytteværdi, det de foretager sig. (PO)<br />
Det er imidlertid ikke nok for projektorganisationen blot at spille på konsulenternes<br />
solidaritets- og ansvarsfølelse: man skal kunne stille ”de rigtige krav”, der tager højde<br />
for evalueringsholdets selvforståelse som kritiske, uafhængige aktører og deres<br />
kontraktlige binding til opdragsgiveren. Dette giver ’kompetente’ projektorganisa-<br />
tioner et forspring frem for ’ikke-kompetente’, idet førstnævnte i højere grad formår<br />
at søge at påvirke konsulenterne på en subtil og elegant måde. Den ovenfor citerede<br />
repræsentant for en projektorganisation giver her et eksempel på, at organisationen i<br />
begyndelsen af en evalueringsproces appellerede til konsulenternes sympati- og<br />
ansvarsfølelse ved at give dem medansvar for en eventuel lukning af projektet:<br />
… der er ingen tvivl om, at vi ville have været følsomme overfor en negativ<br />
evaluering. Og det var noget af det første, vi sagde til konsulenterne, dengang<br />
de gik i gang med evalueringsprocessen: ’I skal vide, det har konsekvenser; det<br />
I siger i de her rapporter, får konsekvenser. Og det må I overveje fra starten af,<br />
at hvis I vælger at gå ind…’ (PO)<br />
10.5. Splittelsen<br />
Af ovenstående analyse fremgår det, at der rykkes i konsulenterne fra to sider: på den<br />
ene side oplever konsulenterne en moralsk tilskyndelse til at agere som modtagerens<br />
advokat i overensstemmelse med idealerne inden for den participatoriske lærings-<br />
diskurs og den kritiske udviklingsditto. På den anden side er evalueringsholdene i<br />
praksis både økonomisk og vidensmæssigt afhængige af Danida. Konsulentidenti-<br />
teten rummer således to dimensioner: en praktisk dikteret donororientering og en<br />
moralsk funderet modtagerorientering. Disse to dimensioner behøver ikke nødven-<br />
digvis stå i et modsætningsforhold til hinanden – det afhænger af graden af konflikt<br />
mellem donor og modtager. Hersker der enighed om mål og midler i mediebistands-<br />
indsatsen, er konsulentens dobbelte loyalitet uproblematisk, men i det øjeblik der<br />
opstår uenigheder mellem donor og modtager, oplever alle tre praksisfællesskaber<br />
konsulentidentiteten som flertydig og modsætningsfyldt. Det er på den baggrund, vi<br />
betragter konsulenten som en stødpude mellem donor og modtager.<br />
126
Midt i denne interessekonflikt mellem Danida og partnerne har konsulenten også sin<br />
faglige integritet og sine egne subjektive vurderinger at tage hensyn til. Konsulent-<br />
identiteten er således spændt ud mellem tre poler: Danida som opdragsgiver, Danidas<br />
partnere og konsulentens faglige og personlige integritet. I rapporterne kommer<br />
denne splittelse til udtryk ved, at konsulenterne anvender en mangfoldighed af<br />
afsenderidentiteter.<br />
10.5.1. De mange afsenderidentiteter<br />
I kapitel 9 (afsnit 9.1.1.2.) nævnte vi, at der i de analyserede rapporter figurerer i alt<br />
syv forskellige afsenderidentiteter, hvoraf én er de evaluerede aktører, som kommer<br />
direkte til orde i to rapporter (MISA 01/02 & MISA 04). De seks øvrige afsender-<br />
identiteter er forskellige ’stemmer’, som konsulenterne veksler mellem, og disse har<br />
vi kaldt: (1) den nøgterne, (2) den opsummerende, (3) den uafhængige, (4) den forret-<br />
ningsdrivende, (5) den faciliterende samt (6) den vurderende konsulent.<br />
Ad. 1-2) I anvendelsen af de to førstnævnte afsenderidentiteter agerer konsulenterne<br />
objektive, ræsonnerende analytikere, der gengiver virkeligheden, som den enten er<br />
(den nøgterne rolle) eller som den åbenbarer sig for vedkommende gennem de<br />
indsamlede data (den opsummerende konsulentrolle). Ved at skrive ud fra disse to<br />
positioner trækker konsulenterne på den distancerede, rationelle evaluatorfigur, som<br />
foreskrives inden for en evalueringsteoretisk kontroldiskurs (Chelimsky 1995:218, se<br />
afsnit 4.2.2.). Disse to afsenderidentiteter er fremtrædende i seks af de i alt otte<br />
rapporter (bilag 4I).<br />
Ad. 3) Den uafhængige konsulentrolle genskaber ligeledes den evalueringsteoretiske<br />
kontroldiskurs og kommer til udtryk gennem ’uafhængighedserklæringer’ 57 , som er at<br />
finde i halvdelen af rapporterne (bilag 4I).<br />
Ad. 4) I forlængelse af ovenstående diskussion om relationen mellem uafhængig-<br />
hedskriteriet og konsulenternes afhængighed af Danida, som blandt andet er af<br />
økonomisk karakter, er det interessant, at den uafhængige, nøgterne og opsumme-<br />
rende konsulentrolle suppleres af en afsenderidentitet, vi har kaldt ’den forretnings-<br />
drivende konsulent’. I anvendelsen af denne afsenderidentitet udtrykkes konsulen-<br />
ternes økonomiske interesse i at bruge evalueringen/reviewet i forretningsudvidelses-<br />
øjemed. Eksempelvis anbefales det i reviewet af MISA fra 2001/2002, at der<br />
bekostes konsulenttimer på ”specific guidance in finalising the programme<br />
document” (MISA 01/02:34.) Af MISA-reviewet fra 2004 fremgår det, at COWI,<br />
som netop stod bag reviewet fra 2001/2002, har fået tildelt den tidligere anbefalede<br />
konsulentopgave (MISA 04:42).<br />
57 Jf. afsnit 10.1.<br />
127
Ad. 5) Den faciliterende konsulentrolle indskriver sig som nævnt i kapitel 9 i en<br />
participatorisk læringsdiskurs, idet konsulenten her fremstiller sig selv som et neutralt<br />
talerør for de evaluerede aktørers egne vurderinger.<br />
Ad. 6) Den sjette og sidste afsenderidentitet – den vurderende konsulent – er i<br />
nærværende sammenhæng den mest interessante, idet konsulentrollens komplekse og<br />
splittede karakter tydeligt fremgår heraf. Vi vil i det følgende uddybe dette synspunkt<br />
yderligere.<br />
10.5.2. Den vurderende konsulent<br />
Når konsulenternes subjektive vurderinger af genstanden for reviewet/evalueringen<br />
kommer til udtryk, sker det hovedsageligt i en form, hvor afsenderen er utydelig. De<br />
grammatiske konstruktioner, som i den forbindelse er gennemgående i rapporterne, er<br />
dels passivkonstruktioner og dels nominalisering.<br />
I de tre nedenstående eksempler på rapportforfatternes anvendelse af passiv-<br />
konstruktioner fremgår konsulenternes tilslutning til udsagnene ved hjælp af værdi-<br />
ladede bi- og tillægsord, men i kraft af verbets passivform udgør genstanden for<br />
vurderingen sætningens grundled. Vurderingerne forbindes derfor ikke eksplicit med<br />
konsulentholdet, og læseren må selv gætte sig til, hvem der står bag bedømmelsen:<br />
The training, however, is not regarded as being impressive in comparison with<br />
the amount of funding they have received. (Danida 2000A:35)<br />
…it is seen as imperative (MISA 01/02:viii)<br />
The programme strategy (…) is found to be very well designed (NSJ 03:7)<br />
Tilsvarende slører den grammatiske konstruktion, nominalisering, hvem ophavet bag<br />
vurderingerne er. Nominalisering betegner en sætningskonstruktion, hvor grund-<br />
leddet er et upersonligt stedord – typisk ’der’ – eller et navneord, som ikke er en<br />
egentlig aktør (Fairclough 1992:179). Et eksempel på førstnævnte konstruktion er<br />
sætningen: “There is a need to refocus…” (MISA 01/02:vi), mens de to nedenstående<br />
rapportuddrag illustrerer sidstnævnte nominaliseringsform:<br />
The analysis of major trends in the media, democratisation and human rights<br />
highlighted two important characteristics of the context in which Danish<br />
support to Media needs to be evaluated. (Danida 2000A:2)<br />
The overall assessment indicates… (Zambia 02:10)<br />
I begge disse udsagn er grundleddet en ikke-aktør, nemlig ’analysen’/’vurderingen’.<br />
Frem for at skrive ’vores analyse viser…’ eller ’det er konsulentholdets vurdering,<br />
at…’, vælger konsulenterne et upersonligt grundled, med det resultat at der igen ikke<br />
fremstår en tydelig sammenhæng mellem konsulenterne og deres vurdering.<br />
128
Konsulenternes holdning kommer i ovenstående tekststykker indirekte til syne<br />
gennem brugen af verber. Hvor ”needs” i det første eksempel er et stærkt modal-<br />
verbum, udtrykker ”indicates” en mere forsigtig tilslutning til konklusionen.<br />
Foruden brug af passive verber og nominalisering optræder konsulenterne også<br />
anonymt, når de fremkommer med påstande uden afsender. At der er tale om<br />
subjektive vurderinger fremgår eksempelvis af understregende biord og værdiladede<br />
tillægsord, som tilfældet er i denne sætning:<br />
It was a notable and very encouraging achievement… (MISA 04:1, vus.)<br />
Der er dog også eksempler på, at konsulenterne anvender en mere klar afsender-<br />
identitet, typisk ved at ved at bruge termerne ”the review/evaluation team” eller ”the<br />
reviewers”.<br />
The reviewers are of the opinion that… (NSJ 03:13, vus.)<br />
The team found that to some extent central organising and controlling from<br />
Dhaka is still taking place. (Bangladesh 01:3, vus...)<br />
…the review team agrees with this recommendation (Zambia 02:26, vus.)<br />
I disse tre eksempler er der en klar sammenhæng mellem vurderingen og vurderin-<br />
gens ophavsmænd. Fremstillingen får dermed en mere subjektiv karakter, og dermed<br />
gøres konklusionerne i højere grad til genstand for diskussion, end i de foregående<br />
tilfælde hvor konsulenternes vurderinger fremstår som objektive, indiskutable sand-<br />
heder. Det er dog bemærkelsesværdigt, at konsulenterne med ordvalget ”the team” /<br />
”the reviewers” stadig søger at opretholde en vis distance og troværdighed. Distancen<br />
kommer til udtryk i form af brugen af tredje person – frem for første person: ’we’ –<br />
og troværdigheden ved at konsulenterne benytter flertalsform og dermed fremstår<br />
som et enigt kollektiv 58 .<br />
10.5.3. At antaste fra et uantasteligt grundlag<br />
Opsummerende om de afsenderidentiteter, som kommer til udtryk i rapporterne, kan<br />
man sige, at konsulenterne forsøger at mediere mellem deres splittede loyalitet og<br />
mange roller ved at holde sig til et upersonligt sprog. Hvad enten konsulenterne<br />
agerer som objektive, nøgterne analytikere, som neutrale talerør for de evaluerede<br />
aktører eller som uafhængige og subjektivt vurderende hold, søger de ved hjælp af<br />
ordvalg og grammatik at fremstille konklusionerne i en så objektiv og indiskutabel<br />
tone som muligt. Eller som en konsulent siger det: ”… under alle omstændigheder<br />
formulerer man sig meget objektivt i rapporter. Man forsøger jo at undgå alt hvad der<br />
58 Undtagelser herfra er, at konsulentholdet i en rapport henviser til sig selv som ”we” (kollektiv men<br />
første person): “By and large we agree with the approach adopted and the steps taken to strengthen the<br />
institution. However, we doubt whether the decision (…) was wise…” (NSJ 02:12, vus.). I et andet<br />
tilfælde beskriver forfatteren sig selv i ental tredje person: “the consultant”: “It is the firm belief of the<br />
consultant that...” (Zambia 02:40).<br />
129
er… altså alle subjektive ting”. Evaluerings- og reviewrapporterne placerer således<br />
ansvar hos de evaluerede aktører, men fremstiller ikke tydeligt, hvem der har ansvar<br />
for konklusionerne:<br />
Med andre ord er idealet i evaluering, at godt nok skal en bestemt praksis<br />
antastes, men det skal helst ske ud fra et uantasteligt grundlag. (Dahler-Larsen<br />
2004:20)<br />
Ved at fastholde et objektivitets- og uafhængighedsideal forsøger de eksterne<br />
konsulenter at håndtere deres funktion som stødpude mellem Danida og Danidas<br />
partnere. I stedet for at tage parti i konflikter mellem disse to praksisfællesskaber, kan<br />
konsulenterne påberåbe sig uafhængighed og henvise til en objektiv sandhed.<br />
10.6. Den afhængige, partiske konsulent<br />
Vi har i dette kapitel fokuseret på en særlig problemfyldt side af konsulentidentiteten<br />
– nemlig spørgsmålet om, hvorvidt konsulenten er og opleves som uafhængig af<br />
opdragsgiveren. Kapitlet indledtes med at fastslå, at uafhængighedskriteriet spiller en<br />
vigtig rolle i både Danidas og konsulenternes opfattelse af konsulentrollen, til trods<br />
for de problemer som er forbundet hermed.<br />
Det væsentligste problem ved at opretholde forestillingen om uafhængighed er, at<br />
denne ikke er reel, idet konsulenterne er afhængige af Danida på såvel et økonomisk<br />
som et vidensmæssigt plan. Dette forhold spiller sammen med den evaluerings-<br />
teoretiske kontroldiskurs på en selvmodsigende og kompleks måde, idet afhængig-<br />
heden på en og samme tid er både en funktion af uafhængighedskriteriet og i<br />
modstrid hermed. Konsekvensen af afhængighedsforholdet er, at Danida i praksis får<br />
mulighed for at påvirke konsulenternes fortolkninger – en magt, som de evaluerede<br />
aktører ikke har samme mulighed for at udøve. Dermed bidrager evaluerings- og<br />
reviewsituationen til at skærpe den asymmetri mellem modtager og donor, som er et<br />
grundvilkår inden for moderniseringsdiskursen. Imidlertid taler Danidas ansatte ikke<br />
om eksistensen af en egentlig påvirkning, da dette ville stride åbenlyst mod idealet<br />
om uafhængighed og udfordre såvel Danidas som konsulenternes selvforståelse. I<br />
stedet forstår og italesætter de deres såvel formelle som uformelle kontakt med<br />
evalueringsholdet som en neutral vidensudveksling.<br />
Denne oplevelse deles ikke af Danidas partnere, der i udgangspunktet opfatter<br />
konsulenterne som kontrollanter udsendt af Danida og dermed som partiske deltagere<br />
i en åbenlys interessekonflikt om bistandsmidler. Af den grund reagerer de med<br />
utryghed og afmagt i forhold til bedømmelsessituationen, og de søger – i bestræbel-<br />
serne på at sikre en positiv vurdering – at vinde konsulenternes sympati, blandt andet<br />
ved at være ’høflige’ og ved at fremstille sig selv i et positivt lys. Utrygheden<br />
blokerer dermed for både indsamling af objektiv information og participatorisk<br />
læring, hvilket betyder, at interaktionen mellem konsulenter, donor og modtagere i<br />
130
forbindelse med udførelsen af evalueringer og reviews primært trækker på de<br />
subjektpositioner, som stilles til rådighed inden for forståelsen af kontrol som inspek-<br />
tion. Utrygheden er imidlertid ikke et uomgængeligt vilkår, som vores fremstilling af<br />
case-forløbene viste, men det kræver opmærksomhed og en ekstra indsats fra både<br />
Danidas og konsulenternes side, hvis utrygheden skal imødegås. Dette behandler vi<br />
mere indgående i kapitel 13.<br />
Konsulenternes og Danidas opmærksomhed på partnernes utryghed svækkes af, at<br />
begge parter i praksis holder uafhængighedsidealet og påstanden om konsulenternes<br />
upartiskhed i hævd, hvilket blandt andet kommer til udtryk gennem anvendelsen af<br />
en distanceret og objektiv forfatteridentitet i rapporterne. At Danida og konsulenterne<br />
insisterer på uafhængighedskriteriet, trods interviewpersonernes samtidige erkendelse<br />
af konsulentidentiteten som konfliktfyldt og splittet, har konsekvenser for forhand-<br />
lingerne mellem donor og modtager. Påstanden om, at konsulenternes vurderinger<br />
repræsenterer en indiskutabel, ”virkelig virkelighed”, betyder, at interessemodsætnin-<br />
gerne mellem donor og modtager ikke får lov til at komme op til overfladen i evalue-<br />
rings- og reviewsituationen. Derved skabes et billede af konsensus mellem Danida og<br />
Danidas partnere, som i visse tilfælde kan være helt reelt og i andre tilfælde ikke.<br />
Under alle omstændigheder bidrager evalueringer og reviews på denne måde til at<br />
understøtte den forestilling om en konfliktfri relation donor og modtager imellem,<br />
som er en forudsætning for opretholdelsen af partnerskabstanken.<br />
131
11. Den gode mediebistandsindsats<br />
Fra det foregående kapitels fokus på konsulentidentiteten, vender vi nu blikket mod<br />
de evaluerede aktørers identitet og samspillet mellem denne og Danidas evaluerings-<br />
kriterier. Endvidere vil vi forholde os til, hvorledes konsulenternes arbejdsvilkår<br />
indvirker på dette samspil. Formålet med analysen er at belyse, hvordan evalueringer<br />
og reviews er med til at konstruere ’det gode mediebistandsprojekt’ og ’den gode<br />
partner’, hvorigennem de bidrager til at påvirke relationen mellem donor og<br />
modtager i mediebistanden.<br />
Kapitlet er inddelt i fire underafsnit, hvoraf det første, 11.1. præsenterer Danidas<br />
faste evalueringskriterier, og det følgende – afsnit 11.2. – omhandler de kriterier og<br />
indikatorer, der anvendes i de otte analyserede rapporter. Denne analyse danner<br />
baggrund for en besvarelse af problemformuleringens spørgsmål om, hvordan<br />
evalueringer og reviews bidrager til at konstruere ’det gode mediebistandsprojekt’.<br />
Det ser vi nærmere på i afsnit 11.3. Med henblik på at kunne stille forslag til en<br />
forbedring af Danidas metoder til evaluering af mediebistand, vil vi afsnit 11.4.<br />
belyse den gældende praksis og indkredse, hvorfor Danida og konsulenterne<br />
anvender netop de kriterier og indikatorer, vi identificerer i afsnit 11.1.<br />
11.1. Kriterier og indikatorer<br />
11.1.1. Danidas projektevalueringsmodel<br />
Det teoretiske udgangspunkt for at forstå sammenhængen mellem evaluerings-<br />
kriterier, indikatorer og mål er en forestilling om det politiske system som bestående<br />
af tre størrelser (Easton 1957, Vedung 1998): Input system output. Oversat til<br />
en mediebistandskontekst er den grundlæggende antagelse bag indsatsen, at man<br />
tilfører nogle bistandskroner og en arbejdsmetode (input), som tilsammen muliggør<br />
etableringen af et mediebistandsprojekt. Via dette projekt opnås en række udviklings-<br />
mål, og modellen ser således ud: Input mediebistandsprojekt opnåelse af<br />
udviklingsmål.<br />
Imidlertid er denne treleddede model for simpel til at indfange kompleksiteten i<br />
udviklingsbistanden, og Danida indskyder – i lighed med andre donororganisationer<br />
– tre effektniveauer i modellen, idet organisationen skelner mellem output, outcome<br />
og impact (Danida 1997:21) 59 . Danidas projektevalueringsmodel, som vi uddyber i<br />
59 Der hersker nogen begrebsforvirring i forhold til effektniveauer i evaluering af udviklingsbistand.<br />
Danida opererer med begreberne outputs, objectives (som vi kalder outcome, i overensstemmelse med<br />
gængs evalueringsteoretisk terminologi. Se fx Kjekshus 1991 og Binnendijk 2001) og impact, mens der i<br />
mange sammenhænge alene skelnes mellem outputs og impact (hvor sidstnævnte betegnelse både<br />
dækker outcome og impact) – se eksempelvis Berger 1991.<br />
132
det følgende, ser ud som følger 60 , hvor de grå kasser viser de forskellige effekt-<br />
niveauer:<br />
Effektniveauer og evalueringskriterier i Danida<br />
Input<br />
Figur 11a<br />
Efficiens<br />
I Danida beskriver man evaluering som:<br />
Output<br />
Effektivitet og<br />
bæredygtighed<br />
Virkning og<br />
Relevans<br />
Outcome<br />
Impact<br />
… an assessment, as systematic and objective as possible, of on-going or<br />
completed aid activities, their design, implementation and results. The aim is to<br />
determine the relevance and fulfilment of objectives, developmental efficiency,<br />
effectiveness, impact and sustainability. (Udenrigsministeriet 1999:3)<br />
Af citatet fremgår de fem evalueringskriterier, som er tilføjet modellen ovenfor:<br />
efficiens, effektivitet, virkning, relevans og bæredygtighed. Disse kriterier anbefales<br />
af OECD/DAC og følgelig nyder de stor udbredelse blandt større donoragenturer<br />
(Danida 1997:50). Kriterierne er defineret i Danidas retningslinier for evaluering<br />
(Danida 1997), men de forplanter sig ’nedad’ i evalueringshierarkiet, sådan at de<br />
også er gennemgående i projektdokumentation og reviews – dog for disse dokument-<br />
typers vedkommende med større fokus på output/efficiens 61 . I de følgende afsnit vil<br />
vi kort gennemgå indholdet i projektmodellens effektniveauer og evalueringskriterier.<br />
11.1.1.1. Output<br />
Output defineres i Danidas evalueringsretningslinier som et spørgsmål om, hvorvidt<br />
projektets umiddelbare formål er blevet opfyldt kvantitativt og inden for budget-<br />
rammen. Kriteriet til måling heraf er efficiens (effiency, Danida 1997:50ff.).<br />
60 Figuren er en udbygning af Danidas projektevalueringsmodel, som fremgår af Danida 1997:21. Ordet<br />
”outcome” erstatter Danidas ”achievement of objectives”.<br />
61 Projektrapportering og reviews skal dog også forholde sig til de øvrige evalueringskriterier, hvilket<br />
fremgår af Danida 2003B:40f.<br />
133
Efficiens er det snævreste effektperspektiv, man opererer med i Danida, og det<br />
anvendes til at vurdere indsatsen på et implementeringsmæssigt niveau. Den danske<br />
evaluator Henrik Schaumburg-Müller beskriver efficienskriteriet som et spørgsmål<br />
om, at ”forholde anvendelsen af ressourcer til det, der er kommet ud af aktiviteten, og<br />
se på om ressourcerne alternativt kunne være blevet anvendt bedre” (Schaumburg-<br />
Müller 2001:250). Skal man eksempelvis evaluere Danidas støtte til en lokalradio-<br />
station, vil man i et efficiensperspektiv interessere sig for, om radiostationens<br />
organisation kører fornuftigt, om der er orden i økonomien, og om stationen sender i<br />
det aftalte antal timer. Indikatorerne på efficiens vil typisk være fastlagt allerede<br />
inden projektet går i gang og fremgå af projektdokumentationen (Danida 1997:53).<br />
11.1.1.2. Outcome<br />
Outcome defineres som bistandens effekt på mellemlang sigt (Danida 1997:22).<br />
Denne effektdimension måles i Danidas evalueringer ved hjælp af to kriterier:<br />
effektivitet og bæredygtighed.<br />
Effektivitet (effectiveness). Dette effektperspektiv fokuserer på: ”i hvilket omfang de<br />
mål, der er stillet for aktiviteten, er blevet opfyldt” (Schaumburg-Müller 2001:251),<br />
og det forholder sig til outcomeniveauet ud fra et målgruppeperspektiv (Danida<br />
1997:50). En effektivitetsvurdering af det førnævnte eksempel med radiostationen vil<br />
således undersøge, om målgruppen lytter til radiostationen, og hvad de får ud af det.<br />
Man kan sige, at effektivitetskriteriet undersøger de langsigtede udviklingsmål på et<br />
målbart niveau (Danida 1997:54-55).<br />
Bæredygtigheden defineres som et spørgsmål om ”hvorledes de fordele, som<br />
bistandsaktiviteten har ført til, kan forventes opretholdt efter indsatsens afslutning”<br />
(Schaumburg-Müller 2001:251). De faktorer, der ifølge Danidas evaluerings-<br />
retningslinier påvirker bæredygtighed er af politisk, teknologisk, sociokulturel,<br />
institutionel og økonomisk karakter (Danida 1997:60f., 89). I lokalradioeksemplet<br />
ville en bæredygtighedsvurdering således se på, om radiostationen fortsat ville kunne<br />
eksistere efter Danida havde trukket sig ud: er projektaktørerne motiverede for at<br />
fortsætte? Er de økonomiske midler til rådighed? Er radiostationen i fare for at blive<br />
lukket af de lokale myndigheder?<br />
11.1.1.3. Impact<br />
På et impact-niveau søger man at vurdere de langsigtede og uforudsete projekt-<br />
virkninger. Af Danidas evalueringsretningslinier fremgår det, at det er væsentligt i en<br />
evaluering også at tage impacts i betragtning ud fra en læringsmålsætning: ”The<br />
reason for such a broad perspective in evaluations of projects is essentially the need<br />
to learn from experience and improve upon the design of similar projects in the<br />
134
future” (Danida 1997:22). Evalueringskriterierne, som ifølge retningslinierne skal<br />
indfange impactdimensionen er: virkning og relevans.<br />
Virkning er det bredeste effektperspektiv, ”der skal se på de mere langsigtede<br />
tilsigtede og utilsigtede forandringer, som bistandsaktiviteten fører til” (Schaumburg-<br />
Müller 2001:251). Virkningskriteriet vurderer indsatsen fra et overordnet samfunds-<br />
mæssigt synspunkt og inddrager andre målgrupper og interessenter end de umiddel-<br />
bart definerede. Hvor de øvrige effektniveauer efficiens og effektivitet begge kun<br />
fokuserer snævert på de tilsigtede og umiddelbare outputs og outcomes, inkluderer<br />
virkning både positive, negative, forudsete og uforudsete effekter (Danida 1997:56). I<br />
lokalradioevalueringen kunne en virkningsvurdering eksempelvis fokusere på, om<br />
udsendelserne har medvirket til at ændre lytternes holdning til menneskerettigheder,<br />
om radiostationen har favoriseret bestemte grupper på bekostning af andre, om<br />
indsatsen har bidraget til at give kvinder bedre vilkår og muligheder for at deltage i<br />
demokratiet og så videre.<br />
Relevans, der er et udtryk for, hvordan udviklingsaktiviteten forholder sig til såvel<br />
donorens som de lokales behov og prioriteringer, skal ifølge Danidas evaluerings-<br />
retningslinier også inddrages som evalueringskriterium i bedømmelsen på impact-<br />
niveau (Danida 1997:51). Eksempelvis vil en relevansvurdering forholde sig til,<br />
hvorvidt der er sket forskydninger i de lokale magtforhold og/eller mediestrukturer,<br />
sådan at det enkelte projekt mister sin relevans, eller om projektet har bevæget sig så<br />
langt fra målsætningen, at donor ikke længere finder det relevant at yde støtte til<br />
(Danida 1997:58f.).<br />
11.2. Analyse: Fokus på output, outcome og/eller impact i<br />
kommissorier og rapporter<br />
De fem kriterier optræder i forskellig grad i de enkelte reviews og evalueringer. Vi<br />
vil nu undersøge hvilke kriterier, de otte kommissorier fokuserer på, og sammenligne<br />
dette med de kriterier og indikatorer, som reelt anvendes i rapporterne. Formålet med<br />
analysen er at belyse, hvordan kommissorier og rapporter bidrager til at konstruere<br />
mediebistanden på et indholdsmæssigt og tidsligt niveau.<br />
135
11.2.1. Måling af output: Efficiens<br />
Input<br />
Efficiens<br />
Output<br />
Effektivitet og<br />
bæredygtighed<br />
Virkning og<br />
Relevans<br />
Outcome<br />
Impact<br />
I de analyserede kommissorier og rapporter optræder tre indikatorer på efficiens: (a)<br />
indsatsens målopfyldelse i forhold til projektdokumentet, (b) særlige problematikker i<br />
forbindelse med implementering samt (c) omkostningseffektivitet.<br />
Efficiensindikatorer Antal kommissorier<br />
indikatorerne optræder<br />
i<br />
Målopfyldelse 6 63<br />
Antal rapporter indikatorerne<br />
optræder i<br />
Relation 62<br />
8 +2<br />
Implementering generelt 6 6 0<br />
Omkostningseffektivitet 4 5 +1<br />
Figur 11b<br />
Spørgsmålet om, hvorvidt indsatsen opfylder de i projektdokumentet fastsatte mål,<br />
stilles i seks kommissorier og besvares i samtlige otte rapporter. Rapporternes<br />
vurderinger af graden af målopfyldelse er generelt utvetydige og forholder sig med<br />
en høj detaljeringsgrad til de oplysninger, som er fundet i projektdokumenterne,<br />
hvilket dette uddrag er et eksempel på:<br />
So far 19 of the 20 trainers (the Project Document benchmark) have been<br />
trained (the 20 th was included and planned for, but missed his course by his<br />
own fault). (NSJ 03:8)<br />
Implementeringsproblematikker behandles indgående i seks rapporter – på forskellig<br />
vis – afhængig af omfanget af problemer i projektorganisationen. Halvdelen af de<br />
analyserede kommissorier stiller krav om en analyse af den tredje efficiensindikator,<br />
omkostningseffektivitet:<br />
The review team will provide an opinion on whether the cost of MISA's work<br />
is reasonable for what it achieves. Would it be possible to achieve the same<br />
benefits at less cost? (MISA 04:47)<br />
62 Denne værdi angiver hvilket omfang rapporterne opfylder kommissoriernes krav. En positiv værdi,<br />
som i dette tilfælde, indikerer at de analyserede rapporter generelt overopfylder kommissorierne.<br />
63 Vi henviser generelt i dette afsnit til bilag 4.I. for en detaljeret gennemgang af, hvilke konkrete<br />
kommissorier og rapporter, der henvises til.<br />
136
Omkostningseffektivitet figurerer i fem af rapporterne, skønt denne indikator kun er<br />
’bestilt’ i 4 af kommissorierne. Som det fremgår af figur 11b, er der en tendens til, at<br />
rapporterne overopfylder kommissoriernes målsætninger, hvad angår vurdering af<br />
outputs. Forklaringerne herpå vender vi tilbage til senere.<br />
Opsummerende foretager alle otte rapporter målinger af outputs – reviews dog i<br />
højere grad end evalueringer (bilag 4I). Outputvurderingerne er generelt<br />
velunderbyggede, detaljerede og utvetydige.<br />
11.2.2. Måling af outcome: Effektivitet<br />
Input<br />
Efficiens<br />
Output<br />
Effektivitet og<br />
bæredygtighed<br />
Virkning og<br />
Relevans<br />
Outcome<br />
Impact<br />
Der er gennemgående to måder, hvorpå kommissorier og rapporter griber en<br />
effektivitetsmåling an: (a) vurdering af opfyldelse af udviklingsmålene på et taktisk<br />
niveau samt (b) målgruppens vurdering.<br />
Effektivitetsindikatorer Antal kommissorier<br />
indikatorerne optræder<br />
i<br />
Antal rapporter indikatorerne<br />
optræder i<br />
Relation<br />
Målopfyldelse 8 4 -4<br />
Målgruppens vurdering 4 4 0<br />
Figur 11c<br />
Samtlige kommissorier ønsker en vurdering af, hvorvidt den evaluerede/reviewede<br />
indsats lever op til de ønskede udviklingsmål på et taktisk niveau. Denne formulering<br />
er en kende ukonkret, hvilket skyldes, at der er tale om en ukonkret indikator.<br />
Eksempelvis stilles dette krav i et kommissorium:<br />
The evaluation/review will determine (…) whether MISA meets its broadly<br />
stated objectives (MISA 01/02:4)<br />
Og det besvares i rapporten på tilsvarende svævende vis:<br />
The organisation is broadly meeting its overall objectives. Nevertheless, it is<br />
equally clear that there is room for improvement (MISA 01/02:vi)<br />
137
Grundlaget for vurderingen er uklart, ligesom anvendelsen af ordet “broadly”<br />
bidrager til nogen forvirring. I kommissoriet er det udviklingsmålene, der er ’bredt’<br />
formuleret, mens det i rapporten er MISA’s indsats, som ’i et bredt perspektiv’ lever<br />
op til målene.<br />
En anden indikator på effektivitet er målgruppens vurdering. Reviewet af medie-<br />
bistanden til Bangladesh, der – som tidligere nævnt – skiller sig ud fra de øvrige ved<br />
at kombinere flere typer dataindsamlingsmetoder og basere sine konklusioner på et<br />
omfattende materiale, leverer det mest velunderbyggede bud på en målgruppe-<br />
vurdering. Det illustreres i disse to eksempler:<br />
The course participants interviewed found the methods and the fieldwork<br />
implemented during the course useful. (Bangladesh 02:6)<br />
Some of the recent newsletters were given by the team to a number of<br />
journalists and editors met in Noakhali and Patuakhali to have their assessment<br />
of the style and content. The response was that the newsletters are easy to read<br />
and understand. (Bangladesh 02:6)<br />
Alene det, at reviewholdet har gjort en indsats for at høre målgruppens vurdering, er<br />
ekstraordinært, men der er stadig tale om et ganske lille udpluk af målgruppen: De få<br />
adspurgte repræsenterer en begrænset og umiddelbart tilgængelig del af målgruppen<br />
frem for ’slutbrugerne’, eksempelvis læsere og lyttere af de journalistiske produkter.<br />
Det fremgår af figur 11c og bilag 4I, at alle kommissorier ønsker en effektivitets-<br />
vurdering, mens kun fire rapporter leverer en sådan. Som vi har set, udtaler<br />
konsulenterne sig langt fra med samme detaljeringsgrad og utvetydighed som<br />
tilfældet var i forbindelse med outputvurderingerne. Men hvad gør forfatterne til de<br />
rapporter, som ikke – eller kun i begrænset omfang – besvarer kommissoriernes krav<br />
om at analysere indikatorer på effektivitet?<br />
To strategier for at omgå eller helt undgå kravene i kommissorierne går igen i de otte<br />
rapporter. Først og fremmest beklager konsulenterne, at de ikke har haft de fornødne<br />
data og metoder til rådighed til at foretage de nødvendige effektivitetsanalyser. En<br />
sådan forklaring gives i fem af de otte rapporter, og lyder eksempelvis således:<br />
It is difficult to assess accurately what MISA achieved in one year (…) Ideally<br />
what one should be looking for are protracted public debates, activities and<br />
engagement instead of short terms activities. Nevertheless, this section<br />
summarizes MISA’s achievements during the year under review even if those<br />
achievements are, in some cases, limited to activities and outputs and not<br />
outcomes. (MISA 04:35)<br />
Som det beskrives her, ser rapportens forfattere sig nødt til at fortolke outcome-<br />
kriterierne på et outputniveau af ressource- og tidsmæssige årsager. En anden<br />
strategi, som ligeledes optræder i fem rapporter, er at fremsætte forsigtige<br />
138
vurderinger og/eller udokumenterede påstande om indsatsens effektivitet. Dette kom<br />
til udtryk i den ovenstående formulering om, at MISA ’i et bredt perspektiv’ levede<br />
op til de fastsatte udviklingsmål, og det ses også i dette uddrag et review, hvor<br />
forfatternes tilslutning til konklusionerne fremstår mere forsigtig i kraft af brugen af<br />
verberne ’seem’ og ’may’:<br />
Each of the components seems to contribute to the achievement of the<br />
objectives (…) education and training of students and media professionals in<br />
practical and ethics aspects of journalism might have been strengthened<br />
through the support. (Zambia 02:viii, vus.)<br />
Konsulenternes anvendelse af disse strategier indikerer, at de finder det vanskeligt at<br />
operationalisere effektivitetskriteriet og finde egnede indikatorer – en problem-<br />
stilling, som vi vender tilbage til i afsnit 11.3.<br />
11.2.3. Måling af outcome: Bæredygtighed<br />
I gennemgangen af Danidas projektevalueringsmodel blev det nævnt, at bæredygtig-<br />
hed i retningslinierne fortolkes som et outcome-kriterium, det vil sige som et spørgs-<br />
mål om, hvorvidt effekterne af indsatsen er bæredygtige. Når det er sagt, så ser vi<br />
imidlertid en tendens til, at både rapporter og kommissorier fortolker bæredygtighed<br />
som et output-kriterium i og med, at man primært vurderer medieprojekternes økono-<br />
miske og institutionelle bæredygtighed.<br />
Bæredygtighedsindikatorer Antal kommissorier<br />
indikatorerne optræder<br />
i<br />
Antal rapporter indikatorerne<br />
optræder i<br />
Relation<br />
Effekternes bæredygtighed 3 1 -2<br />
Institutionel/økonomisk bæredygtighed 5 6 +1<br />
Figur 11d<br />
En interessant pointe i denne forbindelse er, at rapporterne har tendens til at definere<br />
bæredygtighed som et spørgsmål om projekternes evne til at interagere med donor-<br />
agenturer. Med andre ord drages der paralleller mellem ’en kompetent partnerorgani-<br />
sation’ og levering af en bæredygtig indsats:<br />
MISA is almost entirely funded by foreign donors. It goes without saying,<br />
therefore, that the capacity of MISA to interact with donors is crucial to the<br />
overall effectiveness of the organisation (MISA 01/02:61)<br />
Relationen mellem forekomsten af indikatorerne i kommissorier og rapporter under-<br />
bygger det mønster, som de to foregående afsnit peger på: rapporterne overopfylder<br />
kommissoriernes krav, når det drejer sig om måling af outputs, men lever ikke op til<br />
dem hvad angår outcomevurderinger.<br />
139
11.2.4. Måling af impact: Virkning<br />
Input<br />
Efficiens<br />
Output<br />
Effektivitet og<br />
bæredygtighed<br />
Virkning og<br />
Relevans<br />
Outcome<br />
Impact<br />
Der optræder to tilgange til at vurdere mediebistandens virkning i de analyserede<br />
kommissorier og rapporter: (a) en vurdering af indsatsens effekt på menneskerettig-<br />
heder og demokrati – det vil sige en vurdering af opnåelse af udviklingsmålene set<br />
fra et strategisk og samfundsmæssigt perspektiv, samt (b) en vurdering af indsatsens<br />
utilsigtede effekter.<br />
Virkningsindikatorer Antal kommissorier<br />
indikatorerne optræder i<br />
Indsatsens effekt på menneske-<br />
rettigheder og demokrati<br />
Antal rapporter indikatorerne<br />
optræder i<br />
Relation<br />
6 5 -1<br />
Utilsigtede effekter 4 1 -3<br />
Figur 11e<br />
Hovedparten af kommissorierne beder om konsulentholdets vurdering af indsatsens<br />
effekt på udviklingen af menneskerettigheder og demokrati – det gælder i højere grad<br />
evaluerings- end reviewkommissorier (bilag 4I):<br />
Assess if and how the Danish financed activities supporting free and objective<br />
information (media) have promoted democratisation and human rights.<br />
(Danida 2000A:52)<br />
Som det var tilfældet i forbindelse med de to outcomekriterier: effektivitet og bære-<br />
dygtighed, har konsulenterne vanskeligt ved at opfylde kommissoriernes krav om at<br />
vurdere virkningen af mediebistanden. Det kommer atter til udtryk ved, at rapport-<br />
forfatterne gør opmærksom på mangelfulde data og ressourcer (seks rapporter, bilag<br />
4I), og desuden fremsættes udokumenterede påstande (fire rapporter, bilag 4I) som<br />
at:<br />
MISA has contributed to the building of democracy, freedom of expression and<br />
improvement of human rights. (MISA 04:8)<br />
Mens vurderingsgrundlaget i ovenstående udsagn er uklart, og påstanden derfor<br />
fremstår postulerende, er der også enkelte eksempler på, at konsulenterne forsøger at<br />
140
finde frem til operationaliserbare indikatorer på virkning – i dette tilfælde i form af<br />
en kvantitativ, sammenlignende tekstanalyse:<br />
The review team has noticed a general increase in the number of news stories<br />
on these issues in the newspapers compared to the output two years ago.<br />
(Bangladesh 02:9)<br />
Generelt er der dog tale om, at rapporternes forsøg på at besvare kommissoriernes<br />
ønske om en vurdering af virkning på et samfundsniveau bygger på forestillede<br />
konstruktioner af, hvad der kan tænkes at ske, frem for at basere sig på håndfast<br />
empirisk materiale. Med andre ord søger rapportforfatterne at imødekomme den<br />
metodiske udfordring ved at tage afsæt i normative teorier om mediernes<br />
demokratiske rolle (Nordenstreng 1997):<br />
The evaluation team has chosen to cope with the methodological challenge by<br />
starting out by analysing the potential role that Media may play in<br />
democratisation and improved respect for Human Rights. (Danida 2000A:1)<br />
Fire af kommissorierne ønsker desuden, at rapporterne forholder sig de utilsigtede<br />
virkninger af mediebistanden. Som det ovenstående figur 11e viser, vurderes dette<br />
imidlertid kun i en enkelt rapport (MISA 04), af hvilken det fremgår, at indskrænk-<br />
ninger i ytringsfriheden muligvis kan tilskrives en mere kritisk journalistik (MISA<br />
04:13). Hvorvidt tendensen kan tilskrives Danidas mediebistandsindsats, forholder<br />
rapporten sig dog ikke til.<br />
Opsummerende kan vi fastslå, at Danida er interesseret i at måle mediebistandens<br />
effekt på medier og demokrati, hvilket kommer til udtryk i kommissoriernes krav.<br />
Konsulenterne har imidlertid vanskeligt ved at finde egnede indikatorer til en<br />
besvarelse af spørgsmålet, hvorfor de tyr til gisninger baseret på normative medie-<br />
teorier.<br />
11.2.5. Måling af impact: Relevans<br />
En af de metodiske udfordringer ved at vurdere mediebistandens relevans er at<br />
identificere et grundlag at gøre dette ud fra. Af Danidas retningslinier for evaluering<br />
fremgår det, at relevans både skal vurderes i forhold til lokale behov, partnernes<br />
prioriteringer og donors målsætninger (Danida 1997:58f.). Disse tre vurderings-<br />
grundlag figurerer således i de analyserede kommissorier og rapporter:<br />
Relevansindikatorer Antal kommissorier indikatorerne<br />
optræder i<br />
Antal rapporter indikatorerne<br />
optræder i<br />
Relation<br />
I forhold til lokale behov 6 3 -3<br />
I forhold til partnernes<br />
prioriteringer<br />
2 1 -1<br />
I forhold til donors prioriteringer 2 5 +3<br />
Figur 11f<br />
141
Seks kommissorier udbeder sig en vurdering af relevansen af den reviewede/<br />
evaluerede indsats i forhold de lokale behov. De tre rapporter, som forholder sig<br />
hertil, ser enten på relevans fra et målgruppeperspektiv, hvilket eksemplificeres i det<br />
første af de to nedenstående uddrag, eller vurderer relevansen ud fra en samfunds-<br />
vinkel, som det kommer til udtryk i uddrag nummer to:<br />
Every year, approximately 60 students graduate from each of the two major<br />
training institutions, and this is far beyond the number demanded by the<br />
industry (Zambia 02:67)<br />
MISA’s mission is as relevant as ever 10 years after the Windhoek declaration,<br />
as autocratic tendencies threatening press freedom continue to emerge in many<br />
countries in the region (MISA 01/02:vii)<br />
Som det gælder for de øvrige indikatorer på impact- og outcomeniveau, er relationen<br />
mellem kommissoriernes målsætninger og de faktiske vurderinger i rapporterne dog<br />
negativ. Ganske få kommissorier og rapporter inddrager partnernes vurdering af<br />
indsatsens relevans, hvorimod et relativt stort antal rapporter vurderer relevans i<br />
forhold til donors prioriteringer:<br />
With regard to the strategy of the project, the review team concludes that<br />
generally the objectives are relevant and in line with the development<br />
objectives of the overall Danida Strategies for Support to Human Rights and to<br />
Media. (Bangladesh 02:viii)<br />
Den netop citerede rapport, reviewet af mediestøtten til Bangladesh, vurderer<br />
udelukkende relevans på grundlag af donors prioriteringer, og det til trods for det<br />
faktum at reviewkommissoriet også ønsker en bedømmelse af indsatsens relevans i<br />
forhold partnernes ønsker og de lokale behov. Der er ikke tale om et enestående<br />
eksempel herpå. Tværtimod er der tendens til, at rapporterne ikke imødekommer<br />
kravene i kommissorierne – særligt gælder dette for evalueringskommissorierne, der<br />
fortolker relevans på et strategisk niveau som et spørgsmål om målgruppens og<br />
samfundets behov. I stedet fortolker konsulenterne relevanskriteriet på et taktisk<br />
niveau og undersøger, hvorvidt indsatsen stemmer overens med Danidas ønsker. At<br />
konsulentholdene har vanskeligt ved at gribe kommissoriekravene an i praksis,<br />
kommer desuden til udtryk ved, at der i hele seks af rapporterne fremkommer<br />
udokumenterede påstande og gisninger om relevans (bilag 4I). Afsnit 11.4.2.<br />
behandler problemstillingen omkring overambitiøse kommissorier nærmere.<br />
11.2.6. Konklusion<br />
Konklusionen på ovenstående dokumentanalyse er, at kommissorierne – især for<br />
evalueringernes vedkommende – er mere ambitiøse i forhold til vurdering af<br />
indsatsen på outcome- og impactniveau, end det er muligt for konsulenterne at leve<br />
op til. Konsulenterne kompenserer herfor på tre måder. Først og fremmest fokuserer<br />
de i høj grad på outputs, også i højere grad end kommissorierne lægger op til.<br />
142
Dernæst viser analysen en tendens til, at rapportforfatterne foretager impactvurde-<br />
ringer på baggrund af gisninger og normative forestillinger om mediernes rolle<br />
snarere end ud fra data. Endelig operationaliseres Danidas prioriteringer som bedøm-<br />
melsesgrundlag, hvorved indsatsen bedømmes fra en donorvinkel i stedet for fra et<br />
partner- eller målgruppeperspektiv. Denne anvendelse af kriterier og indikatorer<br />
bidrager til at forme et bestemt billede af hvad ’den gode mediebistandsindsats’ er,<br />
og det vil være temaet i næste afsnit.<br />
11.3. Den gode mediebistandsindsats<br />
De otte evaluerings- og reviewrapporter, som indgår i vores dokumentanalyse,<br />
beskriver i kraft af deres fokus på output og implementeringsproblematikker den<br />
gode mediebistandsindsats som et velorganiseret projekt, der formår at leve op til de<br />
fastsatte projektmål og levere resultater på et operationelt niveau. I rapporterne roses<br />
de reviewede og evaluerede indsatser eksempelvis for at være “…performing well<br />
and have achieved or exceeded the outputs” (NSJ 03:s. iii), og ”…a highly profes-<br />
sional organisation both in its activities, reporting and accountability mechanisms”<br />
(MISA 01/02:62). Den gode projektorganisation er endvidere kendetegnet ved at<br />
besidde de fornødne kompetencer til at interagere med Danida på Danidas præmisser,<br />
jævnfør beskrivelsen i afsnit 11.2.3. om bæredygtighed.<br />
At reviews og evaluering i høj grad vurderer mediebistandsindsatsen ud fra et donor-<br />
perspektiv kommer også til udtryk ved, at det gode projekt defineres som et ’unikt’<br />
projekt (en vending, som går igen i hele 6 rapporter, se bilag 4I):<br />
Radio Colectivo Radial Feminista (CRF) in Peru is a specific and unique<br />
communications project. (Danida 2000A:35, vus)<br />
The organisation has established itself as one of the main champions of<br />
democracy, freedom of expression and human rights, and no other organisation<br />
in the region or on the African continent for that matter has a better network in<br />
the media environment. (MISA 04:7, vus)<br />
Konstruktionen af ’den gode mediebistandsindsats’ som unik kommer tydeligst til<br />
udtryk i reviewet af NSJ fra 2003 (NSJ 03 & bilag 4G), som problematiserer, at NSJ<br />
har fået konkurrence fra andre uddannelsesinstitutioner i regionen. Dette kan synes<br />
absurd at problematisere, idet man vel må anse det for positivt og fremmende for en<br />
demokratisk udvikling, at lokale institutioner, som er uafhængige af udviklings-<br />
bistand, på eget initiativ løfter opgaven at uddanne kritiske journalister? Ikke desto<br />
mindre kredser hovedparten af reviewets anbefalinger om, hvordan NSJ kan genfinde<br />
en niche. En forklaring herpå kan være, at Danida kun kan legitimere at støtte unikke<br />
og nyskabende projekter. Ikke-unikke projekter gør sig derfor ikke fortjent til at<br />
modtage dansk udviklingsbistand.<br />
143
Donorperspektivet forstærkes endvidere af rapportforfatternes tendens til at tage<br />
afsæt i Danidas prioriteringer som grundlag for vurdering af relevans samt i norma-<br />
tive teorier i mangel af konkrete indikatorer på mediebistandens virkning. Dette<br />
medfører, at der tegnes et billede af ’den gode mediebistandsindsats’ som værende i<br />
overensstemmelse med Danidas forventninger og målsætninger. Man kan altså tale<br />
om, at Danida vurderer sin omverden i sit eget spejlbillede, hvilket med al tydelighed<br />
illustreres i dette citat, der definerer ’den gode mediebistandsindsats’ som én, der<br />
sender de rette signaler om donors intentioner:<br />
It is a visible and effective way for an external donor to show solidarity and<br />
involvement. (Danida 2000A:38)<br />
Evaluerings- og reviewrapporternes konstruktion af mediebistanden forstærker<br />
således partnerskabets paradoks, idet ’den gode partner’ understøtter Danidas selv-<br />
forståelse som en engageret donor, der viser solidaritet og fremmer partnernes demo-<br />
kratiske udvikling. I hvert fald så længe denne udvikling matcher Danidas priorite-<br />
ringer og leverer resultater, som øger dens legitimitet overfor de danske skatteydere.<br />
11.3.1. Diskussion<br />
Evalueringskriterier, som vurderer mediebistanden på et outputniveau, spiller ind i<br />
den udviklingsteoretiske moderniseringsdiskurs ved at forholde sig til foruddefine-<br />
rede mål og bedømme ’graden af udvikling’ i forhold til disse. Modsat er outcome-<br />
og impactkriterier åbne dels for partnernes egne definitioner, dels for målgruppens<br />
vurdering og dels for uforudsete faktorer og utilsigtede effekter. Man kan således tale<br />
om, at impact- og outcomemålinger i højere grad vurderer ’typen af udvikling’,<br />
hvilket er i overensstemmelse med den kritiske udviklingsdiskurs’ forskrifter og for-<br />
ståelse. Ærindet her er ikke at sige, at impacts og outcomes er mere interessante end<br />
vurderinger af mediebistandens outputs – eller omvendt. Men vi mener, at alle tre<br />
effektniveauer er væsentlige at forholde sig til af hensyn til såvel en lærings- som en<br />
kontrolmålsætning. I forlængelse heraf finder vi det problematisk, at de analyserede<br />
evalueringer og reviews forholder sig så overfladisk og postulerende til medie-<br />
bistandens outcome og impact, som tilfældet er.<br />
Skal reviews og evalueringer leve op til målsætningen om at bidrage til læring med<br />
henblik på justering af mediebistand, er det efter vores mening særdeles væsentligt at<br />
sørge for tilvejebringelse af ny viden. Tendensen til at fokusere på, hvorvidt indsatsen<br />
lever op til foruddefinerede mål, gør at man bevæger sig inden for en enkeltsløjfet<br />
læringscyklus: Er det vi gør tilstrækkeligt i forhold til at nå de opstillede målsæt-<br />
ninger? Anvendelsen af egne målsætninger som referenceramme gør, at evaluerings-<br />
indsatsen bliver et spørgsmål om at måle, hvad man allerede ved og har redskaber til<br />
144
at måle 64 . Ved at foretage grundige outcomestudier og om muligt også at give kvali-<br />
ficerede impactvurderinger, ville man skabe grobund for en dobbeltsløjfet lærings-<br />
proces, med et spørgsmål som: Er mediebistand den rette måde at nå vores mål på?<br />
Også i et kontroløjemed er det vigtigt at have et skarpere fokus på mediebistandens<br />
outcome og impact. Et eksempel herpå er støtten til lokalradioer 65 . Denne støtte<br />
udgør en anseelig del af den danske mediebistand (Danida 2000A:23), og der er tale<br />
om projekter, som generelt bedømmes positivt. Dels er projekterne afgrænsede og<br />
derfor relativt nemme at implementere og opstille konkrete outputmål for, og dels<br />
udmærker lokalradioprojekter sig ved at kunne sammenkæde mediebistanden med<br />
Danidas målsætninger om særligt at tilgodese kvinder og fattige (Danida 2000B).<br />
Evaluerer eller reviewer man lokalradioprojekter alene ud fra outputkriterier og<br />
donors prioriteringer, vil vurderingerne derfor sandsynligvis falde ud til den gode<br />
side. Men spørgsmålet om, hvorvidt radiostationen rent faktisk har lyttere, og hvad<br />
disse lyttere i så fald får ud af deres lytning, besvares uhyre sjældent, skønt dette er<br />
nok så interessant – for såvel projektorganisationen og Danida som for de danske<br />
skatteydere, der i sidste ende skal garantere mediebistandens legitimitet.<br />
11.3.2. Indikatorfiksering?<br />
Danidas projektevalueringsmodel, som vi gengav i afsnit 11.1.2., fremstiller et<br />
projekt som: ”a single cause-effect chain of identifiable elements” (Danida 1997:21).<br />
Denne forsimpling og antagelse om en klar kausal sammenhæng mellem input,<br />
outputs, outcome og impact er en analytisk øvelse, som gør det nemmere at fokusere<br />
en evaluering. Men den er ikke neutral i forhold til den måde, Danida gennemfører<br />
mediebistandsaktiviteter – og andre projekter. Den projektimplementeringsmodel,<br />
som siden 1989 har været anvendt i Danida kaldes Logical Framework Approach<br />
(LFA, Danida 1996:3). Tankegangen bag LFA er at nedbryde indsatsen til en række<br />
delelementer for derved at gøre det nemmere at planlægge, implementere og<br />
evaluere. Danidas evalueringsmodel kan ses som resultat af en LFA-tilgang, idet<br />
formålet med evaluering, reviews og projektdokumentation så at sige er at identifi-<br />
cere netop hvor i kæden af kausalt sammenhængende projektelementer, der er opstået<br />
særlige problemer eller uventede succeser. Evalueringskriterierne er simple for at<br />
kunne fungere som ledelsesværktøjer – for utvetydigt at kunne identificere vellyk-<br />
kede og mindre vellykkede aktiviteter:<br />
Og et af de vigtige mål, det er jo helt klart at få noget ledelsesrelevant<br />
information, som vi lærer af og træffer bedre beslutninger på baggrund af. Så…<br />
64 ”Measuring what we already know and can measure”, Morten Sodemann, citat fra oplæg om<br />
effektivitetsmåling i forbindelse med bekæmpelse af børnedødelighed i Vestafrika. Annual Development<br />
Symposium, 10. september 2004. Aarhus Universitet, Søauditoriet. Arrangør: Centre for Tropical<br />
Ecosystems Research (cenTER).<br />
65 Den engelske term ’community radios’ er mere dækkende for denne del af Danidas mediebistand, som<br />
ikke blot går til radiostationer, der dækker et geografisk lokalområde, men også til ’community’-radioer<br />
målrettet eksempelvis kvinder og etniske minoriteter.<br />
145
så det er jo så… det stiller krav i øvrigt også om enkelthed, og også om at<br />
systemerne skal være sådan keep it simple, for ellers kan man faktisk ikke få<br />
truffet beslutninger. Det er måske noget af det, vi har lært fra tidligere<br />
systemer, at hvis det bliver for komplekst, så bliver det ikke ledelsesrelevant<br />
længere. (<strong>OG</strong>)<br />
Målsætningen om forsimpling og standardisering har selvsagt betydning for den<br />
anvendte evalueringsmetode 66 . Men tendensen mod forsimpling og standardisering<br />
tilskynder også projekterne til – allerede langt tidligere i forløbet – at holde fokus på<br />
netop Danidas fem evalueringskriterier og sørge for, at deres resultater bliver opnået<br />
og opgjort på en måde, så de bliver synlige, når projektet reviewes og/eller evalueres.<br />
Denne disciplinering af projekterne foregår løbende og tavst, og vi kan i vores empi-<br />
riske materiale ikke se eksempler på en åbenlys indikatorfiksering i stil med de<br />
tidligere fremstillede eksempler fra Arbejdsformidlingen og den polske møbelindus-<br />
tri 67 . Danidas evalueringskriterier påvirker dog utvivlsomt partnernes adfærd og<br />
selvforståelse, hvilket fremgår af blandt andet dette udsagn:<br />
… der har vi så den tilgang, at det skal være sådan, ellers så tror vi ikke på det<br />
bærer. Og det har selvfølgelig noget at gøre med, at en af de parametre, som<br />
Danida også altid lægger meget vægt på i deres evalueringer, det er<br />
bæredygtighed. (PO)<br />
Hos Danidas partnere sker der en internalisering af kontrollen – en mekanisme som<br />
tidligere er blevet præsenteret ved hjælp af Foucaults teori om panoptisk overvåg-<br />
ning. Det er ikke alene bedømmelsen, som disciplinerer projektet, men selve bevidst-<br />
heden herom, der gør, at projektet disciplinerer sig selv. Denne problemstilling<br />
behandler vi nærmere i kapitel 12.<br />
11.3.3. En tvetydig anledning til identitetsartikulation<br />
Vi kan ikke på baggrund af ovenstående påvise, hvor langt indikatorfikseringen<br />
rækker, men vi kan se, at bedømmelsesaktiviteterne i nogen grad griber ind i den<br />
måde, Danidas mediebistand udføres på. Endvidere griber de ind i den måde, hvorpå<br />
partnerne og Danida forstår sig selv og hinanden – det, som vi tidligere har kaldt<br />
evalueringers og reviews konstitutive virkninger.<br />
Dahler-Larsen beskriver en evalueringsproces som en ”tvetydig anledning til identi-<br />
tetsartikulation” (Dahler-Larsen 1998:126). Identitetsartikulation fordi evaluerings-<br />
aktørerne (gen)forhandler relationer og selvforståelser ud fra de identitetsmuligheder,<br />
som evalueringsrammen tilbyder. Tvetydig fordi evalueringernes kontrolfunktion på<br />
66 Det kommer blandt andet til udtryk ved en tendens til standardisering af afrapporteringsformater, idet<br />
KVA har indført en fempunkts karakterskala fra A til D, som anvendes i evalueringerne af MISA 2002<br />
og NSJ 2002 (NSJ 02 og bilag 7).<br />
67 Dette skyldes blandt andet, at vores empiriske materiale kun omfatter dokumenter og interviews. En<br />
interessant og relevant analyse, som imidlertid ligger uden for dette speciales fokus, vil være at følge et<br />
eller flere projekter over tid for derigennem at få et indtryk af, om deres adfærd og selvforståelse<br />
påvirkes af evalueringer og reviews.<br />
146
den ene side medfører utryghed: selvet løber en risiko for ikke at blive socialt aner-<br />
kendt, og derfor sættes særligt de evaluerede aktørers identitet på en prøve, der ople-<br />
ves som ubehagelig. På den anden side er evaluering også en positiv kilde til stabili-<br />
sering af ens identitet, idet ”[e]valuering betyder, at der udvises interesse for en”<br />
(Dahler-Larsen 1998:126). Et mediebistandsprojekt kan således anvende et review<br />
eller en evaluering til at prøve sin egen identitetsdannelse og relationerne til omver-<br />
denen. Tvetydigheden kommer tydeligt til udtryk i dette uddrag fra et interview med<br />
en repræsentant for en af Danidas partnerorganisationer:<br />
Så derfor har det været… øh… har jeg set frem til de der evalueringer og<br />
reviews med en lille nervøsitet, fordi det er hele mig, jeg har givet alt, hvad jeg<br />
kunne, og alt hvad der er begrænsninger, det er mine begrænsninger som<br />
person, ikke. Men også meget, meget velkomment. (PO)<br />
Partneren beskriver sine følelser forud for reviews og evalueringer som en blanding<br />
af ”nervøsitet” og en glæden sig til vurderingen som noget ”velkomment”. Årsagen<br />
til de blandede følelser er, at partnerne oplever at blive vurderet personligt: ”det er<br />
hele mig”. Er vurderingen positiv, er den en anerkendelse af ens arbejdsindsats, men<br />
er den negativ, opleves den af partnerne som et personligt angreb. Partnernes reaktion<br />
på kritik kan derfor ofte være voldsom, hvilket illustreres i nedenstående udsagn,<br />
hvor en konsulent fortæller om sine erfaringer med at blive hængt personligt ud af en<br />
partnerorganisation, som var utilfreds med en evaluering, vedkommende havde<br />
udført:<br />
… da syntes de virkelig, jeg var skudt i låget, ikke altså. Helt klart. Altså, og i<br />
NGO-verdenen herhjemme bagefter, der gik de vildeste rygter om, hvor dårlig<br />
en konsulent, jeg var, ikke altså. Med folk, der sagde: ’Sig mig, er det dig, de<br />
snakker om, fordi de siger sådan og sådan’, ikke. (KS)<br />
Hvis partnerne ikke kan acceptere det mærkat, som hæftes på dem, afviser de det ved<br />
at rette skytset mod den eller de konsulenter, som har udført evalueringen eller<br />
reviewet, ofte ved at beskylde konsulenterne for uvidenhed. At konsulenten er<br />
ekstern – og derfor også ofte uvidende i udgangspunktet – gør det nemmere for de<br />
evaluerede aktører at afvise kritikken ved at afskrive konsulenten som ”en nørd”<br />
(PO), ”the Bitch” (KS) eller som en ’ond’ og ’dum’ person:<br />
Og det er nemt som ekstern konsulent at være den onde, ikke? Og så kan de<br />
alle sammen sige: ’Jamen, det var også bare hende, hun var rigtig dum! Og så<br />
gør vi alligevel ikke, som hun sagde.’ Det oplever jeg da. (KS)<br />
Men at en kritisk evaluering eller review i første omgang afvises af partnerne er ikke<br />
det samme som, at de ikke senere retter ind og tager den identitet på sig, som<br />
fremstilles i rapporten:<br />
… vi ser meget ofte, at en kritisk evaluering mødes med et aggressivt forsvar,<br />
som som regel går på, at evalueringen er dårlig, og metoderne har ikke været<br />
gode nok, og evaluatørerne har totalt misforstået det hele. Og så ser man<br />
alligevel et års tid eller halvandet efter, at så begynder folk alligevel gøre det,<br />
147
som evalueringen har anbefalet. Øh… de giver den nok ikke credit for det,<br />
men… men det er sevet ind alligevel. (<strong>OG</strong>)<br />
Hvad enten en partner udsættes for ros eller kritik, sættes dennes identitet på en prøve<br />
i henhold til de roller og identitetsmuligheder, der er udstukket i den konkrete<br />
evaluerings- eller reviewramme (Dahler-Larsen 1998:128). Vores påstand er altså, at<br />
ingen mediebistandsindsats forbliver uændret gennem en review- eller evaluerings-<br />
proces. Netop derfor finder vi det problematisk, at projekterne overvejende evalueres<br />
og reviewes på outputniveau og fra en donorvinkel, og i den forbindelse er det<br />
interessant at diskutere, hvad der skal til for at udvide evalueringernes og reviewenes<br />
perspektiver.<br />
11.4. Hvorfor fokus på output?<br />
Denne diskussion vil vi nærme os ved at undersøge hvilke årsager, der ligger bag det<br />
primære fokus på outputs, og vi gennemgår tre faktorer, som efter vores vurdering<br />
udgør de vigtigste forklaringer herpå. Det drejer sig først og fremmest om fraværet af<br />
et indikatorværktøj – en problemstilling, der behandles i underafsnit 11.4.1.. Dernæst<br />
belyses de urealistiske kommissorier nærmere i 11.4.2., hvorefter vi i 11.4.3.<br />
beskæftiger os med manglen på tid under feltstudierne.<br />
11.4.1. Fraværet af et indikatorværktøj<br />
Som det tydeligt fremgår af de analyserede review- og evalueringsrapporter, har<br />
konsulenterne vanskeligt ved at imødekomme kommissoriernes krav om vurderinger<br />
på outcome- og impactniveau. Hvor det er relativt simpelt at estimere omfanget af<br />
gennemførte kurser for journalister, antal publicerede magasiner og andre output-<br />
størrelser, så kræver det et mere omfattende metodisk og analytisk apparat at vurdere<br />
indsatsen ud fra et målgruppe- og et samfundsperspektiv. Dette metodiske og<br />
analytiske apparat er fraværende, eller i hvert fald vanskeligt for konsulenterne at<br />
operationalisere på den korte tid, de har i felten. Manglen på et værktøj til analyse af<br />
indikatorer på et outcome- og et impactniveau betyder, at konsulentholdene i vid<br />
udstrækning selv må udvikle relevante indikatorer i situationen:<br />
- Hvis du kan uddybe det der med, hvorfor det kan være svært at være<br />
objektiv?<br />
(…) Der mangler måske også målemetoder. Der mangler et eller andet til at<br />
komme ud at sige: ’Jamen, hvad er det egentlig vi måler efter?’ Hvornår er det<br />
en succes? (KS)<br />
I det følgende ser vi nærmere på barriererne for at vurdere impact og outcome på<br />
tilfredsstillende vis under feltstudierne.<br />
11.4.1.1. Værktøjer til vurdering af impact<br />
En væsentlig barriere for at måle impact (virkning og relevans) af en mediebistands-<br />
indsats er, at medierne indgår i et helt kompleks af faktorer, som påvirker samfunds-<br />
148
udviklingen. De er med en konsulents ord ”en nødvendig, men absolut ikke<br />
tilstrækkelig betingelse, i hele den der komplicerede årsagssammenhæng” (KS),<br />
hvorfor det ikke giver mening at tildele medierne alene æren for såvel demokratiske<br />
som ikke-demokratiske samfundstendenser. Et andet analytisk problem opstår, når<br />
man vil isolere netop den danske mediebistand, der i dette udsagn beskrives som en<br />
række ”miniinvesteringer”:<br />
Hvordan måler du? Hvordan (utydeligt) på medier, ikke. Fordi du snakker øh,<br />
ja du snakker fri presse, du snakker ytringsfrihed, du snakker (P2) altså, du<br />
snakker om effekter på et niveau, hvor du eh, hvor det er så politiseret, at du vil<br />
jo aldrig kunne sige, i hvor høj grad det er projektet, der har bidraget til et eller<br />
andet. Hvis du snakker om effekt. (…) Og specielt, når man ser på de… de<br />
miniinvesteringer, i virkeligheden, som Danida laver på medieområdet, hvad<br />
kan man så i det hele taget forvente, at der kommer ud af det, ikke? (KS)<br />
Begge disse udsagn er uddrag fra interviews med konsulenter. Men de analytiske<br />
barrierer for at måle mediebistandens virkning er også erkendt i Danida. Denne<br />
Danidamedarbejder kalder ligefrem sammenhængen mellem medier og demokrati for<br />
et ’postulat’, som det er umuligt at påvise:<br />
… jeg tror ikke, man kan påvise, at støtte til medier og demokratisering øh<br />
nødvendigvis er godt, altså, det tror jeg er vanskeligt at påpege, det tror jeg<br />
bliver meget postulerende. Øh, og også effekten på øh, på økonomisk udvikling<br />
og demokratiudvikling, bliver støttet af medierne, den tror jeg også er meget,<br />
meget postuleret. Jeg tror ikke, man kan (utydeligt). Men… så derfor lader vi<br />
den ligge. (Griner) (<strong>OG</strong>)<br />
Den citerede medarbejder afslutter her med vendingen ”så derfor lader vi den ligge”<br />
med henvisning til ønsket om at vurdere mediernes effekt på samfundsudviklingen.<br />
Det er imidlertid ikke korrekt, at Danida ikke beskæftiger sig med impact, hvilket<br />
tydeligt fremgår af den ovenfor præsenterede dokumentanalyse, hvor vi har vist, at<br />
der i hele seks af de i alt otte kommissorier stilles krav om, at konsulentholdene skal<br />
forholde sig mediebistandens virkning. Et tilsvarende antal kommissorier forventer<br />
en analyse af mediebistandens relevans i forhold til samfundsudviklingen. Det<br />
forekommer paradoksalt, at der i Danida på den ene side er en bevidsthed om de<br />
analytiske problemer forbundet med en impact-analyse og at man på den anden side<br />
stiller krav netop herom.<br />
11.4.1.2. Værktøjer til vurdering af outcome<br />
For outcomevurderingers vedkommende gør der sig ikke de samme analytiske<br />
problemer gældende, som tilfældet er i forbindelse med impact. De konsulenter, vi<br />
har interviewet, foreslår metoder såsom kvantitative og kvalitative modtagerunder-<br />
søgelser, tilfredshedsundersøgelser blandt tidligere kursister og disses nuværende<br />
arbejdsgivere – blandt andet. Her er problemet altså ikke mangel på metoder og<br />
indikatorer, hvormed effektivitet og bæredygtighed kan identificeres. Snarere er<br />
problemet af praktisk og ressourcemæssig karakter:<br />
149
Det var enormt svært (…) at se: Jamen, det vi støtter på universitetet, de her<br />
unge mennesker, der lærer at lave radio, bliver de så reelt… Altså, får de et job<br />
bagefter? Bruger de der, de har lært? Er der nogen mulighed for det? Er der<br />
mulighed for kritisk journalistik, hvis de har lært det, er det så overhovedet<br />
muligt, eller… eller bare… må de bare gøre, som der bliver sagt? Det… der<br />
skal man være der længere, ikke? Og snakke noget mere med nogle andre<br />
aktører, tror jeg. (KS)<br />
Metoderne til at vurdere effektiviteten af mediebistanden er således til stede.<br />
Spørgsmålet er, om Danida er villig til at stille de fornødne ressourcer til rådighed,<br />
sådan at konsulenterne rent faktisk får mulighed for at opfylde det krav om<br />
effektivitetsvurdering, som stilles i samtlige af de analyserede kommissorier.<br />
11.4.1.3. Udviklingen af indikatorer<br />
De interviewede konsulenter og rådgivere har alle gerne villet tale (længe) om<br />
indikatorer. Alle giver udtryk for, at det er svært, men også nødvendigt at udvikle et<br />
operationelt indikatorværktøj til vurdering af mediebistandens outcomes. Dels fordi<br />
flere finder, at det er ”hovedløst” og ”ikke seriøst” at udføre evalueringer og reviews<br />
under de gældende vilkår, hvor konsulenterne i vidt omfang ser sig nødsaget til at<br />
omfortolke, omgå eller helt undgå de krav, som stilles i kommissorierne om at<br />
foretage vurderinger på et outcome- og impactniveau:<br />
… det er for kort tid, ikke? Du bliver sendt ud i… ti-tolv dage eller sådan et<br />
eller andet med et program, der er fuldstændig spækket (…) Så det vil sige, at<br />
du går fra det ene interview til det andet interview fuldstændig hovedløst, synes<br />
jeg, ikke? (…) Altså, interviews de varer jo typisk en time til halvanden eller<br />
sådan noget. Så går du ind og interviewer én person på en radiostation, og efter<br />
halvanden time skal du være i stand til at vurdere, om den støtte man giver til<br />
den radiostation virker. Altså: har det nogen effekt? Ja, direktøren lød vældig<br />
tilfreds, ikke? (fnyser) Det… Det mener jeg ikke er seriøst i virkeligheden.<br />
(KS)<br />
Dels efterlyser konsulenterne udviklingen af et indikatorværktøj, fordi de mener, det<br />
vil kvalificere mediebistandsindsatsen:<br />
Og de der ting ville jo være spændende at have med, fordi jeg tror man kunne<br />
kvalificere konklusionerne og anbefalingerne bedre, hvis man havde nogle lidt<br />
dyberegående studier og øh… (P1)… med i reviewet. (KS)<br />
Perspektiverne for udviklingen af et sådant værktøj ser dog ikke umiddelbart lyse ud.<br />
Som vi nævnte i kapitel 7.1.5. beskæftiger Danida sig af princip ikke med metode-<br />
udvikling – denne opgave mener de, påhviler de konsulenter, som byder på en<br />
opgave. Disse har til gengæld ikke den fornødne tid til at udvikle et værktøj på eget<br />
initiativ, og de oplever heller ikke, at Danida er villig til at betale dem for at gøre det:<br />
Ja, det kræver, at man stort set har én, som næsten følger full time, altså følger<br />
med de her briller på. Og jeg har jo ikke… altså jeg kan jo ikke… jeg har jo<br />
ikke tid til at sætte mig ned og skrive de her ting, selvom det kunne være<br />
interessant. (KS)<br />
150
11.4.1.4. Opsummering<br />
Både konsulenter og Danida giver udtryk for, at mediebistandens virkning på demo-<br />
krati og menneskerettigheder er et væsentligt og interessant område at afdække og<br />
vurdere. Der er imidlertid store analytiske problemer forbundet med at skulle fore-<br />
tage en sådan vurdering, specielt i forbindelse med en relativt kortvarig evaluerings-<br />
eller reviewproces. Vi mener derfor, at Danida, frem for at stille krav om impact-<br />
målinger, burde koncentrere sig om udviklingen af indikatorer på et outcomeniveau.<br />
Metoderne hertil er kendte og veludviklede, udviklingen af et decideret indikator-<br />
værktøj er alene et spørgsmål om ressourcer og prioritering.<br />
11.4.2. Urealistiske kommissorier<br />
Vi har nu set, at fraværet af et indikatorværktøj og de problemer, som er forbundet<br />
hermed, er erkendt blandt såvel Danidas ansatte som konsulenterne. Alligevel stiller<br />
kommissorierne krav om impact- og outcomemålinger. Dahler-Larsen peger på, at<br />
gennemsnitslængden på et evalueringskommissorium i Danida er steget fra to sider i<br />
1970’erne til seks-otte sider i dag (Dahler-Larsen 1998:88). Til sammenligning er de<br />
kommissorier (både reviews og evalueringer), som indgår i vores empiri, i gennem-<br />
snit knap seks sider lange. Omfanget afspejler kommissoriernes høje ambitions-<br />
niveau, som delvist kan tilskrives en forretningsmæssig logik: som køber af en<br />
konsulentydelse vil Danida gerne have så meget for pengene som muligt og stiller<br />
derfor omfattende krav. Den primære årsag, mener Dahler-Larsen imidlertid, er<br />
Danidas ønske om at signalere grundighed og loyalitet overfor organisationens<br />
værdigrundlag. Kommissorier spiller således ikke blot en rolle som arbejdskontrakter<br />
men også som signal overfor Danidas interessenter:<br />
I nogle tilfælde er listen over evalueringskriterier i sig selv et officielt<br />
dokument, der skal give organisationen legitimitet. I så fald vil listen over<br />
kriterier blive meget omfattende (…) En sådan liste over evalueringskriterier<br />
har måske som sin fornemste funktion at signalere organisationens bekendelse<br />
til værdikataloget over for de mange interessenter i organisationens normative<br />
omgivelser. Men det kan medføre, at det bliver ganske vanskeligt at<br />
gennemføre en evaluering alene af kapacitetsgrunde. (Dahler-Larsen 1998:88)<br />
Evalueringskommissorierne har – i kraft af deres status som offentlige dokumenter –<br />
det vi tidligere med Dahler-Larsens betegnelse har kaldt en symbolsk funktion (se<br />
afsnit 7.1.7. & Dahler-Larsen 1998:131). Dermed menes, at de dels anvendes som et<br />
redskab til at kommunikere om Danida overfor organisationens omverden, og dels<br />
har en autokommunikativ funktion. Det vil sige, at Danida via evalueringskommis-<br />
sorierne kommunikerer om sig selv til sig selv (Dahler-Larsen 1998:132).<br />
Et eksempel på et sådant ’symbolsk kommissorium’ er opdraget til evalueringen af<br />
Danidas støtte til fremme af en fri presse 1990-1998 (Danida 2000A:52ff). Kommis-<br />
soriet lægger op til, at evalueringsholdet skal forholde sig kritisk til de grundlæggen-<br />
de antagelser bag mediebistanden:<br />
151
The study should, as much as possible, critically examine the premises and<br />
objectives for Danish assistance to free and objective information. (Danida<br />
2000A:52, vus.)<br />
Med denne erklæring, signalerer Danida, at organisationen er villig til at indgå i en<br />
selvkritisk, dobbeltsløjfet læringsproces. Derefter oplister kommissoriet 22 emner,<br />
som evalueringsholdet skal forholde sig til, men dog ikke behøver at lade sig begræn-<br />
se af (Danida 2000A:52)! Som et eksempel på omfanget af de i alt 22 spørgsmål,<br />
gengiver vi her ét af dem, som i sig selv rummer adskillige underspørgsmål:<br />
What are the common factors to successful activities: political context,<br />
implementing partners, external advisors/observers etc. and similarly: what<br />
were the common factors to successful activities? Are certain combinations of<br />
activities better than other? What were the strengths/weaknesses, opportunities/<br />
achievements, threats/obstacles (SWOT-analysis)? (Danida 2000A:54)<br />
Det er vores vurdering, at hvert af de i alt 22 emner er omfangsrige og vanskelige nok<br />
til at danne afsæt for et helt speciale, og at man for at besvare samtlige spørgsmål<br />
fyldestgørende skal bruge væsentligt mere tid end de i alt 22 arbejdsuger, som<br />
evalueringsholdet blev aflønnet for (bilag 4I). At en af hensigterne med at stille alle<br />
disse spørgsmål er at tegne et bestemt billede af Danida, kommer blandt andet til<br />
udtryk i nedenstående formulering. Her er sætningen formuleret så ledende, at det<br />
snarere synes som en konstatering end som et spørgsmål:<br />
Does Denmark, as a small country without an explicit security agenda of its<br />
own, have an advantage over other donors when it comes to financing projects<br />
promoting free and objective information, often politically sensitive? (Danida<br />
2000A:54)<br />
Tilsvarende signalerer Danida med formuleringen af det følgende spørgsmål, at<br />
organisationen er interesseret i at indgå i symmetriske partnerskabsrelationer med<br />
projektorganisationerne, idet der sættes fokus på, i hvilken grad bistandsaktiviteterne<br />
anerkender partnerlandets særkender:<br />
How far does the assistance acknowledge that prevailing values and priorities<br />
in the partner countries may be different from those guiding Danida’s<br />
decisions? (Danida 2000A:53)<br />
Hvorvidt mediebistanden rent faktisk implementeres under hensyntagen til partner-<br />
landets prioriteringer, eller om Danmarks daværende forsvarspolitiske linie gav<br />
Danida komparative fordele som donor af mediebistand, behandles – ligesom den<br />
ønskede SWOT-analyse – ikke i evalueringsrapporten. Det lader således ikke til, at<br />
kommissoriets primære funktion har været at fungere som opdrag og retningslinier<br />
for evalueringsholdet.<br />
11.4.2.1. Kunden har altid ret…<br />
Den generelle evaluering fra 1999/2000 underbygger den påstand, Dahler-Larsen<br />
fremsætter i citatet på den foregående side: Tendensen til at inkludere en lang række<br />
152
kriterier i kommissoriet medfører et misforhold mellem på den ene side de økono-<br />
miske og tidsmæssige ressourcer, der står til rådighed for evalueringen, og på den<br />
anden side omfanget af krav, som opdragsgiveren stiller i kommissoriet. Det stiller<br />
konsulenterne i en vanskelig situation, hvor de på den ene side godt kan se misfor-<br />
holdet, men samtidig ikke ønsker at påpege det af frygt for ikke at få opgaven.<br />
Konsekvensen er, at konsulenterne enten må gå på kompromis med deres egen<br />
indtjening eller med kvaliteten af opgaveudførelsen:<br />
Man diskuterer tiden … meget. Øhh… fordi nogle gange synes vi jo, at vi får<br />
for lidt tid til at lave tingene. Øhmm… at der ligesom er en… en… hvad skal<br />
jeg sige… en fast (P2) øh… formula for, hvor meget tid, man må bruge til<br />
forberedelser og til udetid og til rapportskrivningen. Og så må vi jo så forsøge<br />
at holde os inde for den tid, men det kan vi aldrig altså. Det er vanskeligt.<br />
- Går det så ud over kvaliteten, hvis man skulle holde sig inden for/<br />
Det gør det jo ikke, fordi at vi… altså (griner) … vi er jo alle sammen indstillet<br />
på, at vi jo gerne vil levere et så godt stykke arbejde som muligt, og det har jo<br />
også noget at gøre med, at vores troværdighed er på spil, ikke? Så det kommer<br />
ikke til at gå ud over kvaliteten. Det kommer bare til at gå ud over vores<br />
egen… (griner). Vores egen… vores egen tid, ikke? (KS)<br />
Som det fremgår af citatet, er konsulenterne splittede mellem på den ene side at<br />
imødekomme de krav om grundighed, som dels stilles af opdragsgiveren og dels<br />
følger af deres egen faglige stolthed, og på den anden side at drive en økonomisk<br />
fornuftig virksomhed. Ifølge den citerede konsulent betyder den faglige stolthed og<br />
den økonomiske afhængighed af Danida, at vedkommende søger at undgå at sætte<br />
kvaliteten på spil – på bekostning af egen timeløn og overarbejde.<br />
Alt i alt falder misforholdet mellem evalueringsopgavens omfang og de til rådighed<br />
stående ressourcer ud til Danidas fordel, idet organisationen opnår det mål, som en<br />
hver kunde har i en forretningsmæssig relation: at få en kvalitetsvare til en billig<br />
penge. For Danida er der dog også ulemper forbundet med formuleringen af de<br />
ambitiøse kommissorier.<br />
11.4.2.3. Urealistiske kommissorier som en spændetrøje<br />
De omfattende, men urealistiske kommissorier opleves nemlig af konsulenterne som<br />
en begrænsning, der forhindrer dem i at forfølge interessante pointer og bidrage til<br />
udviklingen af indikatorer. De følgende to citater er to interviewede konsulenters<br />
reaktion på en påstand om, at de fem evalueringskriterier udgør en spændetrøje, som<br />
trækker fokus væk fra reelle effekter og utilsigtede virkninger af bistanden 68 :<br />
68 Konsulenterne blev præsenteret for et uddrag fra udredningen af Danidas evalueringsfunktion, hvor en<br />
tidligere team leader for en Danidaevaluering er citeret for følgende: ”Retningslinierne er i et vist<br />
omfang en spændetrøje. Man skal fokusere på effektivitet, målopfyldelse, effekt, relevans og<br />
bæredygtighed. Disse fem kriterier skulle tilsammen give vigtige oplysninger og spor, så man kan stille<br />
den rigtige diagnose. Men det er min erfaring, at hvis man fokuserer på disse kriterier, kan man blive<br />
trukket væk fra virkeligheden. Det sker alt for ofte, at udviklingsbistandens samfundspolitiske<br />
153
Jamen, det er jeg enig i. Øh… at i og med at du har nogle ret faste rammer gør,<br />
at du måske… og specielt når du ikke har så meget tid… øh… lukker øjnene<br />
for virkeligheden. Og jeg synes, det er helt rigtigt, det der står her. At øh… at<br />
man øh… Der er nogle ting, som øh… som man ikke lader komme ind i en<br />
relevant sammenhæng her, fordi at det ikke står i Terms of Reference. (KS)<br />
Fuldstændigt. Fordi der netop alle de der ting, man skal svare på, og det er så<br />
det du bruger din tid på og fortaber dig i. Det er fuldstændigt rigtigt. (KS)<br />
Vi vil på denne baggrund opsummere, at Danida ville få mere ud af sine evaluerings-<br />
og reviewopgaver, hvis kommissorierne blev formuleret på en måde, så de gav et<br />
realistisk opdrag med konkrete anvisninger til indikatoranvendelse.<br />
11.4.3. Manglende tid under feltstudier<br />
En tredje faktor, der sammen med de ambitiøse kommissorier og fraværet af et<br />
indikatorværktøj udgør en barriere for konsulenternes mulighed for at vurdere medie-<br />
bistandens effektivitet og virkning, er den tidsknaphed, der som oftest præger felt-<br />
studierne. Det ville i den forbindelse være nemt for os at anbefale Danida at afsætte<br />
flere penge til evalueringer og reviews, men en sådan anbefaling ville være vanskelig<br />
for Danida at imødekomme. For det første fordi udviklingsbistanden generelt er ramt<br />
af nedskæringer, og for det andet fordi det kan være svært at legitimere at bruge for<br />
mange ressourcer på evalueringsaktiviteter frem for på egentlig bistand. Vi vil derfor<br />
se nærmere på, hvordan Danida og konsulenterne kan anvende de forhåndenværende<br />
ressourcer bedre, sådan at der afsættes mere tid til feltstudier inden for de enkelte<br />
evaluerings- og reviewforløb.<br />
11.4.3.1. Omfattende dokumentstudier<br />
Den empiriske analyse peger på, at dokumentstudierne har tendens til at gribe om sig<br />
og kræve mere tid, end både konsulenterne og opdragsgiveren havde forudset. Der er<br />
tre indbyrdes forbundne årsager hertil, som vi gennemgå i det følgende.<br />
Behov for overblik<br />
I afsnit 7.1.5. gennemgik vi procedurerne for udførelse af reviews og evalueringer.<br />
En del af denne gennemgang var en oversigt over de dokumenter, som er obligato-<br />
riske i forbindelse med forberedelse, implementering og afslutning af et projekt.<br />
Foruden evalueringer og reviews er der tale om syv obligatoriske dokumenttyper,<br />
som hverken donor, partner eller konsulent har et grundigt overblik over forud for en<br />
evaluering eller et review. Overblikket er imidlertid nødvendigt, dels for Danida, som<br />
skal kunne imødekomme krav om ansvarliggørelse og gennemsigtighed i administra-<br />
tionen, og dels for konsulenterne, som grundet uafhængighedskravet ofte ikke har<br />
nogen forhåndsviden om projektet. Desuden tilkendegiver flere af de interviewede<br />
partnere, at de selv har nytte af at få et overblik over deres aktiviteter.<br />
sammenhæng ikke analyseres tilstrækkeligt. Det gælder den reelle effekt og også utilsigtede virkninger<br />
af bistanden.” (Evaluator, Udredning af Danidas Evalueringsfunktion, Danida 2003)<br />
154
Venstrehåndsarbejde<br />
Arbejdet med at skabe overblik kompliceres af, at store dele af dokumentationen ofte<br />
har en ringe standard, hvilket skyldes, at såvel partnerne som ambassaderne priori-<br />
terer dokumentationsopgaven lavt. Den løbende afrapportering fra partnerne til<br />
ambassaden betragtes af flere partnere som en omstændelig administrativ byrde, som<br />
de kun nødtvungent tager sig tid til:<br />
[Den skriftlige afrapportering] kunne godt have været mere systematisk, og det<br />
er måske en kombination af… af, hvad skal man sige, at der var sådan en tæt<br />
mundtlig kommunikation om det, og så at øh… jeg heller ikke afleverer flere<br />
rapporter, end jeg er pisket til (griner). (…) Men selvfølgelig er der krav om en<br />
vis form for afrapportering, og man kan nok sige, at der er nogle af de her<br />
projekter, der ikke har været dokumenteret helt efter Danida-bogen. Det vil jeg<br />
godt indrømme. (PO)<br />
Dertil kommer, at det ikke er alle projektorganisationer, der – trods Danidas anvis-<br />
ninger og faste formater – afrapporterer efter Danidas standarder. Eksempelvis kan<br />
det være vanskeligt for et projekt at forstå nødvendigheden af en skarp skelnen<br />
mellem forskellige projektfaser, eller af at udgifter til samme aktiviteter skal bogføres<br />
under forskellige regnskabsår:<br />
… de har været elendige til at lave en rapportering, altså (…). Og, og det<br />
betyder noget for donorerne, og det må jeg også sige, at det er røvirriterende at<br />
skulle læse et eller andet dokument, som simpelthen er rodet og man må sige,<br />
at øh, ’hvorfor, hvorfor rapporterer I ikke på det, I skal?’ (<strong>OG</strong>)<br />
Godkendelse af den løbende projektrapportering og udarbejdelse af eksempelvis<br />
Project Documents og Project Completion Reports (PCR) anses heller ikke for de<br />
mest prestigefyldte eller interessante opgaver på Danidas ambassader. Som følge<br />
heraf udarbejdes disse dokumenter ofte af den yngste, mest uerfarne ambassade-<br />
medarbejder:<br />
Når der skal laves en PCR, så er det altid yngste medarbejder på ambassaden<br />
som skal lave det, og vedkommende aner ikke en brik om, hvad der er sket de<br />
foregående fem år, så det er sådan en opsummering af, hvad der står i<br />
papirerne. (<strong>OG</strong>)<br />
Fagkulturelle forklaringsfaktorer<br />
Hvor de ovennævnte årsager til det øgede tidsforbrug i dokumentstudiefasen foku-<br />
serer på særlige egenskaber ved dokumenterne, vil vi i dette afsnit se nærmere på en<br />
forklaringsfaktor, som er uafhængig heraf – nemlig konsulenternes fagkultur. Doku-<br />
mentstudiet ligner på mange måder en traditionel akademisk opgave, hvor man skal<br />
strukturere og fortolke store tekstmængder. Det gør, at konsulenterne føler sig trygge<br />
ved denne arbejdsform i modsætning til feltstudiet, som ofte er behæftet med flere<br />
ubekendte faktorer. Den danske evalueringsforsker, Peter Dahler-Larsen, udtrykker<br />
konsulenternes tilbøjelighed til at foretrække arbejdet med allerede indsamlet og<br />
bekræftet data således:<br />
155
Som evaluatorer har man jo en forkærlighed for den viden, der er<br />
gennemskuelig. Evaluering er jo ifølge sin definition en systematisk (dvs.<br />
efterprøvbar) oparbejdning af viden. (Dahler-Larsen 1998:22)<br />
Hans påstand underbygges af en af de interviewede evaluatorer, som oplever, at der<br />
blandt konsulenterne findes en ”plejerkultur”, som dikterer en række formkrav til<br />
evalueringsarbejdet:<br />
Og så er det enormt svært at slippe ud af modus vivendi, når du så starter. (…)<br />
Altså, du sidder med de der mange, mange reviews, der er lavet, og der står<br />
vanvittigt meget tekst. (…) Der er en akademisk øvelse i det også, hvor man<br />
forventes at læse alle de her mange ting og så på en måde lave et sammenkog –<br />
for 10.000. gang – på situationen. Og det synes jeg… at der døde noget af<br />
ideen, fordi der er alligevel mange formkrav, fordi det er man vant til, og sådan<br />
gør man og plejer, ikke? Altså, der er en plejerkultur omkring, hvordan man<br />
egentlig gerne vil have, at sådan en skal se ud, sådan en rapport, ikke. Som<br />
egentlig… Det var svært, altså… Så det var det tiden så blev brugt på i<br />
virkeligheden frem for sådan at få samlet læringspunkter op. (KS)<br />
Tilsammen betyder mængden af dokumenter, disses svingende kvalitet og konsulen-<br />
ternes grundighed, at dokumentstudierne ofte trækker i langdrag på bekostning af<br />
ressourcer til feltstudier. Et forhold, som afføder skuffelse blandt alle tre praksisfæl-<br />
lesskaber.<br />
11.4.3.2. Skuffelse<br />
Både partnere, konsulenter og opdragsgiver giver udtryk for et ønske om at prioritere<br />
tiden til feltstudier frem for til dokumentstudier. Konsulenternes ønske baserer sig på<br />
deres idealer om participatorisk læring, partnernes på deres interesse i en så høj grad<br />
af inddragelse og medindflydelse som muligt, mens donoren giver udtryk for at prio-<br />
ritere feltstudier med baggrund i kontroldiskursens objektivitetskriterium: Det er<br />
bedre at konsulenten anvender tiden på at indsamle nye informationer ’ude i virkelig-<br />
heden’ end på at fortolke allerede indsamlet viden. Når tidsforbruget til dokument-<br />
studierne overskrider planerne, oplever aktørerne derfor, at de allerede i første del af<br />
udførelsen må gå på kompromis med de ambitiøse målsætninger i kommissorierne<br />
om eksempelvis anvendelse af participatoriske metoder og tilvejebringelse af ny<br />
information:<br />
Ja, det blev meget et kompromis, faktisk. Og meget sådan, at man skulle leve<br />
op til alle de der dokumentationsting. (…) Men hvad er det for noget læring,<br />
man kunne trække ud af det som sådan nogle læringspunkter, det synes jeg fik<br />
for lidt fokus. Der var for lidt tid til det, da vi endelig var færdige med alle de<br />
der desk study og field study og alt muligt. Så var der ikke… Så var der slet<br />
ikke tid tilbage, til det andet, ikke? (KS)<br />
På den ene side giver Danida udtryk for, at tidsforbruget i dokumentstudiefasen er<br />
konsulenternes eget problem og ansvar: ”Det er så et valg, som konsulenten selv<br />
træffer, hvor meget de vil basere sig på meget dokumentation” (<strong>OG</strong>). På den anden<br />
side kan organisationen ikke kan fralægge sig et vist medansvar for, at dokument-<br />
studierne griber om sig.<br />
156
At uafhængighedsprincippet er styrende for udvælgelsen af evalueringshold med-<br />
fører, at konsulenterne mangler forhåndskendskab til og overblik over medieområdet<br />
og/eller de pågældende projekter. Dertil kommer, at Danida ved at stille store mæng-<br />
der relativt rodet dokumentation til rådighed bærer ved til konsulenternes fagkultur,<br />
som dikterer akademisk grundighed i dokumentstudiefasen. Vil man komme skuffel-<br />
sen over det forhøjede tidsforbrug i dokumentstudiefasen til livs, kræver det således<br />
en indsats fra Danidas side for at skabe overblik og orden i dokumentationen forud<br />
for inddragelsen af eksterne konsulenter. Dette ville dels frigøre flere ressourcer og<br />
mere tid til feltstudier og dels ville det yde ’ikke-kompetente’ partnere større retfær-<br />
dighed:<br />
11.4.3.3. Den gode partner er kompetent<br />
En utilsigtet konsekvens af det store tidsforbrug på dokumentstudierne er nemlig, at<br />
et vigtigt parameter i konsulenternes vurdering af ’den gode partner’ bliver, hvorvidt<br />
denne er ’kompetent’ og formår at udarbejde overskuelig dokumentation efter<br />
Danidas formater. I seks af de i alt otte rapporter vurderer konsulenterne blandt andet<br />
projektorganisationerne på grundlag af deres dokumentationspraksis (bilag 4I). Dette<br />
eksemplificeres i de tre nedenstående rapportuddrag, hvor de reviewede/evaluerede<br />
projekter roses for at være veldokumenterede:<br />
The overall conclusion is that in most of the cases studied, the Danish media<br />
projects have been well planned and monitored. (Danida 2000A:40)<br />
MISA has been recognised (…) as a highly professional organisation both in its<br />
activities, reporting and accountability mechanisms (MISA 01/02:62)<br />
Reporting has improved tremendously from what it was during the last review.<br />
(MISA 04:9)<br />
Dokumentationskompetencer er et vurderingsparameter, der – set udefra – forekom-<br />
mer relativt uinteressant i forhold til spørgsmål om mediebistandens effekter på<br />
output-, outcome- og impactniveau. For de eksterne konsulenter og for de enheder i<br />
Danida, som varetager opdragsgiverfunktioner (EK og de bevilgende enheder), er<br />
dårlig dokumentation imidlertid et stort irritationsmoment. Derfor får dokumenta-<br />
tionskompetencer en forholdsmæssig stor indflydelse på konsulenternes vurdering af<br />
’den gode mediebistandspartner’:<br />
For konsulenterne de siger ’jamen hvorfor i alverden bliver I ved med at<br />
arbejde med [[en bestemt partner på mediebistandsfeltet]]? De kan ikke skrive<br />
deres rapporter, de kan ikke aflægge regnskaber, der sker jo ikke en skid’ og<br />
sådan noget. (<strong>OG</strong>)<br />
Konsekvensen er, at ’kompetente’ partnerorganisationer har større chance for at blive<br />
inddraget og blive taget alvorligt end organisationer med rod i dokumenterne, som<br />
157
isikerer at blive genstand for en forudindtaget, negativ vurdering, uanset aktivitetens<br />
indhold i øvrigt.<br />
11.4.4. Opsummering<br />
Der er nu fremdraget tre delforklaringer på, hvorfor de analyserede evaluerings- og<br />
reviewrapporter tager udgangspunkt i outputvurderinger, donors prioriteringer og<br />
normative forestillinger om mediernes rolle i deres bedømmelser af Danidas medie-<br />
bistandsindsats. Hovedforklaringen er fraværet af et operationelt indikatorværktøj,<br />
som giver konsulenterne reel mulighed for at indsamle og vurdere relevante data. I<br />
forhold til vurdering af mediebistandens virkning gør der sig en række analytiske<br />
barrierer gældende, som især handler om at kunne identificere mediernes effekt på<br />
demokratiet og dernæst at isolere den danske mediebistands effekt. Vi vurderer<br />
derfor ikke, at kommissoriernes krav om vurdering af effekterne på et impactniveau<br />
umiddelbart er mulige at imødekomme.<br />
Derimod findes der inden for både evalueringsdisciplinen og medievidenskaben<br />
veludviklede metoder til at vurdere mediebistandens effektivitet og disse effekters<br />
bæredygtighed på et outcomeniveau. Det drejer sig blandt andet om receptions-<br />
analyse, mediesystemanalyse, komparative tekstanalyser samt bruger- og aftager-<br />
evaluering af uddannelsesindsatsen (Berger 1991). Review- og evalueringsholdene<br />
har imidlertid ikke mulighed for at udføre disse outcomestudier i løbet af den korte<br />
tid, de har til deres rådighed.<br />
Konsekvensen bliver, som vi har set, at mediebistandsindsatsen ikke vurderes i<br />
forhold til dens effekter på målgruppen og medielandskabet i et givent samfund, eller<br />
i forhold til om partnerne og målgruppen finder indsatsen relevant. Den gode medie-<br />
bistandsindsats, som denne fremstilles i rapporterne, resulterer dermed ikke nødven-<br />
digvis i bedre journalister, mere demokratisk bevidste borgere, eller i et mere plura-<br />
listisk mediebillede. I stedet bedømmes indsatsen på baggrund af projektorganisa-<br />
tionernes evne til at opfylde Danidas krav om opfyldelse af outputmål, prioriteringer<br />
og aflevering af veludført projektdokumentation. Disse vurderingsparametre er<br />
interessante, hvis man anskuer mediebistanden i en snæver ansvarliggørelsesoptik,<br />
men i et mere langsigtet perspektiv og med partnernes, de implementeringsansvar-<br />
liges og de danske skatteyderes interesser i mediebistanden in mente må man antage,<br />
at de er mindre interessante at fokusere på.<br />
Vi vil derfor anbefale Danida at afsætte ressourcer til egentlige outcomemålinger.<br />
Disse skal ikke nødvendigvis foretages med samme intervaller som reviews eller af<br />
alle projekter. Men ved at foretage enkelte systematiske studier af eksempelvis<br />
støtten til lokalradioer eller af uddannelsesindsatsen over for journalister mener vi, at<br />
158
den danske mediebistand kunne kvalificeres betydeligt. I kapitel 13 opsamler og<br />
supplerer vi anbefalingerne til Danida.<br />
159
12. Kontrol, læring og magt<br />
Vi har i det foregående kapitel fokuseret på, hvordan evaluerings- og reviewrappor-<br />
terne fremstiller den gode mediebistandsindsats. I den forbindelse berørte vi kort,<br />
hvorvidt den sproglige konstruktion af mediebistanden sætter sig igennem i egentlige<br />
organisatoriske forandringer – eksempelvis i form af indikatorfiksering og justering<br />
af projekter. Et analytisk spørgsmål, som rejser sig i den forbindelse, er, hvordan man<br />
undersøger de konkrete organisatoriske konsekvenser af en evaluering eller et review.<br />
Dette er problematisk af to årsager. For det første er opfølgningen tidsforskudt i<br />
forhold til gennemførelsen af vurderingen:<br />
Og så ser man alligevel et års tid eller halvandet efter, at så begynder folk<br />
alligevel at gøre det, som evalueringen har anbefalet. (<strong>OG</strong>)<br />
For det andet bærer evalueringer og reviews sjældent alene ansvaret for beslutninger<br />
og justeringer, hvorfor det er vanskeligt at isolere disse som årsager til<br />
organisatoriske forandringer:<br />
Evaluation is just an input to action decisions and rarely the only one. (Scriven<br />
1996:153)<br />
Vi vil derfor afholde os fra at gisne om sammenhængen mellem evalueringer/reviews<br />
og konkrete justeringer af mediebistandsindsatsen. Derimod kan vi undersøge part-<br />
nernes og Danidas motivation for at ændre deres adfærd som følge af en bedømmel-<br />
sesaktivitet samt de faktorer, som påvirker denne motivation. At analysens fokus<br />
ligger på motivation, skyldes det anlagte perspektiv på evalueringer og reviews som<br />
grænseobjekter, hvis opståen og beståen er et resultat af translationsprocesser. Med<br />
translationsbegrebet anses praksisfællesskabernes motivation og interesser som nød-<br />
vendige forudsætninger for, at der overhovedet finder en opfølgning sted – en overset<br />
faktor inden for både den lærings- og den kontrolorienterede evalueringsteori, der be-<br />
tragter evaluering som en lineær og forudsigelig proces, hvor der går en lige linie fra<br />
formål til funktion. Vi vil i det følgende analysere de ude- og indefrakommende<br />
motivationsfaktorer, som påvirker henholdsvis partnernes (afsnit 12.1.) og Danidas<br />
(afsnit 12.2.) adfærd i opfølgningsprocessen.<br />
12.1. Partnernes opfølgning på reviews og evalueringer<br />
I kapitel 5 beskrev vi tilgangen til henholdsvis udviklingsbistand og evaluering inden<br />
for moderniserings- og kontroldiskurserne som top-down, mens den kritiske udvik-<br />
lingsdiskurs og den participatoriske læringsdiskurs plæderede for en bottom-up<br />
tilgang. Denne skelnen danner udgangspunkt for en analyse af de faktorer, som<br />
motiverer partnerne til at drage konsekvenser af reviews og evalueringer. Først<br />
anlægger vi et bottom-up perspektiv og undersøger de faktorer, som motiverer<br />
partnerne til frivilligt og på eget initiativ at tage aktivt del i opfølgningsprocessen,<br />
hvorefter Danidas muligheder for at presse partnerne til at gennemføre justeringer<br />
160
elyses. Det empiriske materiale rummer imidlertid eksempler på motivations-<br />
faktorer, som ikke lader sig indfange i den simple bottom-up/top-down typologi,<br />
hvorfor vi afslutter afsnit 12.1. med en præsentation og diskussion af disse ’mellem-<br />
former’, hvor magtrelationen mellem donor og modtager fremstår mere kompleks.<br />
Nedenstående figur viser det kontinuum af forskellige positioner, som det empiriske<br />
materiale placerer sig på:<br />
Kontrol<br />
Figur 12a<br />
Top-down Bottom-up<br />
Danida presser<br />
partnerne til at<br />
gennemføre<br />
ændringer<br />
Egenkontrol:<br />
Partnerne<br />
kontrollerer sig<br />
selv efter Danidas<br />
anvisninger<br />
Læring<br />
12.1.1. Inddragelse og ejerskab som motivationsfaktor<br />
Evaluering er blot en ud af mange aktiviteter og informationstyper, som konkurrerer<br />
om de evaluerede aktørers tid. Det kommer til syne i interviews med repræsentanter<br />
for partnerorganisationer, som tilkendegiver, at opfølgningen på reviews og<br />
evalueringer af den grund ofte er sporadisk og selektiv:<br />
Og så kan vi læse rapporten bagefter, og så kan man hæfte sig ved nogen af<br />
anbefalingerne og sige: ’Jamen, det må jeg hellere gøre noget ved’. Noget får<br />
man så gjort ved, og andet får man ikke gjort noget ved. (PO)<br />
De kvalitative interviews peger på, at partnernes motivation for at deltage aktivt i<br />
konsekvensdragelsesforhandlingerne afhænger af deres følelse af ejerskab til de<br />
pågældende konklusioner. Des mere de evaluerede aktører selv har været med til at<br />
formulere konklusioner og anbefalinger, desto større er deres motivation for at følge<br />
dem. Hvorvidt det pågældende evaluerings-/reviewforløb har været præget af<br />
participation, spiller derfor en vigtig rolle, og processen har langt større betydning for<br />
partnernes motivation end den skrevne rapport. Denne pointe kunne uddrages af flere<br />
af de cases, som blev fremstillet i kapitel 9, herunder reviewet af mediestøtten til<br />
Zambia i 2002 (se afsnit 9.1.2.2.), som af partnerne blev oplevet som en konstruktiv<br />
læringsproces, trods missionens eksplicitte kontrolformål. Pointen underbygges<br />
endvidere blandt både konsulenter og partnere:<br />
Konsensusbaseret<br />
læring:<br />
Danida og<br />
konsulenterne<br />
definerer ’rigtig’ og<br />
’forkert’ læring<br />
Inddragelse og<br />
ejerskab til<br />
konklusionerne<br />
motiverer partnerne<br />
Men jeg tror, at selve processen også giver noget for organisationen, ikke? (KS)<br />
Men for mig er rapporten som sådan… for mig udtrykker det blot værdien af<br />
det her stykke papir og den anvendelse, som jeg så efterfølgende enten har haft<br />
tid til eller overhovedet gør af det her stykke dokument. Så det bliver nødt til at<br />
være i processen, at anvendeligheden træder frem, når nu de alligevel ender<br />
henne i en bunke i hjørnet sammen med andre rapporter, der aldrig er blevet<br />
læst. (PO)<br />
161
12.1.2. Frygten for sanktioner<br />
Hvor en participatorisk læringsproces understøtter og motiverer forandring indefra,<br />
udgør evalueringers og reviews’ kontrolfunktion en udefrakommende motivations-<br />
faktor. Ved at true med at lukke projektets bevilling, kan donororganisationen sikre<br />
sig, at partnerorganisationerne drager de konsekvenser af et review eller en evalue-<br />
ring, som Danida finder passende:<br />
… det var både [[projektorganisationen]] og [[den eksterne IO]], der skulle<br />
give sig og vise åbenhed i den proces. Og hvis ikke de gjorde det inden en<br />
måned, og de lavede en ny plan og så videre og så videre, så var vi nødt til at<br />
lukke bevillingen. (<strong>OG</strong>)<br />
Donorerne ganger op, det er den negative form, og presser [[projektorganisationen]]<br />
til at lave nogle ændringer, (…) så kan vi sige til dem, ’Altså,<br />
hvis I ikke gør som vi siger, så vil vi ikke finansiere jer næste år.’ (<strong>OG</strong>)<br />
Vi har også set eksempler på, at de eksterne IO’er og rådgiverne anvender bedøm-<br />
melsesaktiviteternes kontrolfunktion til at presse en projektorganisation til at ændre<br />
sin adfærd. Fordelen ved at bruge et review eller en evaluering til dette formål er, at<br />
IO’erne og rådgiverne undgår at komme i konflikt med projektorganisationen, idet de<br />
giver ”nogle bastards længere oppe” skylden:<br />
Og man kan sige, at det var rigtigt godt, at der kom nogen ned udefra, hvor<br />
review-teamet siger: ’Der er simpelthen nogle problemer, og det skal der gøres<br />
noget ved. Det kan ikke fortsætte.’ Det tog ambassaden så og sagde til den<br />
lokale partner, der var lidt tung at danse med: ’Der skal simpelthen…’ (banker<br />
i bordet). Og det var jo rart for os, fordi så kunne vi lægge os i læ af det og<br />
sige: ’Ambassaden siger altså…’. Det er igen det her med at have nogle<br />
bastards længere oppe, så man kan sige: ’Sorry, det er vi nødt til. Det siger de.<br />
Ellers får vi ikke flere penge’. Altså, det hjælper meget nogle gange, så den<br />
proces blev sat i gang. Og den havde vi… fordi når man har den daglige<br />
kontakt, så har man tit svært ved det. (PO)<br />
På denne måde fungerer reviews og evalueringer som et værktøj for donor og IO’er/<br />
rådgivere til at disciplinere projektorganisationerne.<br />
12.1.3. Egenkontrol og konsensus<br />
Ovenstående gennemgang fremstiller to motivationsfaktorer, som udspringer af<br />
forskellige – men i begge tilfælde klare – styrkeforhold mellem Danida og Danidas<br />
partnere. I førstnævnte tilfælde, hvor partnernes motivation udspringer af en følelse<br />
af ejerskab til konklusionerne, falder dette i tråd med de centrale antagelser inden for<br />
den participatoriske læringsdiskurs, som vi gennemgik i kapitel 4. Ved brugen af<br />
pression som motivationsfaktor ligger samspillet mellem Danida og Danidas partnere<br />
derimod i forlængelse af de subjektpositioner, som stilles til rådighed inden for en<br />
evalueringsteoretisk kontroldiskurs. Når Danida eller de eksterne IO’er presser<br />
projektorganisationerne til at foretage justeringer, sker det med reference til ”nogle<br />
bastards længere oppe” – det vil sige til et eksternt krav om resultatorientering og<br />
162
ansvarliggørelse. Derved bliver Danidas krav til partnerne om at følge evalueringer-<br />
nes/reviewenes anbefalinger til en indiskutabel ordre.<br />
De to ovenstående eksempler på motivationsfaktorer kan altså beskrives som ’rene’<br />
eksempler på henholdsvis participatorisk læring og kontrol. Der findes imidlertid<br />
også mindre klare eksempler, hvor lærings- og kontroldiskurserne blandes, og de<br />
tydelige magtkonturer Danida og partnerne imellem udviskes. En analyse af de to<br />
reviews af MISA fra henholdsvis 2001/2002 og 2004 afdækker to sådanne hybrider.<br />
12.1.3.1. Den kompetente partner<br />
Vi har tidligere omtalt reviewene af MISA fra henholdsvis 2001/2002 og 2004 som<br />
de to mest udtalte eksempler på udførelsen af en evaluering / et review af Danida-<br />
støttet mediebistand efter en participatorisk læringsmodel (se afsnit 9.1.3.2.). At<br />
forløbene blev oplevet som en participatoriske læringsprocesser af både projekt-<br />
organisationer, konsulenter og opdragsgiver beror på en række faktorer. Først og<br />
fremmest var de evaluerede aktører trygge ved konsulenterne, som de kendte i<br />
forvejen, og som anvendte metoder, der understøttede partnernes inddragelse og<br />
myndiggørelse. Desuden var MISA i begge tilfælde garanteret fortsat støtte i form af<br />
en ’tryghedsgaranti’ (MISA 04:45 & MISA 01/02:3). En sidste og meget væsentlig<br />
faktor er, at MISA ikke er en hvilken som helst partner – den må anses for at være en<br />
af Danidas nok mest ’kompetente’ partnere på mediebistandsfeltet. Det er således<br />
ikke en tilfældighed, at de to mest fremtrædende eksempler på realisering af en<br />
participatorisk læringsdiskurs er reviews af den samme organisation.<br />
MISA’s status som en ’kompetent’ partnerorganisation hviler dels på dens størrelse<br />
(den har et højtuddannet fuldtidssekretariat), dens alder (MISA har samarbejdet med<br />
Danida siden 1992) og dens erfaringer med at samarbejde med en lang række<br />
donorer. Af reviewet fra 2001/2002 fremgår det, at:<br />
The Regional Secretariat of MISA is currently co-operating with more than 15<br />
donors. In addition national chapters are independently mobilising resources<br />
from donors, including embassies, in the various countries. The various donors<br />
each have their specific requirements with regard to funding proposals,<br />
appraisal procedures, formats for accounting, auditing, monitoring and report.<br />
In addition, they all have specific ideas about the direction and priorities of<br />
MISA and preferences with regard to what they want to support within MISA.<br />
(MISA 01/02:62)<br />
Organisationen har altså rig lejlighed til at tillære sig de kompetencer, som kræves<br />
for at kunne begå sig i donorverdenen. Kompetencer, der blandt andet er nødvendige<br />
for at kunne øve indflydelse på design af reviews og evalueringer. I kapitel 7 beskrev<br />
vi, hvordan Danida både i forbindelse med reviews og evalueringer forsøger at<br />
inddrage de involverede aktører i designfasen og derved udjævne den ejerskabsskæv-<br />
hed, som grundlægges i initieringsfasen. Men at inddragelsen i designfasen i høj grad<br />
163
foregår på donors præmisser, fremgår af dette citat, hvor en repræsentant for en<br />
anden ’kompetent’ partnerorganisation, som desuden er tidligere konsulent for<br />
Danida, beskriver sine muligheder for at formulere krav til kommissoriet som større i<br />
forhold til en mindre ’kompetent’ organisations:<br />
… jeg [har] jo kunnet stille større krav til dem [i Danida], fordi jeg selv har<br />
lavet mange evalueringer. (…) Øh… det gør [[en projektorganisation i<br />
Afrika]] ikke… (…) På en eller anden måde har de gjort det måske mere<br />
indirekte. Jeg kan huske, at de bad om at jeg lavede evalueringen (…) Og det<br />
har de så kunnet bede om, og det har Ministeriet også honoreret. Altså ved at<br />
de har decideret bedt om at få en bestemt evaluator. (PO)<br />
Citatet vidner på den ene side om, at der fra Danidas hold er vilje til at imødekomme<br />
partnernes ønsker, men det viser også, at der reelt er forskel mellem de forskellige<br />
partnerorganisationers muligheder for at blande sig i forhandlingerne. Denne ulighed<br />
søger Danida at udjævne ved at uddanne deres partnere i evalueringsarbejdet:<br />
… både vi og kontorerne er måske ikke gode nok til at forklare folk, der ikke er<br />
vant til at blive evalueret, hvad det egentlig er, der foregår. Altså nu prøver vi<br />
at have vores guidelines, som vi sender til folk. Vi prøver at holde workshops<br />
og seminarer, og altså i stigende grad inddrager vi også vores partnere i<br />
udviklingslandene i Terms of Reference, sådan at de får den samme både<br />
indsigt i men også ejerskab til evalueringen. (<strong>OG</strong>)<br />
Med ord som ’inddragelse’, ”ejerskab” og ”indsigt” anvender den citerede ansatte i<br />
Danida her termer hentet fra en participatorisk læringsdiskurs. Dog står det ved<br />
nærmere gennemsyn klart, at tilgangen til inddragelsen er top-down-orienteret. Det er<br />
opdragsgiveren, der skal ”forklare folk”, hvad ”det egentlig er, der foregår”, og der-<br />
med bibringe partneren ”den samme indsigt”, som opdragsgiveren allerede besidder.<br />
Retningslinierne og dermed det sprog, som evalueringsprocessen forhandles og<br />
forstås ud fra, er allerede defineret, hvorfor partnernes mulighed for indflydelse<br />
afhænger af, om de er villige og i stand til at tillære sig den særlige donordefinerede<br />
evalueringspraksis.<br />
12.1.3.2. Egenkontrol<br />
Som vi tidligere har beskrevet, er Danidas partnere på mediebistandsområdet forplig-<br />
tet til løbende at udarbejde en række dokumenter ud fra skabeloner, som på forhånd<br />
er fastlagt af Danida (afsnit 7.1.5.1., Danida 20003B:35ff., bilag 5) 69 . Alle partnere<br />
skal således udføre en vis grad af egenkontrol – et særligt interessant fænomen i<br />
specialets kontekst, da magtrelationerne mellem den kontrollerede og den kontrol-<br />
lerende part udviskes, når der er tale om personsammenfald mellem disse. Ved at<br />
uddelegere kontrollantrollen til de kontrollerede parter sikrer Danida sig, at kontrol-<br />
len internaliseres, og at partnerorganisationen disciplineres til at tænke i LFA-baner.<br />
69 Formatet følger den skabelon, som følger af den såkaldte Logical Framework-tilgang (LFA) til<br />
projektledelse, som blev introduceret i kapitel 11.<br />
164
Reviewet af MISA i 2004 adskilte sig fra andre reviews og evalueringer ved, at<br />
egenkontrollen her spillede en fremtrædende rolle, idet MISA ikke blot deltog i<br />
udarbejdelsen af kommissoriet og sammensætningen af konsulenthold – organisa-<br />
tionen betalte selv for reviewets gennemførelse. Den måde, hvorpå MISA finansieres<br />
(såkaldt basket funding), medfører, at organisationen selv har et implementerings- og<br />
monitoreringsbudget, som blandt andet dækker udgifter til reviews:<br />
All costs will be paid for by MISA from the implementation and monitoring<br />
budget. The consultants will be paid a professional fee of US$300 per day for<br />
the not more than 13 days review. The subsistence and travel costs will be paid<br />
on a proven expense basis. MISA will arrange for the travel of the consultants.<br />
(MISA 04:44-45)<br />
MISA er altså i den situation, at organisationen selv forvalter de midler, som bruges<br />
på evalueringer og reviews uden selv at have en reel indflydelse på initieringen af<br />
disse. Dette tilfælde af egenkontrol viser et behov for at forfine den indledende<br />
skelnen mellem top-down og bottom-up tilgange til opfølgning på evalueringer og<br />
reviews. På den ene side bliver partnerorganisationen dybt involveret i review-<br />
processen, på den anden side får organisationen kun det ansvar, som donorerne er<br />
villige til at give fra sig, hvorfor man med de kritiske briller på kan karakterisere<br />
samspillet mellem MISA og donorerne som et tilfælde af ”pseudo-inddragelse”<br />
(Krogstrup 2001:199).<br />
12.1.3.3. Konsensus?<br />
Også ved nærmere gennemlæsning af det andet review af MISA fra 2001/2002<br />
nuanceres rapportens ellers skønt malede billede af forløbet som en bottom-up,<br />
participatorisk læringsproces. I rapporten er den gennemgående afsenderidentitet den<br />
faciliterende konsulentrolle (se bilag 4D & 4I), som i de fleste tilfælde gengiver de<br />
evaluerede aktørers holdninger neutralt, mens forfatternes egne vurderinger træder i<br />
baggrunden. Imidlertid forekommer der i denne reviewrapport adskillige eksempler<br />
på, at den vurderende og den faciliterende konsulentrolle blandes, idet forfatterne<br />
tydeligt kommenterer partnernes udsagn.<br />
Det mest markante eksempel herpå drejer sig om en vurdering af, hvorvidt MISA har<br />
levet op til de fastsatte målsætninger om at implementere en ligestillingskomponent i<br />
projektets aktiviteter 70 . At ligestilling oprindeligt blev sat på dagsordenen af<br />
donorerne og ikke af projektorganisationen selv, fremgår blandt andet af passiv-<br />
konstruktionen i denne formulering: ”Gender was introduced in MISA at a very late<br />
stage” (MISA 01/02:35), og det kommer desuden tydeligt til udtryk, at en stor del af<br />
70 Andre eksempler er vurderingen af MISA’s brug af informationsteknologi og projektorganisationens<br />
samarbejde med en fond kaldet SAMDEF. I begge tilfælde fremgår det, at donorer og konsulenter<br />
mener, det er en god idé, mens partnernes uenighed omtales med ord som ’skepsis’ og ’modstand’:<br />
”During the review/evaluation, the tough stance of MISA members towards SAMDEF, as indicated<br />
above, appears to have softened.” (MISA 01/02:58).<br />
165
projektorganisationens medlemmer finder målsætningen irrelevant. Frem for at<br />
beskrive partnernes holdning neutralt, tilkendegiver forfatterne, at de selv anser lige-<br />
stillingsemnet for at være relevant og væsentligt, og at den gruppe blandt de evalue-<br />
rede aktører, som er uenige heri, har ’stereotype’ og ’blandede holdninger’:<br />
It became apparent that MISA itself has not done away with its own<br />
stereotypes and mixed views as to the importance and relevance of the concept.<br />
(MISA 01/02:42)<br />
Af formuleringen “done away with” fremgår det, at projektorganisationen forventes<br />
at blive enig med donorer og konsulenter med tiden. Konsulenternes egen positive<br />
holdning til ligestillingskomponenten kommer også til syne i formuleringen af dette<br />
ledende spørgsmål til de kritiske røster i MISA, som tydeligt indikerer, at konsulen-<br />
terne sætter lighedstegn mellem ligestilling, pluralisme, diversitet og demokrati:<br />
This debate raises the following issues: By questioning the relevance of gender<br />
mainstreaming within MISA’s mandate and in the content of news coverage, to<br />
what extent has MISA interpreted the concepts of ”pluralism”, ”diversity” and<br />
”democracy” to their full implications? (MISA 01/02:43)<br />
Endelig fremhæver konsulenterne den andel af de evaluerede aktører, som udtrykker<br />
enighed med konsulenternes (og donorernes) vægtning af ligestilling, idet disse roses<br />
for at være ”refreshing” og ”strong committed voices”:<br />
Although it is thought that the process of introducing gender equality was<br />
donor-driven, it was refreshing to hear that in spite of contradictory opinions<br />
regarding the relevance of the concept, some very strong committed voices<br />
were heard both from women and men at all levels of the organisation. There<br />
is, therefore, an internal willingness to move forward with the application of<br />
the concept. (MISA 01/02:43, vus.)<br />
Mens konsulenterne bevæger sig inden for den retorik, som kendetegner den partici-<br />
patoriske læringsdiskurs, har det reelle indhold i diskussionerne karakter af konsen-<br />
susbaseret læring. Dette understreges af, at konsulenternes opsummering af debatten<br />
er, at der er en ”internal willingness” til at integrere ligestillingsaspektet, selvom en<br />
lige så valid konklusion kunne have været, at der var intern modvilje mod at følge<br />
donorernes dagsorden. Det fremgår således med al tydelighed, at der er en rigtig og<br />
en forkert holdning til ligestillingsspørgsmålet, hvor donorerne og konsulenterne<br />
repræsenterer den rigtige. Den endelige konklusion lyder:<br />
Three years later, gender is no longer merely a donor-driven issue but a<br />
common interest to both MISA and its donors thereby needing to form an<br />
integral part of future partnerships (MISA 01/02:46)<br />
Anvendelsen af ordet partnerskab i denne sætning sætter partnerskabets paradoks på<br />
spidsen: Interessen for ligestillingsspørgsmål er fælles, fordi donoren har insisteret<br />
herpå. Reviewet understøtter donorernes synspunkt og bidrager til, at MISA accep-<br />
terer dette.<br />
166
12.1.4. Partnerskab og bekendelse<br />
Under betegnelsen ’partnerskabets paradoks’ behandlede vi i kapitel 3 det modsæt-<br />
ningsfyldte møde mellem moderniseringsdiskursens asymmetriske styrkeforhold<br />
mellem donor og modtager og det lighedsideal, som kendetegner den kritiske udvik-<br />
lingsdiskurs. Paradokset består i, at Danidas partnere på den ene side skal leve op til<br />
en række donordefinerede krav om eksempelvis demokratisering og respekt for<br />
menneskerettighederne, mens de samtidig forventes at formulere kravene selv.<br />
Hermed støder moderniseringsdiskursens top-down-tilgang sammen med den<br />
bottom-up-tilgang, som foreskrives inden for den kritiske udviklingsdiskurs. I de<br />
tilfælde hvor der er sammenfald mellem partnernes og Danidas ønsker og interesser,<br />
er partnerskabet uproblematisk. Men når partnerne – af den ene eller anden årsag –<br />
ikke kan tilslutte sig Danidas prioriteringer, politikker og/eller metoder, må de fore-<br />
give alligevel at gøre dette for fortsat at gøre sig fortjent til danske bistandskroner.<br />
Udtrykt i foucault’ske termer betyder partnerskabets paradoks i praksis, at partnerne<br />
må ’bekende’ sig til donorens værdier for at opretholde partnerskabet (Foucault<br />
1980:191). Bekendelsen er ifølge Foucault en subtil disciplineringsmetode, som ikke<br />
kan beskrives ud fra et traditionelt, strukturelt magtperspektiv, hvor magt defineres<br />
som A’s evne til at få B til at gøre noget, som B ellers ikke ville have gjort (Lukes<br />
1973 & Dahler-Larsen 2004:96). Bekendelsen hviler i stedet på, at B disciplinerer sig<br />
selv ud fra sin vurdering af A’s forventninger og truslen om mulige sanktioner, hvis<br />
disse forventninger ikke indfries.<br />
De to ovenstående eksempler på, at partnerorganisationerne – under dække af<br />
frivillighed og inddragelse – presses til at justere deres adfærd efter Danidas anvis-<br />
ninger, illustrerer bekendelsen i praksis. Betragtet som forhandlingsknudepunkter af-<br />
spejler og forstærker evalueringer og reviews dermed den donor-modtager-relation,<br />
som gør sig særligt gældende inden for mediebistand og andre bistandsområder med<br />
politiske konditionaliteter i spil: Danida opstiller betingelser og mål, eksempelvis at<br />
ligestilling er en relevant komponent i et mediebistandsprojekt, men partnerne skal<br />
selv udtrykke ønsket for at kunne få støtte fra Danida. Sker det ikke frivilligt som en<br />
bottom-up-proces, kan reviews og evalueringer hjælpe Danida til alligevel at få sin<br />
vilje – i grelle tilfælde ved at true med at lukke bevillingen, men ellers på mere<br />
subtile og elegante måder såsom egenkontrol og definering af ’den rigtige konsen-<br />
sus’.<br />
Vi har nu vist, at Danida er motiveret for at drage konsekvenser af reviews og evalue-<br />
ringer – vel at mærke konsekvenser for partnerorganisationerne. Men er donororgani-<br />
sationen også motiveret for selv at ændre adfærd som følge af evalueringer og<br />
reviews? I det følgende stiller vi skarpt på barrierer og muligheder for realiseringen<br />
af Danida som en lærende organisation (jf. afsnit 4.3.).<br />
167
12.2. Danida som lærende organisation<br />
Vi har i kapitel 10 og 11 fokuseret på de dramaer, som udspiller sig omkring konsu-<br />
lenternes og partnernes identiteter. I begge disse kapitler er det blevet opsummeret, at<br />
Danidas identitet som donor og opdragsgiver med magt til at definere rammerne for<br />
de øvrige aktører ikke udfordres men styrkes i forbindelse med reviews og evalue-<br />
ringer. Vi vil i det følgende undersøge de faktorer, som kan motivere Danida til at<br />
ændre adfærd og derigennem belyse forudsætningerne for, at Danidas identitet – på<br />
linie med de øvrige praksisfællesskabers – sættes til forhandling.<br />
Som det gælder for partnerorganisationerne, kan man også for Danidas vedkom-<br />
mende skelne mellem indefra- og udefrakommende motivationsfaktorer i udførelsen<br />
af evalueringer og reviews, hvor de udefrakommende er knyttet til evalueringers og<br />
reviews’ kontrolfunktion og de indefrakommende til medarbejdernes engagement i<br />
og ejerskab for konklusionerne. Disse to typer faktorer gennemgår vi henholdsvis i<br />
afsnit 12.2.1. og 12.2.2., hvorefter der i afsnit 12.2.3. rundes af med en diskussion af,<br />
hvorvidt Danida kan siges at leve op til de i kapitel 8 fremstillede idealer om organi-<br />
satorisk læring, som kommer til udtryk i organisationens publikationer og i inter-<br />
views med medarbejderne.<br />
12.2.1. Ansvarliggørelsesfunktionen som motivationsfaktor<br />
Partnerorganisationerne er ikke de eneste, som er underlagt krav om resultatorien-<br />
tering, det er Danida i høj grad også. Evalueringernes – og i nogen grad også<br />
reviewenes – funktion som redskaber til ansvarliggørelse udgør derfor også for<br />
Danida en vigtig motivationsfaktor for at følge op på rapporterne. Men hvor partner-<br />
ne i mange tilfælde mødes med mere eller mindre direkte formulerede krav om<br />
opfølgning, som vi har set i det ovenstående, handler Danida i højere grad ud fra<br />
forventningen om en mulig offentlig reaktion. I dette citat beskriver en medarbejder i<br />
Danida, hvordan offentliggørelsen af evalueringer ansporer ledelsen til at fordybe sig<br />
i dem og drage konsekvenser deraf:<br />
Men [offentliggørelsen af evalueringsrapporter] betød så til gengæld, at der<br />
kom en reel diskussion af: ’Jamen, hvad skal vi? Hvordan skal vi reagere på<br />
den her? Og vi skal gerne have en fornuftig reaktion og ikke bare sige, at det er<br />
vi ligeglade med’. Og det gav så anledning til, at vi faktisk fik den her reelle<br />
diskussion omkring evalueringsrapporter i ledelsesgruppen, som vi ikke havde<br />
haft før. Så det eksterne pres og offentliggørelsen har medvirket til, at man<br />
begyndte… og så sker der det, at så opdager ledelsen opdager: ’Jamen, der er<br />
sgu noget interessant i de her evalueringer. Der er faktisk noget, vi kan bruge’.<br />
Så det er ikke kun en forberedelse til reaktioner overfor pressen, men også et<br />
reelt instrument. Men det var en sjov oplevelse i løbet af en to-tre år der,<br />
hvordan det gik fra at være interne og ikke særligt påagtede rapporter til at<br />
være noget man blev bange for, fordi man var bange for the public reaction, så<br />
til at være: ’Jamen, det er sgu et instrument, vi kan bruge’. (<strong>OG</strong>)<br />
168
Foucaults begreb panoptisk disciplinering synes dækkende for den logik, som ifølge<br />
den citerede ansatte driver ledelsens interesse for evalueringer. Alene ledelsens angst<br />
for offentlighedens overvågende blik – ”the public reaction” – gør, at Danida interna-<br />
liserer kontrollen. Danidas ledelse er hermed sammenlignelig med den indsatte i<br />
Panoptikon, der indretter sin adfærd efter den potentielle inspektion, uvidende om<br />
hvorvidt denne rent faktisk finder sted eller ej (Foucault 1994:179f.).<br />
I kraft af, at evalueringer offentliggøres, mens reviews har status af interne arbejds-<br />
papirer, er ansvarliggørelsesfunktionen primært en motivationsfaktor i forbindelse<br />
med førstnævnte bedømmelsesaktivitet. Vi har tidligere beskrevet, at de danske<br />
medier primært – hvis ikke udelukkende – interesserer sig for evalueringer med<br />
kritiske konklusioner, hvorfor ledelsens tilskyndelse til at følge op på denne type<br />
evalueringer er større end i de tilfælde, hvor konklusionerne er mindre entydige eller<br />
kritiske. Ansvarliggørelsesfunktionen alene er derfor ikke nok til at sikre en tilstræk-<br />
kelig opfølgning på reviews og evalueringer: En vis indre motivation er også nødven-<br />
dig for, at Danida med rette kan kalde sig en lærende organisation.<br />
12.2.2. Rotationsordningen som barriere for organisatorisk læring<br />
Som vi beskrev i kapitel 7 er ansvaret for opfølgning på reviews placeret i den<br />
samme bevilgende enhed, som har initieret reviewet. Det vil i praksis sige, at det er<br />
en ambassademedarbejder, der skal stå for, at erfaringerne og anbefalingerne formid-<br />
les videre ikke blot til Danidas partnere, men også internt i Danidas organisation.<br />
Ansvaret for at følge op på evalueringer er formelt forankret i EK, hvilket betyder, at<br />
EK sørger for, at de berørte enheder i Danida gøres opmærksom på rapportens kon-<br />
klusioner og drager de nødvendige konsekvenser. Hvad enten de berørte enheder er<br />
landekontorer, policykontorer eller ambassader, så gælder det, at medarbejderne her<br />
hører under rotationsordningen.<br />
Karakteristisk for såvel evalueringer som reviews er det altså, at de medarbejdere,<br />
som skal sikre realiseringen af den læringscyklus, vi præsenterede i afsnit 4.3,<br />
sjældent har et grundigt kendskab til eller et stort netværk inden for mediebistands-<br />
feltet. For at Danida kan beskrives som en lærende organisation, skal den viden, der<br />
tilvejebringes gennem reviews og evalueringer, sammenlignes med og bidrage til en<br />
eventuel korrektion af Danidas normer og praksis. Dette er selvsagt svært at gøre,<br />
hvis man ikke har viden om gældende normer og praksis. Endvidere kræver en god<br />
videreformidling og opfølgning, at den ansvarlige, nødvendige nøgleperson 71 har et<br />
71 Nødvendig nøgleperson er vores oversættelse af begrebet ”obligatory passage point”, som findes hos<br />
Bowker & Star 1999:292. Et ”obligatory passage point” er en aktør, som indtager en så central position i<br />
netværket omkring et grænseobjekt, at denne fungerer som et obligatorisk bindeled eller en ”gatekeeper”<br />
(ibid.) i interaktionen mellem et praksisfællesskab og omverdenen. I forbindelse med opfølgning på<br />
reviews er den medarbejder, hos hvem det formelle ansvar er forankret, en nødvendig nøgleperson i<br />
samarbejdet mellem de forskellige sub-praksisfællesskaber i Danida samt mellem Danida og partnerne.<br />
169
netværk, vedkommende kan inddrage med henblik på at stabilisere konsekvens-<br />
dragelsen af en evaluering eller et review som et grænseobjekt. En ny medarbejder –<br />
typisk uden forhåndskendskab til medier og til det pågældende land – har derfor ringe<br />
odds, hvorfor rotationsordningen kan siges at udgøre en ikke ubetydelig barriere for<br />
realiseringen af Danida som lærende organisation. Denne påstand uddybes i det<br />
følgende.<br />
12.2.2.1. Manglende kontinuitet<br />
For det første er rotationsordningen lig manglende kontinuitet. Ofte udskiftes den<br />
Danidaansatte, som har haft ansvaret for initieringen af et review eller har været<br />
inddraget i designet af en evaluering, sådan at det er en ny medarbejder, der skal stå<br />
for opfølgning og konsekvensdragelse. Og vel at mærke er det med stor sandsyn-<br />
lighed en helt tredje eller fjerde medarbejder, der oprindeligt har deltaget i forbere-<br />
delsen og implementeringen af den projektfase, den konkrete bedømmelsesaktivitet<br />
fokuserer på. Tabet af viden og overblik forstærkes af det forhold, at det typisk er de<br />
mest uerfarne medarbejdere, som får ansvaret for bistand til medier, køn og NGO’er.<br />
Ikke fordi disse områder har specielt lav status, men fordi der som oftest er tale om<br />
relativt små og afgrænsede projekter, der i Danida anses for at udgøre et spændende<br />
afsæt for en ung, ny medarbejder. Her fortæller en konsulent, om en oplevelse med at<br />
skulle overdrage resultaterne af et review til en ung Danidamedarbejder:<br />
Og så glædede jeg mig enormt meget til at komme ind og snakke med Danida<br />
om den, fordi det var faktisk dem, der var administratorer. Og så kom jeg ind,<br />
og så sad der sådan en ung… sådan et ungt menneske – og det er jo ikke<br />
vedkommendes skyld – men altså vedkommende havde kun siddet der et år og<br />
skulle videre om en måned eller sådan noget. Og havde læst rapporten og<br />
syntes, at den var meget interessant, men han havde aldrig forholdt til den<br />
bevilling i øvrigt, selvom det lå inde på hans skrivebord. Så det var jo ikke<br />
en… Altså, det var mere sådan: han sad og spurgte mig nysgerrigt, om: ’Og<br />
Gud! Og hvad laver…? Nåh…?’ og… det var én stor surprise, ikke? (griner)<br />
Så der var ikke nogen… der var ikke nogen dialog der, kan man sige. Men det<br />
viser også noget om systemet, kan man sige, fordi de rykkede videre, og… og<br />
han… Og der stod på hans papir, at han skulle have lavet sådan en review,<br />
fordi det var tid nu, og det har han så sagt videre: ’Find en eller anden’, ikke<br />
(griner), og så blev det mig, og så var det ligesom godt nok, når der lå en<br />
rapport, ikke. Men de der anbefalinger og sådan noget, men det kunne han ikke<br />
forholde sig til. (Utydeligt). Det føltes da underligt. (KS)<br />
12.2.2.2. Fokus på egen karriere<br />
Foruden den manglende kontinuitet er en anden utilsigtet effekt af rotations-<br />
ordningen, at nogle ambassademedarbejdere fokuserer på deres egne karriere-<br />
muligheder frem for at engagere sig i de projekter, der hører under deres ansvars-<br />
område – de skal med den ovenfor citerede konsulents ord ’rykke videre’. En ansat i<br />
Danida fortæller her om sin oplevelse af at samarbejde med kolleger, der efter<br />
vedkommendes mening mangler ’engagement’ og blot betragter arbejdet som en<br />
mulighed for at ’score points’:<br />
170
… den anden side er selvfølgelig også, hvis den, der så sidder med det til<br />
hverdag, ikke har engagementet. Ikke, altså, som bare siger, ’nå ja, men bare de<br />
ikke finder ud af det, at jeg har lavet en fejl’, og prøver at skjule det, ’bare jeg<br />
får en nogenlunde god rapport ud af det, så kan jeg gå hen og spille golf<br />
klokken fire’, ikke. For dem har vi jo også nogen af. Og desværre også på<br />
sådan nogen områder her, som er så sensitive, og som kræver, mener jeg<br />
personligt, et engagement, og at man går dybere ind end lige at se på, at hvor<br />
mange penge skal jeg bruge i år, og hvordan får jeg scoret mine points. (<strong>OG</strong>)<br />
Vi antager ikke, at denne karikatur af en uengageret medarbejder tegner et dækkende<br />
billede af virkelighedens Danidaansatte. Men citatet illustrerer, at den manglende<br />
kontinuitet og det fokus på det individuelle karriereforløb, som følger af rotations-<br />
ordningen, betyder, at de nødvendige nøglepersoner ofte mangler den fornødne<br />
motivation i forbindelse med opfølgning på reviews og evalueringer.<br />
12.2.2.3. Brug af interne konsulenter<br />
En interessant pointe i denne sammenhæng er, at blandt de cases, vi har undersøgt, er<br />
reviewet af MISA i 2004 det mest udtalte eksempel på, at Danida har søgt at omsætte<br />
viden til organisatorisk læring. Dette review blev, som tidligere nævnt, udført af<br />
blandt andet en intern konsulent, den medieansvarlige i BFT, der som den eneste i<br />
Danida følger mediebistanden kontinuerligt. I nedenstående udsagn vurderer BFT-<br />
medarbejderen fordelen ved, at hun spillede en central rolle både under udførelsen af<br />
og opfølgningen på reviewet. BFT-medarbejderen sammenligner 2004-reviewet med<br />
et review af MISA, som blev foretaget året før af et rent eksternt konsulenthold (”det<br />
sidste” review):<br />
… hvis du læser de to rapporter fra MISA, ikke, øh, så er nogen af<br />
konklusionerne de samme. Men fordi at jeg så ikke har noget med det sidste<br />
[review] at gøre, fordi jeg ikke har nogen kontakt med de folk, øh altså rent<br />
sådan kommercielt, jeg har ikke hyret dem til at løse opgaven, jeg er ikke<br />
blevet bedt om at løse opgaven, så kan der være en fare for, at nogen af de ting<br />
forsvinder i vores system. Altså, ambassaden har bedt konsulenterne om at lave<br />
opgaven og hyret dem og så videre, øh, men i og med at jeg så kommer ind<br />
over, fordi jeg sidder her som fagperson, når jeg så ser de her problemer, der er<br />
i de her organisationer, så laver jeg jo lidt uro på det og siger ’vi bliver<br />
simpelthen nødt til at gøre noget ved det her’. Og så sker der lidt mere i<br />
organisationen, ikke (…) Selvom konklusionerne egentlig måske var de samme<br />
sidste år, ikke. (<strong>OG</strong>)<br />
BFT-medarbejderen forklarer, at hun ganske vist har haft kendskab til 2003-reviewet,<br />
men at hun ikke har spillet en central rolle i forhandlingerne omkring reviewet, da<br />
hun hverken har varetaget den ’kommercielle’ opdragsgiverfunktion eller er blevet<br />
bedt om at være konsulent. Ansvaret for reviewet har således været forankret i den<br />
bevilgende ambassade, og dermed er en række af reviewets konklusioner ’forsvundet<br />
i systemet’.<br />
Da BFT-medarbejderen mod normen blev bedt om at udføre 2004-reviewet som<br />
intern konsulent, følte hun et stærkere ejerskab for at drage konsekvenser af<br />
171
konklusionerne og lavede derfor ”lidt uro på det”, hvorved hun bidrog til at sikre en<br />
grundigere opfølgning. Citatet afsluttes med bemærkningen: ”Selvom konklusionerne<br />
egentlig måske var de samme sidste år” – en påstand vores læsning af de to rapporter<br />
kan bekræfte. Forskellen mellem de to konsekvensdragelsesforløb skal således ikke<br />
findes i rapporterne, men i hvor stærkt et engagement Danidas medarbejdere har lagt<br />
i opfølgningen. Vi må på denne baggrund konkludere, at en svaghed i Danidas<br />
praksis i forhold til konsekvensdragelse er, at videreformidling og opfølgning hviler<br />
på enkeltpersoners engagement – et engagement, som rotationsordningen ofte<br />
blokerer for.<br />
12.2.3. Danidas identitet til forhandling?<br />
Danidamedarbejdernes udlægning af læringsbegrebet i kapitel 8 giver et indtryk af, at<br />
der i organisationen er en tendens til at sætte lighedstegn mellem feedback og læring,<br />
og at selve udførelsen af evalueringer og reviews således garanterer kvalitetssikring<br />
og forbedring af mediebistandsindsatsen. Denne antagelse er ikke korrekt, idet igang-<br />
sættelsen af en organisatorisk læringsproces kræver, at nogle aktører i praksisfælles-<br />
skabet Danida tager ejerskab for at følge op på en rapport og omsætte viden til<br />
læring. Analysen i dette afsnit belyser to faktorer, som kan motivere en sådan opfølg-<br />
ning. Dels udgør bevidstheden om muligheden for en negativ offentlig reaktion en<br />
udefrakommende motivationsfaktor, og dels kan Danidas medarbejdere selv bidrage<br />
til ændringer, hvis de vel at mærke har et engagement og en interesse heri. Imidlertid<br />
blokerer rotationsordningen og anvendelsen af eksterne konsulenter for, at ejerskabet<br />
forankres internt i Danidas organisation. En interessant pointe er, at partnerne ingen<br />
mulighed har for direkte at gennemtvinge ændringer i Danidas adfærd, sådan som<br />
Danida omvendt har i forhold til partnerne. Danidas identitet sættes således kun på<br />
prøve i det omfang, som enten den danske offentlighed eller organisationen selv<br />
udviser interesse herfor. Hermed understreges den asymmetriske og paradoksale<br />
partnerrelation, hvor Danida alene skal understøtte partnernes udvikling og selv<br />
forblive uændret i processen.<br />
12.3. Delkonklusion<br />
Et af målene med dette speciale er at belyse samspillet mellem dominerende<br />
evaluerings- og udviklingsteoretiske diskurser og Danidas evalueringspraksis. Vi har<br />
tidligere undersøgt interaktionen mellem de tre involverede praksisfællesskaber i<br />
forbindelse med design, udførelse og afrapportering af bedømmelsesaktiviteter, og i<br />
dette kapitel er fokus på forhandlingerne i opfølgningsfasen. Analysen har vist, at<br />
aktørerne i nogle situationer trækker på enten den evalueringsteoretiske kontrol-<br />
diskurs eller den participatoriske læringsdiskurs i deres motivation for at drage<br />
konsekvenser af reviews og evalueringer, mens andre opfølgningsforløb så at sige<br />
blander de to diskursers tilgange. Derved genforhandles relationerne mellem Danida<br />
og partnerne på en måde, så de hverken understøtter moderniseringsdiskursens<br />
172
asymmetriske styrkeforhold eller det ideal om myndiggørelse, som præsenteres inden<br />
for den kritiske udviklingsdiskurs. I stedet bidrager disse opfølgningsforløb til at<br />
understøtte partnerskabets paradoks.<br />
De involverede praksisfællesskaber har imidlertid sproglige kategorier til at beskrive<br />
de situationer, hvor styrkeforholdet mellem Danida og partnerne er utvetydige og<br />
arketypiske for enten kontrol- eller læringsevalueringer. Egenkontrol og tvungen<br />
konsensus er eksempler på en sammenblanding af kontrol og læringsdiskurserne, idet<br />
kontrollen her foregår mere på en mere subtil facon, hvor partnerne selv indvilger i at<br />
bekende sig til Danidas vurderinger og værdier for fortsat at kunne modtage støtte.<br />
Fordi disse mellemformer falder uden for de faste kontrol-lærings-kategorier,<br />
praktiseres både egenkontrol og tvungen konsensus inden for en læringsretorik med<br />
argumenter om myndiggørelse og participation, og den komplekse og paradoksale<br />
relation mellem Danida og partnerne sprogliggøres således ikke af aktørerne selv.<br />
Et tilsvarende fænomen har vi set i forbindelse med design af evalueringer og<br />
reviews, hvor Danida beskriver egne intentioner om partnerinddragelse ved hjælp af<br />
begreber hentet fra en participatorisk læringsdiskurs, mens organisationen reelt<br />
forudsætter en høj grad af kompetence fra partnerens side. I forbindelse med analysen<br />
af konsulentrollen i kapitel 10 stod det klart, at modsætningerne mellem Danida og<br />
partnerne, som udmøntede sig i en kompleks og splittet konsulentidentitet, forsøges<br />
håndteret ud fra kontroldiskursens kriterier om uafhængighed og objektivitet frem for<br />
at blive diskuteret åbent. I alle disse tilfælde bidrager forhandlingerne mellem<br />
praksisfællesskaberne i forbindelse med evalueringer og reviews til at genetablere<br />
partnerskabets paradoks, men dette sker tavst under henvisning til positivt ladede<br />
nøglebegreber inden for henholdsvis lærings- og kontroldiskursen.<br />
Vi kan på denne baggrund ikke konkludere entydigt, at Danidas evalueringspraksis i<br />
alle situationer understøtter partnerskabets paradoks. Men vi kan konkludere, at<br />
skellet mellem kontrol- og læring ikke er så entydigt, som både teorien og praksis-<br />
fællesskabernes forståelser af begreberne lægger op til. Diskurserne blandes, og<br />
derved bidrager Danidas evalueringspraksis til at genforhandle identiteter og<br />
relationer på langt mere komplekse måder, end man kunne forvente ud fra på den ene<br />
side Danidas positive forståelser af læring og kontrol og på den anden side partnernes<br />
og konsulenternes negativt ladede, magtkritiske fortolkninger af de to formål.<br />
173
13. Fremtidens evaluering af mediebistand<br />
I problemformuleringen stiller vi blandt andet spørgsmålet om, hvordan Danida kan<br />
forbedre sin evalueringspraksis på mediebistandsfeltet. Det søges besvaret i dette<br />
kapitel, hvor analysen af Danidas nuværende praksis suppleres med en række<br />
konkrete anbefalinger til fremtidens evaluering af mediebistand.<br />
Danida er som alle andre donoragenturer let at kritisere, idet der er tale om en magt-<br />
fuld aktør med rig mulighed for at udnytte sin position til at dominere de økonomisk<br />
afhængige partnere og konsulenter. En diskursanalytisk funderet magtkritik, som den<br />
Ferguson leverer af donorsamfundet af Lesotho, har en vis berettigelse i Danidas<br />
tilfælde, og vi har også søgt at give en sådan, hvor dette har været relevant. Men ved<br />
at begrænse sin analyse til en akademisk kritik risikerer man først og fremmest at<br />
falde i samme normativitetsgrøft som dem man kritiserer, hvilket Fergusons tekst er<br />
et eksempel på (se afsnit 5.2.). Dernæst er der en vis sandsynlighed for, at Danida og<br />
de øvrige praksisfællesskaber ikke kan omsætte kritikken til nye handlingsmønstre,<br />
da analysens konklusioner ikke tager højde for deres konkrete situation. Dette kapitel<br />
præsenterer en række anbefalinger, som tager hensyn dels til Danidas behov for at<br />
bruge evalueringer og reviews til at legitimere udviklingsbistanden over for de<br />
danske skatteydere, og dels til organisationens udtrykte ønske om gerne at ville indgå<br />
i selvkritiske læringsprocesser. Anbefalingerne opsummerer de problemer og<br />
barrierer i den gældende evalueringspraksis, som er præsenteret i de foregående<br />
kapitler, og de er tænkt som oplæg og ideer snarere end som færdige evaluerings-<br />
modeller, da en sådan metodeudvikling ligger uden for specialets fokus.<br />
Kapitlet er inddelt i seks afsnit, hvor 13.1. drejer sig om Danidas forståelse og<br />
prioritering af formålene læring og kontrol, og 13.2. om perspektiverne for udvikling<br />
af et indikatorværktøj. Afsnit 13.3. behandler Danidas måder at inddrage partnerne på<br />
i evaluerings- og reviewprocessen. Herefter opstiller vi i 13.4. en række anbefalinger<br />
til Danida om, hvordan organisationen kan bidrage til at imødegå partnernes<br />
utryghed. I 13.5. stiller vi forslag til en styrkelse af Danidas opfølgningspraksis, og<br />
anbefalingerne opsamlet i afsnit 13.6.<br />
13.1. Læring og/eller kontrol?<br />
En af specialets hovedkonklusioner, som blev præsenteret i kapitel 8, er, at der er stor<br />
forskel på de tre praksisfællesskabers forståelser af læring og kontrol. Hvor konsulen-<br />
ter og partnere forholder sig stærkt problematiserende til kontrolformålet og mener,<br />
at det er uforeneligt med læringsformålet, ser Danida ingen problemer i at forene de<br />
to formål – tværtimod betragtes de som gensidigt understøttende. Sandheden om<br />
relationen mellem læring og kontrol synes at ligge et sted midtimellem. På den ene<br />
side eksisterer de to formål side om side i praksis – ikke blot i Danida men også i de<br />
174
fleste andre evaluerende institutioner i Danmark – og dog er der på den anden side<br />
problemer forbundet hermed. Vi plæderer for en højere grad af bevidsthed om disse<br />
problemer og en mere nuanceret forståelse af både læring og kontrol.<br />
13.1.1. Klarhed og konkretisering<br />
I Danidas publikationer beskrives læring som neutral ”erfaringsopsamling” og<br />
kontrol som objektiv ”dokumentation” (Danida 1999:7), men interviewene med<br />
Danidaansatte, partnere og konsulenter gør det klart, at kontrol og læring er meget<br />
mere end det. Kontrol er også utryghed, inspektion og panoptisk overvågning,<br />
ligesom læring også er bekendelse, pseudoinddragelse eller en mulighed for delege-<br />
ring af magt og myndighed til Danidas partnere. En højere grad af bevidsthed i<br />
Danida om de magtmæssige aspekter af lærings- og kontrolformålene er forudsæt-<br />
ningen for en mere åben dialog mellem de involverede praksisfællesskaber om,<br />
hvordan man skal forholde sig til utryghed, ulighed og idealer om lighed i<br />
evalueringsprocesser.<br />
13.1.2. Prioritering<br />
Første skridt i retning af en mere nuanceret og klar forståelse af læring og kontrol er,<br />
at man i Danida forsøger at konkretisere, hvad man vil med en evaluering eller et<br />
review – udover at udføre det. Ved ikke at forholde sig til metodeanvisninger,<br />
eksakte målgrupper og opfølgningsprocesser, undlader Danida i dag at tage stilling<br />
til, af hvem, hvornår og til hvad vurderingerne skal anvendes. Mere præcise kommis-<br />
sorier ville være en måde at løse dette problem på.<br />
I samme åndedrag vil vi anbefale de ansvarlige medarbejdere at prioritere mellem de<br />
to formål ud fra en analyse af, at de sjældent går så uproblematisk hånd i hånd, som<br />
Danida giver indtryk af. Særligt er der uoverensstemmelser mellem kontrolformålet<br />
og muligheden for at gennemføre participatorisk læring. Fordelen ved at prioritere<br />
kommer eksempelvis til udtryk i de reviews af MISA fra 2001/02 og 2004, hvor<br />
vigtige forudsætninger for, at det – i nogen grad – lod sig gøre at anvende en partici-<br />
patorisk læringsmodel, var udstedelse af en ’tryghedsgaranti’, omgåelse af uafhæn-<br />
gighedskravet samt afsættelse af ressourcer til anvendelse af participatoriske<br />
metoder. I forhold til at prioritere mellem formålene læring og kontrol bør man i<br />
Danida overveje, i hvilke tilfælde kontrollen tjener et konkret, instrumentelt formål –<br />
eksempelvis i forhold til at genoverveje en projektbevilling – og i hvilke tilfælde<br />
kontrollen udføres rutinemæssigt med en symbolsk funktion alene. Vores gennem-<br />
gang af reviewet af NSJ 2003 pegede på, at til trods for eksplicitte erklæringer om at<br />
ville genoverveje bevillingen, så drog hverken Danida eller reviewholdet de konklu-<br />
sioner og konsekvenser, man kunne forvente ville følge af den meget kritiske rapport.<br />
En mulig forklaring herpå er, at NSJ’s bevilling ikke reelt stod på spil, da projektet er<br />
175
et af Danidas flagskibe på mediebistandsområdet. Kontrollen synes derfor at have<br />
tjent et symbolsk formål snarere end et praktisk.<br />
Opsummerende foreslår vi Danidas medarbejdere at blive mere konkrete, fokuserede<br />
og realistiske i forbindelse med udarbejdelse af kommissorier, i højere grad at<br />
adskille kontrol- og læringsformålet samt at have en mere åben og nuanceret dialog<br />
med partnere og konsulenter om de to formåls påvirkning af de involverede aktørers<br />
identiteter og relationer. Vi vurderer, at dette speciale kan fungere som afsæt for en<br />
sådan afklarings- og diskussionsproces.<br />
13.2. Vurdering af mediebistandens effekter på<br />
outcomeniveau<br />
Vi har i kapitel 11 argumenteret for, at det både i et lærings- og et kontrolperspektiv<br />
er særdeles relevant at investere ressourcer i udviklingen af et indikatorværktøj til<br />
vurdering af mediebistandens effekter på et outcomeniveau. Et sådant værktøj kunne<br />
eksempelvis omfatte receptionsanalyse, mediemonitorering, indholdsanalyse samt<br />
brugerevalueringer i forbindelse med uddannelsesaktiviteter. I samme kapitel<br />
anbefalede vi Danida at udarbejde realistiske kommissorier, hvor sigte står mål med<br />
de faktiske ressourcer, samt i samarbejde med de eksterne konsulenter at bestræbe sig<br />
på at nedbringe tidsforbruget til dokumentstudier.<br />
At udvikle et sådant værktøj og anvende det kræver dog ressourcer. Vi mener derfor<br />
ikke, at det er realistisk inden for den nuværende økonomiske ramme for evalueringer<br />
og reviews at gennemføre omfattende outcome-målinger på alle missioner. Derfor<br />
anbefaler vi Danida at nedtone ambitionsniveauet i forbindelse med de løbende<br />
reviews, sådan at de alene skal fokusere på aktiviteternes output eller fungere som<br />
participatoriske læringsprocesser, for så parallelt hermed udføre vurderinger af de<br />
mere langsigtede effekter af bestemte indsatsområder såsom journalistuddannelse<br />
eller lokalradioer.<br />
13.3. Inddragelse af partnerne<br />
Et begreb, som i særlig grad er kendetegnet ved at være uklart formuleret af Danida<br />
er partnerinddragelse. Vi har identificeret to former for partnerinddragelse i<br />
forbindelse med reviews og evalueringer af Danidas mediebistand. Den ene form for<br />
inddragelse er en participatorisk, bottom-up tilgang, hvor partneren har reel<br />
indflydelse på alle faser i review- eller evalueringsprocessen i overensstemmelse med<br />
forskrifterne inden for den participatoriske læringsdiskurs. Den anden form er en<br />
mindre radikal model, hvor partnerne inddrages på Danidas præmisser. Som vi har<br />
vist i de foregående kapitler, er der ganske store forskelle mellem disse to former for<br />
inddragelse og de magtrelationer, de bidrager til at etablere. Forskelle som de<br />
176
interviewede aktører tilsyneladende ikke har en høj grad af bevidsthed om. Det<br />
resulterer i, at Danida og konsulenter ofte siger ét men gør noget andet.<br />
Førstnævnte form for inddragelse kan – ifølge konsulenter, partnere, evalueringsteori<br />
og de analyserede cases – ikke kombineres med et kontrolformål. Når Danida i dag<br />
anvender participatoriske metoder i forbindelse med reviews og evalueringer, er der<br />
derfor som oftest ikke tale om decideret participatorisk læring, men derimod om<br />
hybrider mellem kontrol og læring, såsom egenkontrol og tvungen konsensus.<br />
Både den participationsorienterede evalueringsteori og de interviewede konsulenter<br />
anser den radikale, myndiggørende inddragelse for den bedste måde at udføre<br />
evalueringer og reviews på og afviser den mere pragmatiske variant som ”pseudo-<br />
inddragelse” (Krogstrup 2001:199). Analysen af de to MISA-reviews og forekomsten<br />
af egenkontrol og tvungen konsensus i den forbindelse underbygger dette synspunkt:<br />
Det er problematisk at omtale og opfatte pragmatisk inddragelse ud fra en participa-<br />
torisk læringsforståelse, da de to former for inddragelse har vidt forskellige magt-<br />
mæssige konsekvenser. Men samtidig ønsker vi ikke at afvise den mere pragmatiske<br />
inddragelse, da de interviewede partnere tydeligt udtrykker en tilfredshed hermed –<br />
til trods for den akademisk funderede kritik af inddragelsen som værende ’pseudo’.<br />
Der er imidlertid to væsentlige svagheder ved den måde, som Danida praktiserer<br />
inddragelse af partnerne på i dag. Først og fremmest opererer Danida med et sæt<br />
foruddefinerede præmisser, som gør det vanskeligt for ikke-kompetente partnere at<br />
deltage. Vi foreslår derfor, at Danida slækker på de skrappe formkrav i forbindelse<br />
med design, udførelse og opfølgning af reviews og evalueringer, sådan at alle<br />
partnerorganisationer ligestilles. En anden svaghed er, at Danida i kraft af<br />
uafhængigheds- og objektivitetskriteriet lægger op til distance mellem konsulenter og<br />
evaluerede aktører med det resultat, at sidstnævnte ofte føler sig behandlet som<br />
”legoklodser” (PO). Som alternativ til denne distance viderebringer vi her et forslag<br />
stillet af en af de interviewede konsulenter om at lade repræsentanter fra<br />
partnerorganisationerne deltage på review- eller evalueringsholdet:<br />
Jeg har lavet en review (…) og der havde vi nogen med fra organisationen, og<br />
det var virkelig en eye-opener for dem, det kan jeg godt love dig. (…) Det er<br />
spørgsmålet om, hvem der ejer de her projekter – det gør… det gør jo… det gør<br />
jo samarbejdspartneren, ikke? Det er deres projekter. (KS)<br />
Vi anbefaler altså Danida at opprioritere inddragelse af de evaluerede aktører i<br />
forbindelse med både reviews og evalueringer, sådan at også de mindre kompetente<br />
partnere har mulighed for medindflydelse, og samtidig advarer vi mod at forveksle<br />
participatorisk læring med mere pragmatiske inddragelsesformer.<br />
177
13.4. Imødegå utrygheden<br />
Vi har nu argumenteret for en højere grad af adskillelse af kontrol og læring samt<br />
anbefalet Danida at anvende participatoriske metoder i så vidt omfang som muligt.<br />
Begge disse tiltag har til formål dels at styrke nytteværdien af reviews og evalue-<br />
ringer og dels at imødegå partnernes utryghed. Partnernes utryghed udgør nemlig et<br />
væsentligt problem i forhold til at realisere både kontroldiskursens ideal om indsam-<br />
ling af objektiv, troværdig information og den participatoriske læringsdiskurs’ forud-<br />
sætning om tillid og åbenhed. Et tredje vigtigt tiltag, som kan understøtte partnernes<br />
tryghed, er at sende klarere signaler om konsulenternes rolle.<br />
Som vi redegjorde for i kapitel 10, opfatter partnerne i udgangspunktet konsulenterne<br />
som værende på Danidas side i en konflikt mellem donor og modtager om bistands-<br />
midler. Denne opfattelse hviler på flere forskellige forhold: Først og fremmest kan<br />
man diskutere, om konsulenterne reelt er så uafhængige af Danida, som både de selv<br />
og Danida gerne vil give indtryk af, og dernæst har partnerne vanskeligt ved at<br />
adskille ambassademedarbejderne og konsulenterne. Disse to forhold vil vi behandle<br />
i det følgende.<br />
13.4.1. Reel uafhængighed?<br />
Konsulenternes økonomiske og vidensmæssige afhængighed af Danida er et vilkår,<br />
som vi ikke vurderer, kan undgås fuldstændigt. Men særligt den vidensmæssige<br />
afhængighed bør Danida kunne minimere ved enten at hyre eksterne konsulenter eller<br />
anvende interne konsulenter, som har et forhåndskendskab til mediebistands-<br />
projekterne og dermed en reel mulighed for at tilrettelægge feltstudieprogrammer og<br />
på andre måder agere uafhængigt af ambassaden.<br />
Og der er mange, der ser på en som en slags… der ikke ser på én som noget,<br />
der er objektivt. ’Nåh, men nu kommer der et dansk evalueringshold, og de er<br />
slet ikke ansat i Udenrigsministeriet’ – det tænker de jo ikke. (…) Og det er<br />
svært at skille… for dem er det svært at skille kasketterne ad, og… og… Det<br />
er ambassaden, der har ringet og aftalt interviewet. Jamen altså, hvordan… De<br />
tænker ikke, at vi er uvildige eller objektive eller noget som helst. ’Der<br />
kommer bare to mere, og de skal have den sædvanlige tale, hvad vi plejer at<br />
sige, ikke? Og det kan jo være, at de går hjem og siger, at vi har brug for noget<br />
mere, så må vi hellere i hvert fald sørge for at få fortalt dem, hvad det er vi har<br />
brug for, ikke?’ (griner)… i stedet for, hvordan det virker, det de har fundet ud<br />
af ind til nu, og hvad de har gang i, og hvad de ellers laver. (KS)<br />
Ifølge denne citerede konsulent ville en tydeligere adskillelse af ambassaden og<br />
konsulenterne bidrage til at øge de evaluerede aktørers opfattelse af konsulenterne<br />
som uafhængige og tillidsvækkende.<br />
13.4.2. Nationalitet<br />
Et andet forhold, som gør det vanskeligt for partnerne at skelne mellem konsulent-<br />
hold og ambassademedarbejdere er, at de ofte har samme nationalitet. I dette citat<br />
178
giver en repræsentant fra en dansk partnerorganisation sin vurdering af, hvordan<br />
evaluerings- og reviewholdene ser ud med de lokale partneres briller:<br />
… det er sådan, at det er folk, der kommer udefra (P2) og så generelt jo altså<br />
kommer sådan dumpende lidt ned fra himlen med lidt kort tid øh… ikke rigtigt<br />
i konteksten, og det er svært for de lokale helt at forstå, hvor de er henne i<br />
konteksten, men åbenbart med sådan en stor magt over deres fremtidige<br />
støttemuligheder. Og hvad er deres rolle i forhold til de andre danskere, de har<br />
at gøre med? Altså, det er… Hvor de jo så nogle gange oplever, at danskerne,<br />
som de har med at gøre, siger to forskellige ting, ikke også, og har to<br />
forskellige dagsordener. Og det tror jeg, kan være lidt svært for dem nogle<br />
gange at holde styr på. (PO)<br />
En konsulent underbygger her den citerede partners påstand om sammenhængen<br />
mellem konsulenternes nationalitet og partnernes utryghed:<br />
De [evaluerede aktører] opfatter os nok som øh… som meget sådan knyttet op<br />
på donoren, kan man sige. Mere end som uafhængige, frit svævende<br />
konsulenter, der kommer ned for at undersøge det her. Det er nogle af de ting,<br />
vi forsøger at forklare folk, når vi interviewer dem: at vi er uafhængige. Men<br />
det er helt klart, at i og med at du har den samme nationalitet… altså som<br />
dansker så bliver du meget ofte ligesom sat i samme båd som ambassaden og<br />
donoren, når du er ude og interviewe. (KS)<br />
Vi ved, at både OECD/DAC og Danida nærer et ønske om at anvende lokale<br />
konsulenter. På baggrund af de eksempler herpå, som vi har kendskab til, kan vi kun<br />
anbefale donorerne at styrke indsatsen for at anvende og uddanne lokale evaluerings-<br />
kyndige. En lokal konsulent har denne vurdering af de evaluerede aktørers syn på<br />
vedkommende:<br />
I was seen as a colleague (…).They saw me as a facilitator and it helped that I<br />
wasn’t from the donor world. (KS)<br />
Denne konsulent foretog reviewet i samarbejde med den mediefaglige medarbejder i<br />
Danidas BFT, som i nedenstående uddrag forklarer, at de to reviewere bevidst<br />
spillede på deres forskellige roller som henholdsvis hvid donorrepræsentant og<br />
afrikansk konsulent:<br />
[[Den anden konsulent]] øh, er øh, fra [[et afrikansk land]] og kender dem, og<br />
er sort. Øh, vi havde et rigtig godt samarbejde, for der var helt klart ting, som<br />
hun kunne sige til dem, som jeg ikke kan sige, uden at blive misforstået.<br />
Selvom budskabet er nøjagtig det samme, og vi siger stort set det samme. Og<br />
hun siger det oven i købet grovere, men hun kan sige det, og det bliver<br />
modtaget, fordi hun er sort, og hun er en af dem. Det er helt klart, at der er<br />
forskel. (…) I den forsamling var jeg det eneste blegansigt, der sad der. Og så<br />
kommer jeg oven i købet fra donorerne med pengene. Så der har du virkelig<br />
sådan nogen stigmaer oven på hinanden, og derfor kunne jeg ikke sidde og sige<br />
de ting. Men til gengæld, da jeg sagde alle de der pæne ting i debriefingen,<br />
hvor dygtige, jeg syntes de var, og hvor fantastiske, jeg syntes de var, da tror<br />
jeg, det betyder mere, at det er mig, der siger det, end at det er hende, der siger<br />
det. (<strong>OG</strong>)<br />
Reviewholdet benyttede således bevidst partnerorganisationens følelse af alliance<br />
med den ene konsulent som en genvej til at få dem til at acceptere negativ kritik, og<br />
179
deres nervøsitet overfor donor til at give større vægt til den positive kritik. Reviewet<br />
af MISA fra 2004 er et eksempel på, at anvendelse af lokale konsulenter ikke blot<br />
øger partnernes tryghed i forbindelse med udførelse af reviews og evalueringer, men<br />
også øger sandsynligheden for en mere konstruktiv opfølgning og accept af kritik.<br />
13.5. En styrket opfølgningspraksis<br />
I det foregående kapitel behandlede vi de forhold, som påvirker Danidas motivation<br />
for at drage konsekvenser af evalueringer og reviews, og vi konkluderede i den<br />
forbindelse, at rotationsordningen udgør en vigtig barriere for realiseringen af Danida<br />
som en lærende organisation. Et af problemerne ved rotationsordningen er, at de for<br />
opfølgningen ansvarlige medarbejdere sjældent føler ejerskab for rapporternes<br />
konklusioner. Vi vurderer, at Danidas opfølgningspraksis kunne styrkes, hvis de<br />
personer, som står for udførelsen af reviews og evalueringer, er de samme, som har<br />
ansvar for opfølgningen.<br />
Der er to måder at sørge for et sådan personsammenfald på: Enten kan man fra<br />
Danidas side vælge at betale de eksterne konsulenter for at sikre en tilfredsstillende<br />
overdragelse til de ansvarlige personer i Danida og partnerorganisationerne. En sådan<br />
løsning ville være dyrere for Danida men til gengæld styrke såvel evalueringers og<br />
reviews’ nytteværdi som konsulenternes arbejdsglæde, jævnfør disses frustration over<br />
at måtte afbryde engagementet i projekterne efter endt afrapportering. En anden<br />
mulighed er i højere grad at lade Danidaansatte deltage på evaluerings- og review-<br />
holdene. Ifølge kontroldiskursens forskrifter er ulemperne ved brug af interne<br />
konsulenter, at de evaluerede aktørers utryghed forstærkes, at risikoen for bias og<br />
subjektivitet øges, samt at resultaternes troværdighed derved svækkes.<br />
Den foregående analyse peger imidlertid på, at de evaluerede aktørers syn på<br />
konsulenterne ikke vil ændre sig afgørende, alt efter om disse er til dagligt er ansat<br />
ved donoragenturet eller ej, idet de alligevel betragter evaluerings- og reviewholdene<br />
som en forlængelse af donoren. I relation til partnernes tryghed kunne anvendelsen af<br />
interne konsulenter måske ligefrem vendes til en fordel, da man herved ville sende<br />
klarere signaler om konsulenternes tilhørsforhold og derved undgå den forvirring,<br />
som er beskrevet i kapitel 10. Analysen viser desuden, at uafhængighed ikke<br />
nødvendigvis garanterer objektivitet og kritik. En af erfaringerne fra den generelle<br />
medieevaluering er således, at den uvidenhed, som udspringer af konsulenternes<br />
uafhængighed, udgør en barriere for fremsættelse af kritiske konklusioner.<br />
Opsummeringen er, at det eneste, Danida for alvor ville sætte på spil, er den<br />
symbolske effekt i forhold omverdenen af at blive evalueret af eksterne, uafhængige<br />
konsulenter. Dette skal opvejes i forhold til fordelene ved at sikre en styrket<br />
opfølgning og organisatorisk læring.<br />
180
13.6. Opsummering<br />
Vi har nu præsenteret en række anbefalinger til styrkelse af fremtidige evalueringer<br />
og reviews af Danidas mediebistandsaktiviteter. Anbefalingerne kan opsummeres i<br />
disse hovedpunkter:<br />
En mere nuanceret forståelse og en højere grad af adskillelse af de to formål<br />
læring og kontrol.<br />
Udvikling af et indikatorværktøj til vurdering af mediebistandens effekter på et<br />
outcome-niveau samt gennemførelse af fokuserede outcome-studier.<br />
Skelnen mellem participatorisk læring og mere pragmatiske inddragelsesformer,<br />
sådan at partnerne ikke foregøgles en indflydelse, som ikke er reel.<br />
Tilrettelægge af evaluerings- og reviewprocesser på en måde, så også mindre<br />
kompetente partnere har mulighed for at få indflydelse.<br />
Imødegåelse af partnernes utryghed ved dels at sikre at konsulenterne kan agere<br />
uafhængigt af ambassaden og ved dels at anvende lokale konsulenter, som de<br />
evaluerede aktører føler en større grad af tillid til.<br />
Styrket opfølgningspraksis, særligt hvad angår Danidas interne, organisatoriske<br />
læring.<br />
181
14. Konklusion<br />
Evalueringer er knudepunkter for forhandlinger om relationer og identiteter. Ved at<br />
stille et bestemt sprog, en videnshorisont og en række subjektpositioner til rådighed,<br />
bidrager evaluering til at forme den måde, vi forstår hinanden, os selv og evaluerin-<br />
gens genstand på. I Danida – som i de fleste andre evaluerende organisationer –<br />
udspiller forhandlingerne sig særligt omkring de to formål kontrol og læring.<br />
Ved at vælge evaluering af dansk mediebistand som analyseobjekt har vi fået et<br />
indblik i, at de involverede aktørers oplevelse af evalueringers kontrol- og lærings-<br />
formål i høj grad afhænger af de positioner og interesser, aktørerne har i en evalue-<br />
ringsproces. Hvor opdragsgiveren, Danida, betragter kontrol som en demokratisk<br />
legitim foranstaltning og læring som et fælles, konsensusbaseret projekt, oplever<br />
konsulenter og de evaluerede aktører, Danidas partnere, kontrol som en utryg inspek-<br />
tionsproces og læringsformålet som en anledning til at erhverve sig medbestemmelse<br />
og bryde opdragsgiverens dominans.<br />
Det enkelte evalueringsforløb er som følge heraf at betragte som en kompleks for-<br />
handlingsproces, hvor aktørerne søger at præge forløbet i overensstemmelse med<br />
deres specifikke interesser. I disse forhandlinger genetableres og udfordres aktørernes<br />
identiteter og indbyrdes relationer, og evaluering af dansk mediebistand bidrager til<br />
at understøtte en kompleks og paradoksal relation mellem Danida og organisationens<br />
partnere.<br />
I det følgende opsummeres specialets indhold, hvilket leder til en besvarelse af<br />
problemformuleringen. Kapitlet afsluttes med en perspektivering af specialets<br />
konklusioner.<br />
14.1. Resumé<br />
Kapitel 1 dannede rammen om en indledende argumentation for valg af evaluering af<br />
mediebistand som analyseobjekt samt en kort introduktion af begreberne evaluering<br />
og mediebistand.<br />
Herefter præsenterede vi i kapitel 2 Foucaults diskursbegreb som det teoretiske afsæt<br />
for analysen. Foucault skelner mellem diskursiv praktik og diskurs, hvor diskurs<br />
forstås som de historiske mulighedsbetingelser for produktionen af udsagn, hvilket i<br />
vores sammenhæng vil sige dominerende teoridannelser og praksisformer på felterne<br />
udviklingsbistand og evaluering. Diskursiv praktik defineres som den konkrete<br />
produktion af udsagn, altså det enkelte evalueringsforløb, der på samme tid påvirkes<br />
af og påvirker de evaluerings- og udviklingsteoretiske diskurser.<br />
182
Kapitel 3, 4 og 5 behandlede dominerende udviklings- og evalueringsteoretiske<br />
diskurser. På det udviklingsteoretiske felt skelnede vi i kapitel 3 mellem en<br />
moderniseringsdiskurs og en kritisk udviklingsdiskurs. Moderniseringsdiskursen<br />
opfatter udvikling som et lineært forløb, hvor donor repræsenterer den efterstræbel-<br />
sesværdige samfundsform og derfor har ret til at opstille mål for udviklingsindsatsen.<br />
Inden for den kritiske udviklingsdiskurs betragtes udvikling derimod som en<br />
forskelligartet og uforudsigelig proces, hvor modtageren selv definerer endemålet<br />
under støtte og vejledning fra donoren. Begge udviklingsdiskurser gør sig gældende<br />
inden for Danidas mediebistandspraksis i dag, hvilket kommer til udtryk gennem<br />
partnerskabsbegrebet, som i sig rummer et paradoks. Paradokset består i, at Danidas<br />
partnere på den ene side skal leve op til en række donordefinerede krav om<br />
eksempelvis demokratisering og respekt for menneskerettighederne, mens de<br />
samtidig forventes at formulere kravene selv. Hermed støder moderniserings-<br />
diskursens asymmetriske donor-modtagerrelation sammen med de idealer om<br />
symmetri og ligeværd, som foreskrives inden for den kritiske udviklingsdiskurs.<br />
I kapitel 4 præsenterede vi to dominerende evalueringsteoretiske diskurser –<br />
kontroldiskursen og den participatoriske læringsdiskurs. Inden for kontroldiskursen<br />
anses evaluering for at spille en vigtig demokratisk rolle i forhold til at holde<br />
offentlige institutioner ansvarlige overfor politikere og borgere, og i den forbindelse<br />
vægtes evalueringers objektivitet, uafhængighed og troværdighed højt. Modsat<br />
forstår den participatoriske læringsdiskurs evaluering som en ramme omkring<br />
deltagelsesdemokratisk udvikling og myndiggørelse. Vi introducerede endvidere en<br />
skelnen mellem konsensus- og konfliktbaseret læring, hvor førstnævnte lærings-<br />
forståelse placerer sig inden for kontroldiskursens forståelsesramme, mens sidst-<br />
nævnte spiller ind i en participatorisk læringsdiskurs. I kapitel 5 sammenlignede vi de<br />
udviklings- og evalueringsteoretiske diskurser og fandt at moderniserings- og<br />
kontroldiskurserne i vid udstrækning trækker på samme ontologiske og epistemo-<br />
logiske hammel, mens den kritiske udviklingsdiskurs og den participatoriske<br />
læringsdiskurs deler idealer om participation, magtkritik og myndiggørelse.<br />
De anvendte metoder blev præsenteret og diskuteret i kapitel 6, og herefter<br />
præsenterede vi analysens resultater i kapitlerne 7-13. Kapitel 7 rummede en<br />
redegørelse for de formelle strukturer omkring Danidas evalueringspraksis og gav en<br />
indledende præsentation af de tre praksisfællesskaber (Star & Griesemer 1989), som<br />
er involveret heri: Danida, Danidas partnere og de eksterne konsulenter. I kapitel 8<br />
præsenterede vi aktørernes forskellige forståelser af og interesser i de to evaluerings-<br />
formål læring og kontrol på baggrund af interviews med i alt 13 repræsentanter for de<br />
tre praksisfællesskaber. Ud fra en analyse af otte kommissorier og rapporter samt en<br />
fremstilling af seks evaluerings- og reviewforløb viste vi i kapitel 9, at alle rapporter<br />
indeholder elementer af læring og kontrol, og at de enkelte forløb opleves vidt<br />
forskelligt af de involverede aktører. Derved udfordrer empirien evalueringsteoriens<br />
183
skarpe skelnen mellem enten læring eller kontrol, og den understreger, at<br />
evalueringsforløb er resultater af forhandlinger. Disse forhandlinger har vi søgt at<br />
belyse i kapitlerne 10-12, som ud fra tre forskellige indgangsvinkler undersøger,<br />
hvordan konsulenternes, partnernes og Danidas identiteter genetableres og udvikles i<br />
evalueringsprocesserne. Kapitel 10 omhandlede den modsætningsfyldte konsulent-<br />
identitet som et symptom på den komplekse donor-modtagerrelation. Kapitel 11<br />
tematiserede den måde, hvorpå de anvendte evalueringskriterier og -metoder bidrager<br />
til at konstruere ’den gode mediebistandsindsats’, og i kapitel 12 fokuserede vi på<br />
partnernes og Danidas interaktion i opfølgningsfasen. Analysen afsluttedes i kapitel<br />
13 med en kort opridsning af anbefalinger til en styrkelse af fremtidens evaluering af<br />
mediebistand.<br />
14.2. Besvarelse af specialets problemformulering<br />
På denne baggrund ser vi os nu i stand til at besvare specialets problemformulering.<br />
Besvarelsen er inddelt i tre afsnit, som hver forholder sig til et af de tre spørgsmål,<br />
vores undersøgelse har været styret af.<br />
14.2.1. Læring og kontrol<br />
I lighed med mange andre offentlige institutioner evaluerer Danida med et dobbelt<br />
formål: læring og kontrol. Disse to begreber er i høj grad genstand for og årsag til<br />
forhandlinger mellem de tre praksisfællesskaber, som er involveret i evaluering af<br />
dansk mediebistand. I problemformuleringen stillede vi spørgsmålene: Hvordan<br />
forstår de involverede aktører begreberne læring og kontrol i forbindelse med<br />
evaluering? Og hvordan afspejles læring og kontrol i evalueringsrapporterne?<br />
De tre praksisfællesskabers forståelser af læring og kontrol er nært knyttet til deres<br />
interesser og udtrykker på en gang, hvilken rolle aktørerne mener, at læring og<br />
kontrol har og bør have i forbindelse med evaluering af dansk mediebistand.<br />
Danida trækker i sin forståelse af kontrol som en demokratisk legitim foranstaltning<br />
og læring som et konsensusbaseret projekt på den evalueringsteoretiske kontrol-<br />
diskurs og bidrager derved til at opretholde sin position som det af de tre praksis-<br />
fællesskaber med den stærkeste position i forbindelse med evaluering og review af<br />
mediebistand. Som donor kan Danida insistere på, at modtagerne af mediebistanden<br />
indvilger i at blive vurderet, og som opdragsgiver har Danida magt til definere formål<br />
og fokus for bedømmelsesaktiviteterne. Ved at hævde at der ikke er tale om<br />
dominans, men i stedet om konsensus og legitimitet, retfærdiggør Danida sin<br />
fordelagtige magtposition.<br />
Omvendt genetablerer Danidas partnere og de eksterne konsulenter i deres<br />
fortolkning af kontrol- og læringsbegreberne den participatoriske læringsdiskurs og<br />
den kritiske udviklingsdiskurs. Partnernes økonomiske afhængighed af Danida og det<br />
184
forhold, at mediebistanden typisk bevilges i få år ad gangen, betyder, at de<br />
evaluerede aktører i udgangspunktet oplever evalueringsprocessen som utryg – en<br />
utryghed, der forstærkes af, at de opfatter konsulenterne som Danidas forlængede<br />
arm og ikke som uafhængige aktører. Som reaktion herpå søger partnerne at få en så<br />
høj grad af medindflydelse på evalueringsresultaterne som muligt, enten ved at<br />
insistere på inddragelse og myndiggørelse eller ved at præsentere konsulentholdet for<br />
det udsnit af virkeligheden, de finder mest opportunt. Lykkes det ikke for partnerne at<br />
få den grad af indflydelse, de ønsker, udmønter det sig dels i vrede mod konsulen-<br />
terne og dels i en afvisning af resultaterne. Under henvisning til at sikre evalueringers<br />
nytteværdi bakker konsulenterne derfor op om partnernes krav om at udføre evalue-<br />
ringer og reviews ud fra en participatorisk læringsmodel. Partnerne og konsulenterne<br />
giver i lighed med evalueringsteorien udtryk for, at kontrol og participatorisk læring<br />
ikke kan forenes i en og samme evalueringsproces.<br />
Imidlertid viste fremstillingen af seks evaluerings- og reviewforløb samt dokument-<br />
analysen, at de enkelte bedømmelsesaktiviteter ikke kan karakteriseres som værende<br />
udført efter enten en kontrolmodel eller en participatorisk læringsmodel. Alle analy-<br />
serede evaluerings- og reviewforløb rummer elementer af begge dele og opleves<br />
forskelligt af de involverede aktører. Dermed udfordrer empirien dels evaluerings-<br />
teorien og dels konsulenters og partneres påstand om, at kontrol og læring per<br />
definition er i uoverensstemmelse med hinanden. Men sammenkoblingen af de to<br />
evalueringsformål fungerer imidlertid heller ikke så gnidningsfrit, som Danidas<br />
uproblematiserende fremstilling af læring og kontrol giver indtryk af. Ved på skift at<br />
trække på de forskellige udviklings- og evalueringsteoretiske diskurser, bidrager<br />
forhandlingerne mellem de tre praksisfællesskaber til at understøtte den komplekse<br />
relation mellem Danida og Danidas partnere på mediebistandsfeltet. Det uddyber vi i<br />
det følgende.<br />
14.2.2. Samspillet mellem diskurs og diskursiv praktik<br />
Vi har nu taget hul på besvarelsen af problemformuleringens overordnede spørgsmål<br />
om, hvordan samspillet mellem dominerende evaluerings- og udviklingsteoretiske<br />
diskurser og Danidas evalueringspraksis foregår. Dette samspil har vi søgt at belyse<br />
ved på den ene side at fokusere på diskursernes indvirkning på den diskursive praktik<br />
gennem en undersøgelse af, hvilke handlingsmuligheder og videnshorisonter, diskur-<br />
serne stiller til rådighed for Danidas partnere, de eksterne konsulenter og Danida som<br />
opdragsgiver. På den anden side stillede vi spørgsmålet om, hvordan evaluerings-<br />
processerne påvirker relationen mellem donor og modtager for derigennem at få ind-<br />
blik i den diskursive praktiks påvirkning af de overordnede rammer for mediebistand.<br />
Mediebistand er i lighed med de øvrige indsatsområder indenfor Danidas støtte til<br />
menneskerettigheder og demokrati kendetegnet ved et komplekst forhold mellem<br />
185
donor og modtager. På den ene side stiller Danida politiske krav og intervenerer<br />
dermed i den lokale samfundsudvikling, på den anden side udtrykker man med<br />
idealer om partnerskab og inddragelse at understøtte lokalt forankrede udviklings-<br />
processer. Ønsker et projekt at modtage dansk mediebistand skal organisationen<br />
derfor erklære sig enig i Danidas målsætninger og prioriteringer. Konsensus – eller<br />
foregivelse af konsensus – er en forudsætning for opretholdelse af partnerskabet.<br />
Dette fænomen kalder vi partnerskabets paradoks.<br />
Partnerskabets paradoks afspejles og understøttes dels i Danidas forståelse af legitim<br />
kontrol og konsensusbaseret læring, og i dels forhandlingerne mellem de tre praksis-<br />
fællesskaber i forbindelse med design, udførelse og konsekvensdragelse af evalue-<br />
ring.<br />
Danida udtrykker ønsker om at inddrage partnerne i designfasen men opstiller<br />
samtidig en række formkrav til eksempelvis udvælgelse af konsulenter og udarbej-<br />
delse af kommissorier. Konsekvensen heraf er, at kun partnerorganisationer, som<br />
formår og er villige til at indgå på Danidas præmisser har mulighed for at øve<br />
indflydelse på evalueringsdesignet.<br />
I forbindelse med udførelsen af evalueringer og reviews er konsulenternes modsæt-<br />
ningsfyldte rolle et symptom på den komplekse donor-modtagerrelation. Konsulente-<br />
rne er splittede mellem på den ene side en moralsk og holdningsmæssig tilskyndelse<br />
til at agere modtagerens advokat og på den anden side en økonomisk og videns-<br />
mæssig afhængighed af Danida. Denne splittelse søger konsulenterne at håndtere ved<br />
at opretholde en uafhængig identitet, som dels kommer til udtryk i rapporterne og<br />
dels i de interviewede konsulenters selvforståelse. At Danida og konsulenterne opret-<br />
holder forståelsen af konsulenten som uafhængig, trods den samtidige erkendelse af<br />
konsulentidentiteten som konfliktfyldt, har konsekvenser for forhandlingerne mellem<br />
donor og modtager. Ved at hævde at konsulenternes vurderinger repræsenterer en<br />
objektiv virkelighed, forhindrer Danida, at interessemodsætningerne mellem donor<br />
og modtager i at komme op til overfladen i evaluerings- og reviewsituationen. Der-<br />
ved skabes et billede af konsensus mellem Danida og Danidas partnere, som er en<br />
forudsætning for opretholdelsen af partnerskabstanken.<br />
Også i forhandlingerne mellem Danida og Danidas partnere i forbindelse med opfølg-<br />
ning på evalueringsresultater genskabes partnerskabets paradoks. I tilfælde hvor part-<br />
nerne ikke umiddelbart kan tilslutte sig konklusionerne og anbefalingerne, må de alli-<br />
gevel foregive at gøre dette for fortsat at gøre sig fortjent til danske bistandskroner.<br />
De må med andre ord bekende sig til donorens værdier for at opretholde partner-<br />
skabet, og sker dette ikke, har Danida muligheden for at presse de evaluerede aktører<br />
hertil ved at true med at lukke bevillingen. Omvendt har partnerne ingen mulighed<br />
186
for at gennemtvinge ændringer i Danidas adfærd, og hermed understreges den para-<br />
doksale partnerrelation, hvor den ene partner understøtter den anden partners<br />
udvikling, men selv forbliver uændret i processen.<br />
Vi har hermed argumenteret for, at Danidas evalueringspraksis på flere måder bidra-<br />
ger til at genforhandle identiteter og relationer på langt mere komplekse måder, end<br />
man kunne forvente ud fra på den ene side Danidas positive forståelser af læring og<br />
kontrol og på den anden side partnernes og konsulenternes negativt ladede, magt-<br />
kritiske fortolkninger af de to formål.<br />
14.2.3. Fremtidens mediebistandsevaluering<br />
Problemformuleringens tredje spørgsmål fokuserer på, hvordan fremtidens evalue-<br />
ring af dansk mediebistand kan styrkes – herunder hvilke barrierer, der karakteriserer<br />
den aktuelle praksis. Dette spørgsmål har vi søgt at besvare ved at belyse de proble-<br />
mer, som er forbundet med den måde, hvorpå evalueringerne bidrager til at konstru-<br />
ere ’den gode mediebistandsindsats’, ’den gode partnerorganisation’ og den rolle-<br />
fordeling, der knytter sig til mediebistanden. Desuden har vi givet et bud på de udfor-<br />
dringer, som er forbundet med at udvikle og operationalisere andre og mere velegne-<br />
de evalueringsmetoder.<br />
Danida opererer med fem evalueringskriterier, der har til formål at vurdere medie-<br />
bistandens effekter ud fra et kortsigtet implementeringsperspektiv (output), et<br />
mellemlangt målgruppeperspektiv (outcome) samt ud fra et langsigtet samfunds-<br />
mæssigt synspunkt (impact). I praksis har konsulentholdene imidlertid vanskeligt ved<br />
at operationalisere outcome- og impactkriterierne. Dette skyldes for det første fravæ-<br />
ret af et indikatorværktøj, for det andet tidsmangel i forbindelse med feltstudier og<br />
for det tredje urealistiske kommissorier, som forhindrer konsulenterne i at fokusere<br />
deres undersøgelser. Resultatet er, at mediebistandsprojekter fortrinsvis vurderes ud<br />
fra deres evne til at levere de aftalte outputs samt i henhold til, hvorvidt deres mål-<br />
sætninger stemmer overens med Danidas forventninger og prioriteringer. Derved<br />
bidrager evalueringer til at definere ’den gode mediebistandsindsats’ som en velfun-<br />
gerende organisation, der overholder de indgåede aftaler, og som Danida kan legiti-<br />
mere at støtte.<br />
Ved at vurdere mediebistand på et outputniveau og ud fra donorens værdier genetab-<br />
lerer evalueringer og reviews den udviklingsteoretiske moderniseringsdiskurs, idet<br />
konsulenterne tager afsæt i foruddefinerede mål i forhold til hvilke, de bedømmer<br />
graden af udvikling. Modsat tager outcome- og impactkriterier højde for målgruppens<br />
vurdering og modtagersamfundets behov, hvorved de i højere grad ser på typen af<br />
187
udvikling i overensstemmelse med forskrifterne inden for den kritiske udviklings-<br />
diskurs.<br />
Partnerorganisationerne tager i nogen grad den nye identitet på sig og søger at leve<br />
op til Danidas evalueringskriterier. Dette fænomen kaldes indikatorfiksering og er et<br />
udtryk for, at de evaluerede aktører internaliserer Danidas kontrol. Vi argumenterer<br />
for en styrkelse af evalueringernes fokus på mellemlange og langsigtede effekter af<br />
mediebistanden, sådan at ’den gode mediebistandsindsats’ i højere grad defineres<br />
som en indsats, der gør en forskel i forhold til målgruppen og samfundet. Dette<br />
mener vi kan opnås ved at investere ressourcer i udvikling af et indikatorværktøj og<br />
gennemførelse af løbende, fokuserede outcomestudier.<br />
Af øvrige anbefalinger til Danida foreslår vi en mere nuanceret forståelse og en<br />
højere grad af adskillelse af de to formål læring og kontrol. I forlængelse heraf finder<br />
vi det væsentligt for resultaternes troværdighed og processens nytteværdi at søge at<br />
imødegå partnernes utryghed ved dels at sende klarere signaler om konsulenternes<br />
rolle og tilknytning til Danida, dels ved kun at gennemføre kontrol, når dette tjener<br />
andet end et reelt og ikke blot et symbolsk formål. Desuden anbefaler vi at tilrette-<br />
lægge evalueringsprocessen på en måde, så også mindre kompetente partnere har<br />
mulighed for at få indflydelse, og endelig ser vi et behov for en styrket opfølgnings-<br />
praksis, særligt hvad angår Danidas interne, organisatoriske læring.<br />
14.3. Perspektivering<br />
I takt med at et stigende antal områder i den danske offentlige sektor gøres til<br />
genstand for evaluering, påvirkes flere og flere menneskers arbejdsliv og identitet af<br />
de bedømmelsesprocesser, de deltager i. Den overordnede motivation bag dette<br />
speciale er at belyse de magtrelationer, som former og formes af evaluering. I<br />
specialets indledning blev problematikken sat på spidsen med spørgsmålet om,<br />
hvilket samfund evaluering i grunden er med til at skabe?<br />
Mediebistand er et særdeles vanskeligt område at evaluere. Indsatsens effekter er<br />
usikre, har en lang tidshorisont og lader sig desuden ikke isolere fra det kompleks af<br />
faktorer, der spiller ind på udviklingen af demokrati og menneskerettigheder. Det<br />
afspejler sig i de analyserede evaluerings- og reviewrapporter, som enten slet ikke<br />
eller på en undvigende facon besvarer Danidas målsætning om at vurdere medie-<br />
bistandens langsigtede virkninger. Trods de tvivlsomme erfaringer fastholder Danida<br />
dog sin målsætning. En vigtig motivation bag evaluering af mediebistand er således<br />
et bredt formuleret ønske om at blive bedre til at forstå og agere i forhold til de udfor-<br />
dringer, Danida står overfor, snarere end en konkret ide om, hvordan målingerne skal<br />
foretages og omsættes i praksis.<br />
188
Dette peger på, at evalueringsbølgens fremmarch i nogen grad kan tilskrives, at<br />
evaluering er et idealistisk projekt – et forsøg på at gøre det uoverskuelige over-<br />
skueligt, at tillægge erfaringer mening.<br />
Bag dette projekt befinder sig de evaluerede aktører, der oplever evalueringer som<br />
utrygge begivenheder, hvor deres identitet og fremtidsperspektiver sættes på spil.<br />
Imidlertid har deres mere negative forståelse af evaluering vanskeligt ved at trænge<br />
igennem den aura af positive termer som læring, inddragelse og ansvarliggørelse, der<br />
kendetegner den officielle evalueringsdebat. En debat, som sjældent levner rum for<br />
spørgsmål om, hvorvidt evalueringer er rimelige, hvilke magtrelationer evalueringer<br />
medfører, og hvilken virkelighed, de bidrager til at konstruere.<br />
Derfor har de evaluerede aktører ofte kun én mulighed for at reagere mod utryg-<br />
heden: At indgå på de dominerende evalueringsdiskursers vilkår ved eksempelvis at<br />
tilkæmpe sig en så høj grad af inddragelse som muligt ud fra argumenter om selv-<br />
refleksion og læring eller ved at fremstille sig selv i et positivt lys. Evnen til at begå<br />
sig på evalueringers præmisser er således et vigtigt aktiv for alle organisationer og<br />
individer, som gøres til genstand for evaluering – fra kontanthjælpsmodtagere over<br />
skoleelever til lokalradioprojekter i Bangladesh.<br />
Specialet illustrerer, at den magt, som udøves gennem evaluering, er langt mere<br />
kompleks end spørgsmålet om en overordnet myndigheds kontrol af en underordnet.<br />
Kontroldimensionen internaliseres, hvorved evalueringernes kriterier bidrager til at<br />
forme identiteter og relationer. Det er altså ikke ligegyldigt, hvilke kriterier og<br />
metoder, evaluerede aktiviteter vurderes på baggrund af. Netop derfor er det vigtigt,<br />
at Danida, i lighed med andre opdragsgiverinstitutioner, bestræber sig på at nuancere<br />
sin opfattelse af, hvad evaluering gør ved mediebistand og andre evaluerede indsatser<br />
– også selvom denne opfattelse udfordrer de positive og idealistiske diskurser, som<br />
omgiver evalueringspraksis i dag.<br />
189
Litteratur<br />
Alasuutari, Perrti (1995): Researching Culture. Qualitative method and cultural studies.<br />
Vastapaino, Tampere.<br />
Albæk, Erik (2001): “Hvorfor nu al den evaluering?” in Dahler-Larsen & Krogstrup (red.):<br />
Tendenser i evaluering, Syddansk Universitetsforlag, s. 32-45.<br />
Alkin, Marvin C. (1990): Debates on Evaluation, Sage Publications, London.<br />
Alvesson & Sköldberg (1994): Tolkning och reflektion. Vetenskapsfilosofi och kvalitativ<br />
metod, Studenlitteratur, Lund.<br />
AMI/Andersen Management International (2003): “Undersøgelse af evalueringsholdenes<br />
uafhængighed”. In: Udredning af Danidas evalueringsfunktion. Udenrigsministeriet,<br />
Danida: Januar 2003.<br />
Argyris, Chris (1995): On Organizational Learning, 5. udgave (1. udg.: 1992), Blackwell<br />
Publishers.<br />
Beck, U., Giddens, A. & Lash, S. (1994): Reflexive Modernization, Polity Press, London.<br />
Berger, Guy (1991): It's the training that did it. A primer for media trainers to assess their<br />
impact, downloadet fra<br />
http://journ.ru.ac.za/staff/guy/Research/Journalism%20education/trainimpact.htm d. 16.<br />
februar 2005.<br />
Bickman, Leonard (1997): “Evaluating Evaluation: Where Do We Go From Here?” in:<br />
Evaluation Practice, 18(1), 1997, s. 1-16.<br />
Binnendijk, Annette (2001): Results Based Management in the Development Co-operation<br />
Agencies: A Review of Experience. Executive Summary. OECD, DAC Working Party on<br />
Aid Evaluation, November 2001.<br />
Bowker, Geoffrey & Star, Susan Leigh (1999): Sorting Things Out – Classification and Its<br />
Consequences (kapitel 9: The Theory and Practice of Classifications). Cambridge: MIT<br />
Press, s. 283-317<br />
Brett, E.A. (2000): ”Development theory in a post-socialist era: competing capitalisms and<br />
emancipatory alternatives” in Journal of International Development. - 12, no. 6, s. 189-<br />
202<br />
Breum, Martin (1997): ”Diskussionsoplæg – modtagerlandenes erfaringer”. IN: Støtte til<br />
fremme af en fri presse i udviklingslandene. Seminar om erfaringer og perspektiver.<br />
Udenrigsministeriet, Danida: Maj 1997.<br />
Brice, Rønning & Stokke (2004): Looking for Trouble. An Evaluation of International Media<br />
Support (IMS): Exploring a model for rapid response to threatened media. Chr.<br />
Michelsen Institute, Bergen 2004.<br />
http://www.cmi.no/publications/publication.cfm?pubid=1795<br />
Chambers (1983): Rural Development. Putting the Last First. Pearson Education Limited,<br />
Essex.<br />
Chambers (1993): Challenging the Professions. Frontiers for rural development. Intermediate<br />
Technology Publications. London.<br />
190
Chambers (1997): “Responsible Well-Being – A Personal Agenda for Development”. IN:<br />
World Development, vol. 25, No. 11, pp. 1743-1754. Elsevier Science Ltd. Great Britain.<br />
Christensen, Allan (1997): “Den organisatoriske lærings dynamik – diskussion af betydende<br />
teoretiske elementer” in: Christensen (red.): Den lærende organisations begreber og<br />
praksis, Aalborg Universitetsforlag, 1998 (2. oplag), s. 11-36.<br />
Chelimsky, Eleanor (1995): “Evaluation for at New Century: A Global Perspective. The<br />
Political Environment of Evaluation and What It Means for the Development of the<br />
Field” in: Evaluation Practice, 16(3), 1995, s. 215-225.<br />
Chen, Huey-tsyh (1996): “Epilogue: Synthesizing Formative/Summative Evaluation Issues<br />
and Beyond” in: Evaluation Practice, 17(2), 1996, s. 163-167.<br />
Dabelstein, Niels (1998): ”Danidas evalueringspolitik og -praksis” in: Den Ny Verden:<br />
Evaluering af Udvikling, april 1998, Center for Udviklingsforskning, København, s. 154-<br />
166<br />
Dahler-Larsen, Peter (1998A): Den Rituelle Reflektion – om evaluering i organisationer.<br />
Odense Universitetsforlag, 1998.<br />
Dahler-Larsen, Peter (1998B): ”Evaluering, legitimitet og inkonsekvens” i Den Ny Verden:<br />
Evaluering af Udvikling, april 1998, Center for Udviklingsforskning, København, s. 57-<br />
75.<br />
Dahler-Larsen, Peter & Krogstrup, Hanne-Kathrine (2001): ”Tendenser i evaluering – en<br />
introduktion” in Dahler-Larsen & Krogstrup (red.): Tendenser i evaluering, Syddansk<br />
Universitetsforlag, 2001, s. 13-20.<br />
Dahler-Larsen, Peter (2004): Evaluering og magt. Magtudredningen, Aarhus Universitet.<br />
Danida (1993): Menneskerettigheder og demokrati i dansk udviklingspolitik. Perspektiver for<br />
udviklingssamarbejdet, Udenrigsministeriet, 1993.<br />
Danida (1994A): En verden i udvikling. Strategi for dansk udviklingspolitik frem mod år<br />
2000. Udenrigsministeriet, marts 1994<br />
Danida (1994B): Menneskerettigheder og demokratisering i udviklingslandene. Seminar om<br />
erfaringer og perspektiver i dansk bistand. Udenrigsministeriet, juni 1994.<br />
Danida (1994C): Policypapir vedrørende støtte til fremme af en fri presse i udviklingslandene.<br />
Udenrigsministeriet, juli 1994.<br />
Danida (1995): Retningslinjer for private danske organisationer om støtte til<br />
udviklingsprojekter, Udenrigsministeriet, 1995<br />
Danida (1997): Støtte til fremme af en fri presse i udviklingslandene. Seminar om erfaringer<br />
og perspektiver. Udenrigsministeriet, maj 1997.<br />
Danida (1999): Evaluation Guidelines, Udenrigsministeriet, februar 1999<br />
Danida (2000A): Evaluation of Danish Support to Promotion of Human Rights and<br />
Democratisation 1990-1998, volume 4: Media. Udenrigsministeriet, januar 2000.<br />
Danida (2000B): Partnerskab 2000. Danmarks udviklingspolitik. Analyse.<br />
Udenrigsministeriet, Danida, Oktober 2000.<br />
191
Danida (2003A): Udredning af Danidas evalueringsfunktion. Udenrigsministeriet, januar<br />
2003.<br />
Danida (2003B): Guidelines for Project Management, Udenrigsministeriet, november 2003.<br />
Danida (2003C): Evaluation. Danish Regional Assistance to Southern Africa.<br />
Udenrigsministeriet, Danida, februar 2003<br />
Danida (2004A): Danidas årsberetning 2003. Udenrigsministeriet 2004.<br />
Danida (2004B): Sikkerhed, vækst – udvikling. Regeringens prioriteter for dansk<br />
udviklingsbistand 2005-2009. Udenrigsministeriet, August 2004.<br />
Dansk Evaluerings Selskab (2004): Evalueringsterminologi Engelsk-Dansk. Dansk<br />
Evaluerings Selskab.<br />
Davies, Charlotte Aull (1999): Reflexive Ethnography. A guide to researching selves and<br />
others, Routledge, New York, s. 3-25<br />
Degnbol-Martinussen (1994): Samfund, stat og marked: En kritisk gennemgang af teorier om<br />
udvikling i den tredje verden. Mellemfolkeligt samvirke.<br />
Degnbol-Martinussen og Engberg-Pedersen (1999): Bistand – udvikling eller afvikling,<br />
Mellemfolkeligt Samvirke.<br />
Degnbol-Martinussen (2002): Globalisering og udvikling: Teorier og perspektiver for ulandene.<br />
Mellemfolkeligt Samvirke,<br />
Dollar, David & Kraay, Art (2002): “Growth is Good for the Poor”. Journal of Economic<br />
Growth, 7(3), s. 195–225, September 2002.<br />
Easton, David (1957): “An Approach to the Analysis of Political Systems”. In: World<br />
Politics, vol. 9, no. 3, pp. 383-400.<br />
Elliott, C. (1987): ”Some aspects of relations between the North and South in the NGO<br />
Sector” Citeret I: Lister, Sarah, (2000): “Power in Partnership? An Analysis of an NGO’s<br />
Relationships with its Partners”. IN: Journal of International Development, 12, 227-239<br />
(2000).<br />
Ellis and Biggs (2001): “Evolving Themes in Rural Development 1950s-2000s”. IN:<br />
Development Policy Review, 2001, 19 (4): 437-448<br />
Ferguson, James (1994): The Anti-Politics Machine. “Development”, Depoliticization and<br />
Bureaucratic Power in Lesotho, University of Minnesota Press, Minneapolis, London.<br />
Fetterman, David M., (1996): “Empowerment Evaluation: An Introduction to Theory and<br />
Practice” in: Fetterman, Kaftarian & Wandersman (red): Empowerment Evaluation.<br />
Knowledge and Tools for Self-assessment & Accountability, Sage Publications, 1996, s.<br />
3-48.<br />
Foucault, Michel (1978): Viljen til viden: seksualitetens historie 1 (kapitlet: ”Anliggende og<br />
metode”). Rhodos, København 1978.<br />
Foucault, Michel (1980): Power/Knowledge. Selected Interviews and Other Writings 1972-77<br />
by Michel Foucault. (Colin Gordon, red.). New York: Harvester, 1980.<br />
192
Foucault, Michel (1991): “Politics and the Study of Discourse”. In: G. Burchell, C.Gordon,<br />
and P.Miller (red.), The Foucault effect, studies in governmentality, s. 53-72. Chicago:<br />
The University of Chicago Press.<br />
Foucault, Michel (1994): Overvågning og Straf (kapitel 3: ”Panoptismen”). Det lille Forlag, s.<br />
176-201<br />
Freire, Paulo (1993 [1973]): De undertryktes pædagogik. 1. udgave, 9. oplag. Christian Ejlers<br />
Forlag 1993<br />
Freire, Paulo (1972): Pedagogy of the Oppressed. Herder and Herder, New York.<br />
Guba, Egon G. & Lincoln, Yvonna, S. (1987): “The Countenance of Fourth Generation<br />
Evaluation: Description, Judgement, and Negotiation” in The Politics of Program<br />
Evaluation, Sage Publications, 1987. s. 202-234.<br />
Hansen, Hanne Foss (2001): ”Rejsende praksis: Hvilke forhold påvirker udviklingen af<br />
evalueringspraksis på forskellige politikområder?” in Dahler-Larsen & Krogstrup (red.):<br />
Tendenser i evaluering, Syddansk Universitetsforlag, 2001, s. 109-129.<br />
Hansen, Hanne Foss (2003): Evaluering i staten. Kontrol, læring eller forandring?,<br />
Samfundslitteratur, 2003.<br />
Hansen, Kasper M. (2004) ”Evaluering i et demokratisk perspektiv” in Evalueringsnyt, nr. 3 -<br />
august. Dansk Evaluerings Selskab. s. 20-27.<br />
Høgsbro, Kjeld & Rieper, Olaf (2001): ”Formativ evaluering” in Dahler-Larsen & Krogstrup<br />
(red.): Tendenser i evaluering, Syddansk Universitetsforlag, 2001, s. 180-194.<br />
Kapoor, Ilan (2004): “Donor Participatory Governance Evaluation: Initial Trends,<br />
Implications, Opportunities, Constraints.” in: Journal of International Development, 16,<br />
2004, s. 157-170.<br />
Katîc, Stefan (2004): ”Rådgivningsbranchen efter blodbadet 2001-2003: Kontraktjagten<br />
fortsætter”. In: Tidsskriftet Udvikling nr. 5/2004.<br />
Kattenhøj, Christensen og Gram (2004): Udviklingskommunikation – en synergi af metoder.<br />
Institut for Informations- og Medievidenskab, januar 2004. Opgave afleveret i faget<br />
”Medier i overgangs- og 3. verdenslande” v. Poul Erik Nielsen.<br />
Kjekshus, Helge (2001): “Evaluation Policy and Performance: The State of Art” in Stokke,<br />
Olav (red.): Evaluating Development Assistance: Policies and Performance, Frank Cass,<br />
London, 1991. s. 60-70<br />
Krogstrup, Hanne-Kathrine (2001): ”Brugerinddragelse i evaluering – top-down og bottom-up<br />
perspektiver” in Dahler-Larsen & Krogstrup (red.): Tendenser i evaluering, Syddansk<br />
Universitetsforlag, 2001, s. 195-210.<br />
Kvale, Steinar (1997): InterView. En introduktion til det kvalitative forskningsinterview. Hans<br />
Reitzels Forlag, København 1997.<br />
Latour, Bruno (1986): “The Powers of Association”. I John Law (ed.) Power, Action and<br />
belief. London: Routledge & Kegan Paul, s. 264-280<br />
Laursen, Erik (1997): “Glemsel, Leg og Hierarkisering. Nye muligheder og gamle barrierer<br />
for organisatorisk læring” in: Christensen (red.): Den lærende organisations begreber og<br />
praksis, Aalborg Universitetsforlag, 1998 (2. oplag), s. 37-58.<br />
193
Lindgren, Sven-Åke (1996): ”Michel Foucault” I H. Andersen & L.B. Kaspersen (red.),<br />
Klassisk og moderne samfundsteori - en introduktion, Hans Reitzels Forlag, København,<br />
2000 (2. reviderede udgave), s. 326-341.<br />
Lukes, Steven (1973): Power - A Radical View, London: Macmillan<br />
Marsden, David; Oakley, Peter & Pratt, Brian (1994): Measuring the Process: Guidelines for<br />
Evaluating Social Development, INTRAC, England: Oxford<br />
Morgan, Gareth (1986): Images of Organization, Sage, London<br />
Mosse, David (1993): Authority, Gender and Knowledge: Theoretical Reflections on the<br />
Practice of Participatory Rural Appraisal. The Overseas Development Administration,<br />
London, 1993.<br />
Mosse, David (2001): “‘People’s Knowledge’, Participation and Patronage: Operations and<br />
Representations in Rural Development” in Cooke, Bill & Kothari, Uma (red.):<br />
Participation – The New Tyranny?, Zed Books, London/NY, 2002 (2. udgave), s. 16-35<br />
Nymark, Søren (1997): “Læring, forandring og organisation – et kritisk perspektiv” in:<br />
Christensen (red.): Den lærende organisations begreber og praksis, Aalborg<br />
Universitetsforlag, 1998 (2. oplag), s. 59-80.<br />
OECD (2001): Net Official Development Flows in 2000, OECD, DAC, 2001<br />
Patton, Michael Quinn (1986): Utilization-focused Evaluation, 2. udgave, Sage Publications<br />
Patton, Michael Quinn (1994): “Developmental Evaluation” in: Evaluation Practice, 15(3),<br />
1994, s. 311-320<br />
Patton, Michael Quinn (1996): “A World Larger than Formative and Summative” in:<br />
Evaluation Practice, 17(2), 1996, s. 131-144<br />
Power, Michael (1997): The Audit Society. Rituals of Verification. Oxford University Press,<br />
“Introduction” s. i-xvii.<br />
Perry, Patricia D. & Backus, Cheryl (1995): “A Different Perspective on Empowerment in<br />
Evaluation: Benefits and Risks to the Evaluation Process” in: Evaluation Practice, 16(1),<br />
1995, s. 37-46.<br />
Preskill, Hallie & Torres, Rosalie T. (1999): Evaluative Inquiry for Learning in<br />
Organizations, Sage Publications, 1999.<br />
Pretty, Jules (1995): “Participatory learning for sustainable agriculture” in: World<br />
Development 23 (8), s. 1247-1263<br />
Rossi, Peter H., Lipsey, Mark W. & Freeman, Howard E. (1985/2004): Evaluation: a<br />
systematic approach, Sage Publications, 2004, 7. udgave.<br />
Schaumburg-Müller, Henrik (1998): ”Evaluering af sektorprogrambistand” i Den Ny Verden,<br />
april 1998, Center for Udviklingsforskning, København, s. 103-119<br />
Schaumburg-Müller, Henrik & Wad, Peter, 1998: ”Evaluering i udvikling” i Den Ny Verden,<br />
april 1998, Center for Udviklingsforskning, København, s. 5-19.<br />
Scriven, Michael (1967): “The Methodology of Evaluation” in R.W. Tyler, R.M. Gagne, M.<br />
Scriven (red.): Perspectives of curriculum evaluation, Rand McNally, 1967, s. 39-83<br />
194
Scriven, Michael (1991): “Beyond Formative and Summative Evaluation” in McLaughlin &<br />
Phillips (red.): Evaluation and Education: At Quarter Century, The University of<br />
Chicago Press, 1991, s. 18-64<br />
Scriven, Michael (1995): “Evaluation Consulting” in: Evaluation Practice, 16(1), 1995, s. 47-<br />
57.<br />
Scriven, Michael (1996): “Types of Evaluation and Types of Evaluator” in: Evaluation<br />
Practice, 17(2), 1996, s. 151-161.<br />
Scriven, Michael (1997): “Truth and Objectivity in Evaluation” In Chelimsky & Shadish<br />
(red.): Evaluation for the 21 st Century: A handbook. Thousand Oaks, s. 477-500<br />
Sen, Amartya (1999): Development as Freedom, Oxford University Press<br />
Servaes (1996): “Participatory Communication Research with New Social Movements: A<br />
Realistic Utopia”, In: Jan Servaes, Thomas L Jacobson, Shirley A White: Participatory<br />
Communication for Social Change, Sage.<br />
Shadish, William R. Jr., Thomas D. Cook, Laura C. Leviton (1991): Foundations of program<br />
evaluation: theories of practice, Sage.<br />
Silverman, David (1993): Interpreting Qualitative Data. Sage, London, s. 1-29 & 196-211<br />
Silverman, David (2000): Doing Qualitative Research. A Practical Handbook, Sage, London<br />
s. 175-189 & s. 283-297.<br />
Snyder, Monteze M. & Doan, Peter L. (1995): “Who Participates in the Evaluation of<br />
International Development Aid?” in: Evaluation Practice, 16(2), 1995, s. 141-152.<br />
Star, Susan Leigh & Griesemer, James R. (1989): ”Institutional Ecology, ’Translation’, and<br />
Boundary Objects – Amateurs and Professionals in Berkeley’s Museum of Vertebrate<br />
Zoology, 1907-1939”. I Social Studies of Science, vol. 19, s. 387-420<br />
Stokke, Olav: “Policies, Performance, Trends and Challenges in Aid Evaluation” in Stokke,<br />
Olav (red.): Evaluating Development Assistance: Policies and Performance, Frank Cass,<br />
London, 1991. s. 1-59<br />
Strauss, Anselm (1978): ”A Social World Perspective” in Studies in Symbolic Interaction, vol.<br />
1, s. 119-128<br />
Strauss, Anselm & Glaser, Barney (1967): The discovery of grounded theory : strategies for<br />
qualitative research. Weidenfeld and Nicolson<br />
Torres, Rosalie T., Preskill, Hallie S. & Piontek, Mary E.(1997): “Communicating and<br />
Reporting: Practices and Concerns of Internal and External Evaluators” in: Evaluation<br />
Practice, 18(2), 1997, s. 105-125.<br />
Udenrigsministeriet (2004): Evalueringsprogram 2004-2005, Udenrigsministeriet,<br />
Sydgruppen.<br />
Vedung, Evert (1998): Utvärdering i politik och forvaltning, Lund: Studentlitteratur, 1998.<br />
Vedung, Evert (2000): Utvärdering, demokrati och reflexiv modernitet, Uppsala Universitet,<br />
Institutet för bostadsforskning, 2000.<br />
Wad, Peter, 1998: ”Evaluering er ikke forskning, men alligevel…” i Den Ny Verden, april<br />
1998, Center for Udviklingsforskning, København, s. 34-56.<br />
195
Foredrag<br />
Annual Development Symposium, 10. september 2004. Aarhus Universitet, Søauditoriet.<br />
Arrangør: Centre for Tropical Ecosystems Research (cenTER).<br />
Evaluering af udviklingsbistand, foredrag v. Niels Dabelstein, Danida, og Janne Tynell, RUC,<br />
Ibis, Århus 17. marts 2004.<br />
196
Bilagsoversigt<br />
Bilag 1 Transskriberede interviews<br />
1A KS / PO<br />
1B <strong>OG</strong><br />
1C <strong>OG</strong><br />
1D KS<br />
1E KS / PO<br />
1F PO<br />
1G KS / PO<br />
1H KS / PO<br />
1I PO<br />
1J KS<br />
1K <strong>OG</strong><br />
1L KS<br />
1M <strong>OG</strong><br />
Bilag 2 Danidas mediebistand 1990-1998<br />
Bilag 3 Indsamling og behandling af interviews<br />
3A Eksempel på spørgeguide<br />
3B Eksempel på kodning af interviews<br />
Bilag 4 Tekstanalyse<br />
4A Registrant: NSJ 02<br />
4B Registrant: MISA 02<br />
4C Registrant: Den generelle medieevaluering (Danida 2000A)<br />
4D Registrant: MISA 01/02<br />
4E Registrant: Bangladesh 02<br />
4F Registrant: Zambia 02<br />
4G Registrant: NSJ 03<br />
4H Registrant: MISA 04<br />
4I Samlet oversigt over registranter<br />
197
Bilag 5 Oversigt over Danidas projektdokumentation<br />
Bilag 6<br />
Bilag 7<br />
Bilag 8<br />
Bilag 9<br />
Evaluering af Nordic-SADC School of Journalism, 2002<br />
Delrapport under Evaluation. Danish regional assistance to Southern Africa,<br />
Danida 2003C<br />
Evaluering af Media Institute of Southern Africa, 2002<br />
Delrapport under Evaluation. Danish regional assistance to Southern Africa,<br />
Danida 2003C<br />
Joint Evaluation and Review of the Media Institute of Southern Africa<br />
(MISA), 2001/200<br />
Support to the Local Press, Phase 2, Review Report, Bangladesh, 2002<br />
Bilag 10 Danish Support to the Promotion of Professional, Free and Independent<br />
Media, Phase II. Zambia, 2002<br />
Bilag 11 Review of NSJ (Southern African Media Training Trust), Phase III, 2001-<br />
2003<br />
Bilag 12 Annual Review of Media Institute of Southern Africa 2004 (MISA), Draft<br />
Report<br />
198
Abstract<br />
Motivation<br />
This MA thesis is about evaluation. In particular, it deals with evaluations of promotion<br />
of free media in developing countries (media development) carried out within the<br />
Danish international development assistance (Danida). Development aid is one of the<br />
public sectors which has been evaluated for many years. Evaluation is thus a strongly<br />
integrated element of any development activity within Danida. However, evaluations<br />
are not neutral incidents: everywhere they are being carried out their assessments<br />
influence the involved participants’ understanding of success and failure, and within<br />
the field of media development they seem to ultimately contribute to structure and form<br />
Danida’s activities.<br />
Analysis<br />
The theoretical foundation is Foucault’s discourse analysis and genealogic method<br />
(Foucault 1978, 1991) and empirically the point of departure is the double objective<br />
that characterizes evaluations of media development aid: On the one hand evaluation<br />
should document the use and results of aid resources (control), and on the other hand it<br />
should contribute to the improvement of aid by accumulating experience (learning)<br />
(Hansen 2003).<br />
The objective of the thesis is A) to study how the involved actors understand and<br />
practice the ideas of control and learning, B) to identify the interaction between<br />
evaluation as a discoursive practice and the dominant discourses within the fields of<br />
evaluation and development, and C) to define barriers in Danida’s present evaluation<br />
practice and to contribute with proposals for future adjustments to this.<br />
Apart from a theoretical foundation, the thesis contains two parts. The first part is a<br />
theoretically based analysis of discourses within the field of evaluation and within the<br />
field of development respectively. The second part is an empirical study of evaluation<br />
of Danish media development aid. The study is based on eight evaluation reports and<br />
thirteen interviews with persons who are experienced either in ordering, carrying out,<br />
or being objects of evaluations of media development projects.<br />
199
Results<br />
The theoretical study identifies four different discourses. Firstly, two development<br />
discourses: the modernisation discourse and the critical development discourse. In the<br />
modernisation discourse development is seen as a linear process where donors<br />
represent the ideal society and therefore have the power to define the objectives of<br />
development. Within the critical development discourse development is considered an<br />
unpredictable process in which recipients take part in defining the objectives. Both<br />
discourses are present in Danida’s media development practice – something that<br />
contributes to creating a highly complex relationship between Danida and its partners.<br />
Secondly, two evaluation discourses are defined: the control discourse and the<br />
participatory learning discourse. In the control discourse evaluation is seen as an<br />
important element of ensuring accountability within public institutions. Consequently,<br />
objectivity and independency are highly appreciated features in this type of evaluation.<br />
On the other hand, evaluation in the participatory learning discourse is considered a<br />
frame of participatory development and empowerment of the participants.<br />
The findings in the empirically founded analysis are separated in three sections<br />
mirroring the three questions above:<br />
Control and learning<br />
Three different groups of actors are involved in the evaluation of Danish media<br />
development aid: Danida, Danida’s partners and external consultants who carry out<br />
evaluations. The study examines how these groups of actors understand the ideas of<br />
learning and control. It concludes that there is a close connection between the concepts<br />
of learning and control respectively and the specific organisational interests of each<br />
group. On the one hand Danida considers control a legitimate part of running projects<br />
while learning is considered a consensus-based activity which results in the<br />
improvement of aid. Both control and learning are catalysed by ‘objective information’<br />
gathered by external - and therefore independent consultants. This concept is in<br />
keeping with the control evaluation discourse and the modernisation development<br />
discourse.<br />
On the other hand Danida’s partners and the external consultants are in keeping with<br />
the participatory learning discourse and the critical development discourse. Evaluations<br />
should be participatory learning processes instead of events of inspection and control.<br />
The latter causes insecurity among the partners because they fear that a negative<br />
evaluation might cost them their future grant. This situation often results in a process of<br />
limited benefit to the partners, which is unsatisfactory to the consultants who prefer to<br />
conduct evaluations that are useful to the partners.<br />
200
Interaction between discourse and discoursive practise<br />
The interaction between the dominant evaluation and development discourses and<br />
evaluation as a discoursive practice (Foucault 1978, 1991) is analysed by focusing<br />
partly on the negotiations of identities and relationships between the involved actors<br />
and partly on how these identities relate to the positions of power made available by the<br />
various discourses.<br />
Danish media development aid is characterized by a highly complex relationship<br />
between donor and recipient. On the one hand the donor – Danida – expresses ideals of<br />
partnership and involvement that indicate acknowledgement of the values and wishes<br />
of the recipient society. On the other hand, a condition for every project applying for<br />
Danish media development aid is to agree with Danida’s objectives and priorities. This<br />
schism between ideals and practise constitutes what is called the ‘paradox of<br />
partnership’. In the analysis it is found that the paradox influences different phases of<br />
the evaluation right from initiating the process to implementing the recommendations.<br />
It is seen that when consultants carry out reviews and evaluations, they are placed in a<br />
conflicting position, caused by the complex relation between donor and recipient. The<br />
consultants are divided between a morally based incentive to act as ‘the lawyer’ of the<br />
partners on the one side and on the other a dependency of Danida as to knowledge and<br />
economy. The consultants deal with this division by trying to maintain an identity as<br />
independent evaluators – a concept of the consultant’s role, which is also found within<br />
Danida. But emphasizing an independency and neutrality which is not real has<br />
consequences. Claiming that the consultants’ findings are independent and therefore<br />
represent an objective reality prevent the conflict of interests between donor and<br />
recipient from being dealt with in the review or evaluation. In this way, evaluations and<br />
reviews contribute to creating a picture of consensus between Danida and Danidas<br />
partners – a consensus which supports the idea of ‘partnership’.<br />
The idea of consensus is furthermore emphasized in the negotiations between Danida<br />
and its partners regarding the most appropriate way of following up on the evaluation<br />
results. The thesis shows that in this part of the evaluation process, Danida and the<br />
external consultants often make the partners follow Danidas instructions and priorities,<br />
even if they might disagree with these. This is done either by threats about withdrawing<br />
the grant or by exerting power in more subtle ways, such as making the evaluated<br />
organisation internalize control and discipline themselves according to Danida’s<br />
directions. In this way Danida succeeds in maintaining the idea of partnership under<br />
cover of involvement and consensus.<br />
201
Barriers for evaluation of media development aid and its future<br />
In the thesis it is argued that Danida’s evaluation criteria are difficult to implement in<br />
practice when it comes to media development aid. As a consequence media<br />
development projects are assessed on easily measurable outputs as well as to which<br />
extent the objectives of a project are coherent with Danida’s expectations and priorities.<br />
It follows from this that evaluations contribute to defining ‘the good media<br />
development project’ as an efficient and well-run organisation that shares the values of<br />
the donor.<br />
Assessing media development aid on already defined criteria and ideas of development<br />
and on its coherence with the priorities of the donor supports the modernisation<br />
discourse. From our point of view there are good reasons for strengthening the focus of<br />
evaluations on long-term effects of media development, and it is important from both a<br />
control and a learning perspective respectively to consider short- and long-term effects.<br />
This would imply that ‘the good media development project’ to a greater extent is<br />
defined as a project that makes an actual difference to its target group and society. It<br />
does, however, require that Danida invests resources in developing an indicator tool<br />
and that frequent focused studies of outcome are carried out.<br />
In addition, we propose that Danida develops a more sophisticated concept of control<br />
and learning and that a higher degree of separation between these two objectives of<br />
evaluation is implemented. This would contribute to more open and transparent<br />
evaluation processes and less insecurity among partners. Also, this insecurity seems to<br />
be lessened when consultants from the recipient state or region take part in carrying out<br />
the evaluation.<br />
We furthermore argue that each evaluation should be planned and carried out in a way<br />
so that more partner organisations, no matter how well organised or professional they<br />
are, are able to have influence on the evaluation process. Lastly, we see a need of<br />
strengthening the way evaluations are followed up upon, especially in order to help<br />
realising Danida’s ideals of promoting learning.<br />
202