15.07.2013 Views

KONTROL OG LÆRING - Akademisk Opgavebank

KONTROL OG LÆRING - Akademisk Opgavebank

KONTROL OG LÆRING - Akademisk Opgavebank

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>KONTROL</strong><br />

<strong>OG</strong> <strong>LÆRING</strong><br />

Evaluering af dansk<br />

mediebistand<br />

i et diskursanalytisk perspektiv<br />

Speciale i Medievidenskab, Aarhus Universitet<br />

Af:<br />

Line Thaudahl Jakobson, 19993271<br />

Anna Bak Larsen, 19993490<br />

Vejleder:<br />

Poul Erik Nielsen<br />

Februar 2005<br />

1


1. Indledning................................................................................................................8<br />

1.1. Indkredsning af problemfelt ...................................................................................8<br />

1.2. Problemformulering .............................................................................................10<br />

1.3. Læsevejledning....................................................................................................11<br />

1.3.1. Specialets første del: teoretisk og metodisk afsæt.................................11<br />

1.3.2. Specialets anden del: Analyse ...............................................................12<br />

1.4. Begrebsafklaring..................................................................................................14<br />

1.4.1. Mediebistand ..........................................................................................14<br />

1.4.2. Evaluering...............................................................................................16<br />

2. Teoretisk afsæt .....................................................................................................19<br />

2.1. Evaluering af mediebistand i et diskursperspektiv...............................................19<br />

2.1.1. Diskurs, magt og viden...........................................................................20<br />

2.1.2. Evaluering som diskursiv praktik ............................................................21<br />

2.2. Udviklings- og evalueringsdiskurser ....................................................................21<br />

2.3. Symbolsk interaktionisme ....................................................................................22<br />

2.3.1. Translation..............................................................................................22<br />

2.3.2. Praksisfællesskaber ...............................................................................23<br />

2.3.3. Grænseobjekter......................................................................................23<br />

2.4. Evaluering og dens genstand ..............................................................................25<br />

2.4.1. Indhold og tidsorientering .......................................................................25<br />

2.4.2. Identiteter og relationer...........................................................................27<br />

3. Udviklingsteoretiske diskurser ...........................................................................29<br />

3.1. Moderniseringsdiskursen.....................................................................................30<br />

3.1.1. Moderniseringsdiskursen og forholdet mellem donor og modtager .......31<br />

3.1.2. Kritik af moderniseringsdiskursen ..........................................................31<br />

3.2. Den kritiske udviklingsdiskurs..............................................................................32<br />

3.2.1. Den kritiske udviklingsdiskurs og forholdet mellem donor og modtager 33<br />

3.2.2. Kritik af den kritiske udviklingsdiskurs....................................................33<br />

3.3. Partnerskabets paradoks.....................................................................................34<br />

4. Evalueringsteoretiske diskurser .........................................................................36<br />

4.1. Distinktionen mellem kontrol- og læringsevalueringer.........................................36<br />

4.2. Evaluering som et redskab til kontrol...................................................................38<br />

4.2.1. Kontrolevalueringernes demokratiske legitimeringsgrundlag.................39<br />

4.2.2. Kravet om objektiv information ...............................................................39<br />

4.2.3. Fokus på resultater.................................................................................40<br />

4.2.4. Kritik af kontrolevalueringer....................................................................41<br />

4.3. Evaluering som et redskab til læring ...................................................................42<br />

4.3.1. Konsensusbaseret læring.......................................................................44<br />

4.3.2. Den participatoriske læringsdiskurs .......................................................46<br />

4.3.3. Opsummering: to forskellige læringsforståelser.....................................50<br />

4.4. Forskelle og ligheder mellem de to evalueringsteoretiske diskurser...................50<br />

4.4.1. En note om fremstillingen.......................................................................51<br />

4.4.2. Forskelle .................................................................................................51<br />

4.4.3. Ligheder..................................................................................................52<br />

2


5. Udviklings- og evalueringsteoretisk opsummering..........................................54<br />

5.1. Slægtskab mellem diskurser på tværs af felter ...................................................54<br />

5.2. En note om normativitet.......................................................................................55<br />

6. Metode ...................................................................................................................56<br />

6.1. Udvælgelse og behandling af empiri ...................................................................56<br />

6.1.1. Udvælgelse og databehandling af dokumenter......................................56<br />

6.1.2. Interviews ...............................................................................................61<br />

6.1.3. Fremstilling af empiri ..............................................................................64<br />

6.2. Undersøgelsens videnskabelighed......................................................................65<br />

6.2.1. Validitet...................................................................................................65<br />

6.2.2. Reliabilitet ...............................................................................................66<br />

6.2.3. Generaliserbarhed..................................................................................66<br />

6.3. Metodisk refleksion ..............................................................................................66<br />

7. Danidas evalueringspraksis ................................................................................69<br />

7.1. Evalueringer og reviews ......................................................................................69<br />

7.1.1. Offentliggørelse ......................................................................................69<br />

7.1.2. Organisatorisk forankring .......................................................................71<br />

7.1.3. Initiering ..................................................................................................74<br />

7.1.4. Design ....................................................................................................75<br />

7.1.5. Udførelse ................................................................................................76<br />

7.1.6. Opfølgning ..............................................................................................78<br />

7.1.7. Forskelle og ligheder mellem reviews og evalueringer ..........................79<br />

7.2. Danida, konsulenter og partnere – tre praksisfællesskaber ................................80<br />

7.2.1. Opdragsgiveren: Danida ........................................................................81<br />

7.2.2. Evaluatorerne: Eksterne konsulenter .....................................................82<br />

7.2.3. De evaluerede aktører: Danidas partnere..............................................83<br />

8. Forskellige forståelser af læring og kontrol ......................................................86<br />

8.1. Kontrol..................................................................................................................87<br />

8.1.1. Legitim kontrol ........................................................................................87<br />

8.1.2. Inspektion ...............................................................................................88<br />

8.2. Læring..................................................................................................................90<br />

8.2.1. Konsensusbaseret læring.......................................................................90<br />

8.2.2. Participatorisk læring..............................................................................92<br />

8.3. Kontrol og/eller læring?........................................................................................95<br />

8.3.1. Danida: Både-og.....................................................................................95<br />

8.3.2. Partnere og konsulenter: Enten-eller......................................................96<br />

8.4. Forskellige forståelser – forskellige interesser ....................................................97<br />

9. Evalueringer og reviews som grænseobjekter..................................................99<br />

9.1. Kontrol og læring i otte evaluerings- og reviewforløb ..........................................99<br />

9.1.1. Kontrol- og læringskomponenter i rapporterne ....................................100<br />

9.1.2. Oversigt over de analyserede rapporter...............................................105<br />

9.2. Præsentation af evaluerings- og reviewforløb ...................................................106<br />

9.2.1. To ’kontrolreviews’: Bangladesh og NSJ 03.........................................107<br />

9.2.2. Den generelle medieevaluering og Zambia 02: Både/og eller hverkeneller?...............................................................................................................108<br />

9.2.3. Evaluering og review af MISA – eksempler på læringsprocesser........111<br />

3


9.3. Opsamling..........................................................................................................113<br />

10. Konsulenten som stødpude mellem donor og modtager.............................114<br />

10.1. Den uafhængige, upartiske konsulent .............................................................114<br />

10.2. To fortællinger om utryghed og uafhængighed ...............................................115<br />

10.2.1. ”… sådan en nørd der, jamen altså, det skal han sgu da ikke have lov<br />

til” ....................................................................................................................115<br />

10.2.2. Høflighedssammensværgelsen..........................................................116<br />

10.3. Kunden har altid ret…......................................................................................119<br />

10.3.1. Viden er magt .....................................................................................119<br />

10.3.2. Økonomisk afhængighed ...................................................................121<br />

10.3.3. Uafhængighed avler afhængighed.....................................................122<br />

10.3.4. Partnernes syn på konsulenterne.......................................................123<br />

10.4. Konsulenten som modtagerens advokat .........................................................125<br />

10.4.1. Evnen til at stille de rigtige krav..........................................................126<br />

10.5. Splittelsen ........................................................................................................126<br />

10.5.1. De mange afsenderidentiteter ............................................................127<br />

10.5.2. Den vurderende konsulent .................................................................128<br />

10.5.3. At antaste fra et uantasteligt grundlag................................................129<br />

10.6. Den afhængige, partiske konsulent .................................................................130<br />

11. Den gode mediebistandsindsats ....................................................................132<br />

11.1. Kriterier og indikatorer .....................................................................................132<br />

11.1.1. Danidas projektevalueringsmodel ......................................................132<br />

11.2. Analyse: Fokus på output, outcome og/eller impact i kommissorier og rapporter<br />

..................................................................................................................................135<br />

11.2.1. Måling af output: Efficiens ..................................................................136<br />

11.2.2. Måling af outcome: Effektivitet ...........................................................137<br />

11.2.3. Måling af outcome: Bæredygtighed....................................................139<br />

11.2.4. Måling af impact: Virkning ..................................................................140<br />

11.2.5. Måling af impact: Relevans ................................................................141<br />

11.2.6. Konklusion ..........................................................................................142<br />

11.3. Den gode mediebistandsindsats......................................................................143<br />

11.3.1. Diskussion ..........................................................................................144<br />

11.3.2. Indikatorfiksering? ..............................................................................145<br />

11.3.3. En tvetydig anledning til identitetsartikulation ....................................146<br />

11.4. Hvorfor fokus på output? .................................................................................148<br />

11.4.1. Fraværet af et indikatorværktøj ..........................................................148<br />

11.4.2. Urealistiske kommissorier ..................................................................151<br />

11.4.3. Manglende tid under feltstudier ..........................................................154<br />

11.4.4. Opsummering .....................................................................................158<br />

12. Kontrol, læring og magt ...................................................................................160<br />

12.1. Partnernes opfølgning på reviews og evalueringer .........................................160<br />

12.1.1. Inddragelse og ejerskab som motivationsfaktor.................................161<br />

12.1.2. Frygten for sanktioner ........................................................................162<br />

12.1.3. Egenkontrol og konsensus .................................................................162<br />

12.1.4. Partnerskab og bekendelse................................................................167<br />

12.2. Danida som lærende organisation...................................................................168<br />

12.2.1. Ansvarliggørelsesfunktionen som motivationsfaktor ..........................168<br />

12.2.2. Rotationsordningen som barriere for organisatorisk læring ...............169<br />

12.2.3. Danidas identitet til forhandling? ........................................................172<br />

12.3. Delkonklusion...................................................................................................172<br />

4


13. Fremtidens evaluering af mediebistand.........................................................174<br />

13.1. Læring og/eller kontrol? ...................................................................................174<br />

13.1.1. Klarhed og konkretisering...................................................................175<br />

13.1.2. Prioritering ..........................................................................................175<br />

13.2. Vurdering af mediebistandens effekter på outcomeniveau .............................176<br />

13.3. Inddragelse af partnerne..................................................................................176<br />

13.4. Imødegå utrygheden........................................................................................178<br />

13.4.1. Reel uafhængighed? ..........................................................................178<br />

13.4.2. Nationalitet..........................................................................................178<br />

13.5. En styrket opfølgningspraksis..........................................................................180<br />

13.6. Opsummering ..................................................................................................181<br />

14. Konklusion ........................................................................................................182<br />

14.1. Resumé............................................................................................................182<br />

14.2. Besvarelse af specialets problemformulering..................................................184<br />

14.2.1. Læring og kontrol................................................................................184<br />

14.2.2. Samspillet mellem diskurs og diskursiv praktik ..................................185<br />

14.2.3. Fremtidens mediebistandsevaluering.................................................187<br />

14.3. Perspektivering ................................................................................................188<br />

Litteratur ..................................................................................................................190<br />

Bilagsoversigt .........................................................................................................197<br />

Abstract ...................................................................................................................199<br />

5


Figurer<br />

4a Kontrol- og læringsevalueringer<br />

4b Den lærende organisation<br />

4c Den evalueringsteoretiske kontroldiskurs<br />

4d Konsensusbaseret og participatorisk læringsevaluering<br />

4e Kontroldiskursen og den participatoriske læringsdiskurs<br />

6a Oversigt over analyserede dokumenter<br />

6b Oversigt over interviewpersoner<br />

6c Oversigt over evaluerings- og reviewforløb<br />

7a Organigram for Udenrigsministeriets Sydgruppe/Danida<br />

7b Oversigt over ansvarshavere i udførelse af reviews og evalueringer<br />

7c Projektcyklussens dokumenter<br />

7d Praksisfællesskabernes roller i forbondelse med review og<br />

evalueringer<br />

9a Tekstanalytiske parametre<br />

9b Kontrolevaluringens kommunikationsveje<br />

9c Den participatoriske evaluerings kommunikationsveje<br />

9d Kontrol- og læringskomponenter i review- og evalueringsrapporter<br />

9e Kontinuum over fordeling af lærings- og kontrolkomponenter<br />

11a Effektniveauer og evalueringskriterier i Danida<br />

11b Efficiensindikatorer<br />

11c Effektivitetsindikatorer<br />

11d Bæredygtighedsindikatorer<br />

11e Virkningsindikatorer<br />

11f Relevansindikatorer<br />

6


Forkortelser<br />

BFT Bistandsfaglig Tjeneste, Danida<br />

DAC Development Assistance Committee, OECD<br />

Danida Danish International Development Assistance<br />

EK Kontoret for Evaluering af udviklingsbistand (Evalueringskontoret),<br />

Danida<br />

Hivos Humanistisch Instituut voor Ontwikkelingssamenwerking (Hollandsk<br />

NGO)<br />

IMS International Media Support, dansk NGO<br />

IO Implementerende organisation<br />

KS Konsulent<br />

KVA Kontoret for kvalitetssikring af udviklingsbistanden, Danida<br />

LFA Logical Framework Approach<br />

MISA Media Institute of Southern Africa<br />

Norad Norwegian Agency for Development Cooperation<br />

NSJ Nordic SADC School of Journalism<br />

OECD Organisation for Economic Co-operation and Development<br />

<strong>OG</strong> Opdragsgiver<br />

PCR Project Completion Report<br />

PO Partnerorganisation<br />

SADC Southern African Development Community<br />

Sida Swedish International Development Cooperation Agency<br />

ToR Terms of Reference<br />

USAID US Agency for International Development<br />

Formalia<br />

Specialet har et samlet omfang på 203,3 normalsider og er skrevet i et tæt<br />

samarbejde. Formelt hæfter Line Thaudahl Jakobson for kapitlerne 3, 6-8, og Anna<br />

Bak Larsen for kapitlerne 2, 4, 9-11.<br />

For at sikre de deltagende interviewpersoner anonymitet og samtidig give vejleder og<br />

censor mulighed for at kigge os metodisk i kortene, er der udarbejdet to versioner af<br />

specialet: En klausuleret, udelukkende til vejleder og censor, og en offentlig, hvor<br />

transskriptioner, præsentation af interviewpersoner og andre passager, som kan<br />

bidrage til at identificere konkrete personer, er udeladt. Dette er den offentlige<br />

version.<br />

7


1. Indledning<br />

Ordet ’evaluering’ er i løbet af de seneste år blevet en integreret del af det danske<br />

sprog. Børnehavebørns kompetenceudvikling evalueres, og det samme gør alt fra<br />

erhvervsindsatser over tandplejeordninger til udviklingsbistand. Blandt andet gennem<br />

lovgivning og oprettelse af evalueringscentre udbredes fænomenet til stadig flere<br />

områder. Evalueringsaktiviteterne i den offentlige sektor herhjemme har nået et<br />

omfang, så forskere taler om en ”evalueringsbølge” (Rieper 2001), hvor evalueringer<br />

ofte udføres per automatik uden tanke for resultaternes brugbarhed og relevans<br />

(Dahler-Larsen 1998b:57). Det er imidlertid ikke ensbetydende med, at evalueringer<br />

er neutrale begivenheder. Tværtimod er de med til at forme den måde, mennesker og<br />

organisationer forstår sig selv og deres omgivelser på. En god skole er eksempelvis<br />

den, hvis elever får gode resultater i læseprøven, og en god hjemmehjælper er hende,<br />

der kan overholde tidsplanen. Over alt, hvor der evalueres, har de anvendte<br />

måleredskaber indflydelse på vores opfattelse af, hvad der er godt, og hvad der er<br />

skidt, og i sidste ende kan man argumentere for, at de er med til at konstruere vores<br />

billede af verden.<br />

Når flere og flere områder gøres til genstand for evaluering, er det derfor en<br />

overvejelse værd, hvad konsekvenserne er. For hvilke identiteter får de evaluerede<br />

aktører tildelt, og hvilke relationer etableres mellem mennesker og institutioner, når<br />

de evalueres? Hvilken viden genereres, og hvilken magt er det, der udøves i en<br />

evaluering? Man kan også sætte problematikken på spidsen og spørge, hvilket<br />

samfund evalueringerne i grunden er med til at skabe?<br />

Vil man besvare disse spørgsmål, er det oplagt at tage udgangspunkt i, hvad det er for<br />

et samfund, der har skabt fodfæste for evalueringerne – hvorfor den megen<br />

evaluering? Her viser det sig, at evalueringerne i den offentlige sektor foretages med<br />

henblik på at kontrollere, hvordan de offentlige midler bliver brugt, og samtidig skal<br />

de bidrage til at forbedre den evaluerede aktivitet ved at sikre en organisatorisk<br />

læreproces (Hansen 2001:114). Med andre ord er der et tvedelt formål med at<br />

evaluere: Kontrol og læring. Begge begreber er nært forbundne med et spørgsmål om<br />

magtudøvelse – for hvem er det, der kontrollerer hvem, og hvem definerer, hvad vi<br />

skal lære af evalueringerne?<br />

1.1. Indkredsning af problemfelt<br />

For at belyse denne problemstilling retter vi fokus mod evaluering af udviklings-<br />

bistand, og herunder beskæftiger vi os særligt med evaluering af støtten til fremme af<br />

frie medier – også kaldet mediebistand.<br />

8


At udviklingsbistand er interessant i et evalueringsperspektiv, skyldes først og<br />

fremmest, at det er den del af den statslige administration, som i længst tid har været<br />

genstand for evaluering, og at det desuden er et af de områder, der evalueres<br />

allermest set i forhold til dets samlede budget og aktivitetsniveau 1 . Således har man<br />

evalueret udviklingsbistand siden 1960’erne, mens andre sektorer først har fået faste<br />

evalueringsprocedurer fra midten af 1980’erne (Rieper 2001). I vores optik er<br />

udviklingsbistanden dog især interessant på grund af den ofte store fysiske og<br />

kulturelle afstand mellem de involverede aktører. At der er langt fra de politiske<br />

beslutningstagere i København og dem, der i sidste ende omsætter beslutninger og<br />

økonomiske midler til aktiviteter, øger på den ene side behovet for kontrol af,<br />

hvorvidt midlerne bruges ansvarligt. På den anden side skaber afstanden et behov for<br />

læring om relationer mellem årsag og virkning i udviklingsbistanden. Endvidere er<br />

der ofte et asymmetrisk magtforhold mellem på den ene side dem, der bestiller<br />

evalueringen, det vil sige donorerne af udviklingsbistand, og på den anden side dem,<br />

som er afhængige af en positiv vurdering for fortsat at modtage støtte. Disse faktorer<br />

betyder, at der er betydelige personlige og organisatoriske interesser forbundet med<br />

evalueringsresultater.<br />

At vi stiller skarpt på netop mediebistand skyldes to egenskaber ved feltet, der gør det<br />

særligt interessant at undersøge i et evalueringsperspektiv. Den ene egenskab er, at<br />

medierne i ethvert samfund er genstand for stor politisk opmærksomhed, fordi de er<br />

betydningsfulde samarbejdspartnere for både stat, marked og civilsamfund. Som<br />

følge heraf er mediebistand et yderst politiseret område, idet de danske målsætninger<br />

om at yde støtte til ytringsfrihed og uddannelse af journalister ikke nødvendigvis<br />

stemmer overens med modtagerstatens interesser. Mediebistand afspejler en relativt<br />

ny tendens til, at donorer anvender udviklingsbistand som redskab til at påvirke den<br />

politiske og demokratiske udvikling i modtagerlandene (Degnbol-Martinussen &<br />

Engberg-Pedersen 1999:78ff). Denne strategi bidrager imidlertid til at komplicere et i<br />

forvejen komplekst forhold mellem donor og modtager, fordi den fører til<br />

spørgsmålet om, hvem der har ret til at definere mål og midler for udviklings-<br />

bistanden. Af den grund skærpes evalueringers rolle som forhandlingsknudepunkter<br />

mellem donor og modtager på mediebistandsfeltet.<br />

Den anden egenskab, der gør mediebistand særligt interessant, er, at den er et af de<br />

områder, som det ofte viser sig svært at måle resultatet af. Det skyldes dels, at<br />

mediebistand ofte opererer efter en lang tidshorisont, og dels det faktum, at frie<br />

medier blot er en ud af mange nødvendige forudsætninger for en demokratisk<br />

udvikling. Mediebistand er derfor karakteriseret ved en forholdsvis høj grad af<br />

1 Niels Dabelstein, sekretariatschef i Danidas kontor for evaluering af udviklingsbistand, foredrag i<br />

Ibis/Århus 17. marts 2004.<br />

9


usikkerhed – en usikkerhed, som udvikling af mere velegnede måleredskaber vil<br />

kunne mindske.<br />

Det er netop i den forbindelse, specialets undersøgelse bliver relevant. For vil Danida<br />

blive bedre til at evaluere, er det afgørende, at der udvikles mere hensigtsmæssige<br />

vurderingsparametre end dem, der anvendes i dag. Ikke mindst inden for medie-<br />

bistanden viser det sig svært at formulere operationaliserbare og – frem for alt –<br />

relevante mål. Uanset hvilken kvalitet vurderingsparametrene har, så er de med til at<br />

identificere og definere ’det gode projekt’ og ’den gode partnerorganisation’, og de<br />

bidrager derved til at definere, hvordan Danidas fremtidige indsats på medieområdet<br />

skal tilrettelægges. Ved at belyse styrker og svagheder i den gældende praksis håber<br />

vi, at denne undersøgelse kan bidrage til en debat om, hvordan Danidas evaluering af<br />

mediebistand kan forbedres.<br />

1.2. Problemformulering<br />

Oven for har vi opridset nogle af de spørgsmål og problemstillinger, som bliver<br />

stadig mere aktuelle i forbindelse med evalueringernes udbredelse, og vi har rettet<br />

fokus ind mod de udfordringer, der rejser sig, når der evalueres på mediebistands-<br />

området. Vores ærinde med specialet er at besvare følgende spørgsmål:<br />

A) Hvilket samspil er der mellem dominerende evaluerings- og udviklingsteoretiske<br />

diskurser og Danidas evalueringspraksis? Hvilken viden og hvilke handlings-<br />

muligheder stiller diskurserne til rådighed for aktørerne? Og hvordan påvirker<br />

evalueringsprocessen relationen mellem donor og modtager?<br />

B) Hvordan forstår de involverede aktører begreberne læring og kontrol i forbindelse<br />

med evaluering, hvilke forhandlinger er disse begreber genstand for og årsag til, og<br />

hvordan afspejles læring og kontrol i evalueringsrapporterne?<br />

C) Hvilke barrierer er aktuelle ved evaluering af Danidastøttede mediebistands-<br />

aktiviteter, og hvilke udfordringer er forbundet med at udvikle og operationalisere<br />

andre evalueringsmetoder og -indikatorer? Som underspørgsmål hertil vil vi<br />

undersøge,<br />

• hvordan evalueringerne bidrager til at konstruere ’den gode mediebistands-<br />

indsats’, ’den gode partnerorganisation’ og den rollefordeling, som knytter<br />

sig til mediebistanden<br />

• hvordan Danida kan forbedre sin evalueringspraksis<br />

10


1.3. Læsevejledning<br />

I dette afsnit præsenterer vi specialets struktur samt de teoretikere og temaer, der<br />

bringes i spil undervejs i specialet. Læsevejledningen efterfølges af en begrebs-<br />

afklaring, hvor vi kort definerer nogle af de centrale og hyppigst anvendte termer.<br />

Specialet er, udover nærværende indledning, struktureret i to overordnede dele – en<br />

teoretisk og en analytisk. Kapitlerne 2 til 6 omhandler det teoretiske og metodiske<br />

afsæt for analysen, som præsenteres i kapitlerne 7 til 14.<br />

1.3.1. Specialets første del: teoretisk og metodisk afsæt<br />

I kapitel 2 redegør vi for den teoretiske ramme, ud fra hvilken vi forstår og<br />

analyserer evaluering af udviklingsbistand. Vi tager udgangspunkt i to antropologer,<br />

David Mosse (2001) og James Ferguson (1994), som analyserer udviklingsbistand ud<br />

fra et diskursperspektiv. Mosse og Ferguson er begge inspireret af Michel Foucault<br />

(Foucault 1978, 1991), hvis diskursbegreb vi redegør for i afsnit 2.1. I afsnit 2.2.<br />

behandler vi den udfordring, det er at identificere og afgrænse evaluerings- og<br />

udviklingsteoretiske diskurser, i hvilken forbindelse vi introducerer Foucaults<br />

genealogiske metode. I afsnit 2.3. udbygger vi det teoretiske afsæt med den<br />

symbolske interaktionisme, en sociologisk retning, der supplerer Foucaults genealogi<br />

i analysen af evalueringsforløb som forhandlingsprocesser. Afslutningsvist redegør vi<br />

i afsnit 2.4. for, hvorledes evalueringer påvirker deres genstand, med særlig henblik<br />

på relationen mellem evaluering af mediebistand. Dette sker med udgangspunkt i<br />

Foucault og Peter Dahler-Larsen, dansk politolog og evalueringsforsker (Dahler-<br />

Larsen 1998, 2004).<br />

Kapitel 3 retter fokus mod mediebistanden og introducerer i afsnittene 3.1. og 3.2. to<br />

dominerende udviklingsdiskurser inden for feltet: Moderniseringsdiskursen og den<br />

kritiske diskurs. Mens moderniseringsdiskursen kort fortalt repræsenterer en<br />

opfattelse af udviklingsprocessen som et fastlagt, lineært forløb præget af en klar<br />

rollefordeling mellem donor og modtager af bistand, så opponerer den kritiske<br />

diskurs mod disse antagelser og anskuer udvikling som en uforudsigelig proces, hvor<br />

en væsentlig forudsætning for succes er ligeværdighed mellem de involverede<br />

aktører. I afsnit 3.3. argumenterer vi for, at begge udviklingsdiskurser gør sig<br />

gældende inden for Danidas mediebistandspraksis i dag. Dette kommer blandt andet<br />

til udtryk gennem partnerskabs-begrebet og de idealer om rollefordeling mellem<br />

donor og modtager, som er indbefattet heri. Vores pointe er imidlertid, at<br />

partnerskabstankegangen er udtryk for et paradoks, der præger såvel mediebistand<br />

specifikt som udviklingsbistand generelt.<br />

Fremstillingen baserer sig især på Degnbol-Martinussen & Engberg-Pedersen (1999),<br />

Degnbol-Martinussen (1994), men inddrager i øvrigt en række andre værker og<br />

artikler fra internationale udviklingstidsskrifter.<br />

11


I forlængelse af udviklingsdiskurserne ser vi i kapitel 4 nærmere på dominerende<br />

diskurser på evalueringsfeltet. Indledningsvist foretager vi i afsnit 4.1. en distinktion<br />

mellem henholdsvis en evalueringsteoretisk kontroldiskurs og en participatorisk<br />

læringsdiskurs. Det viser sig, at mens man inden for kontroldiskursen hylder<br />

evalueringer som redskab til demokratisk kontrol, objektive vurderinger og<br />

resultatorientering, så fokuserer den participatoriske læringsdiskurs på evaluering<br />

som en participatorisk proces, hvor de evaluerede aktørers udbytte af processen<br />

vægtes højt. De to diskursers karakteristika gennemgås i afsnittene 4.2. og 4.3., og<br />

parallelt hermed præsenteres kort tre forskellige evalueringstyper, som knytter sig til<br />

diskurserne på forskellig vis. I afsnit 4.4. sammenstiller vi forskelle og ligheder<br />

mellem evalueringstyperne, og vi argumenterer for, at de er præget af vidt forskellige<br />

ontologiske, epistemologiske og metodologiske antagelser. Analysen er foretaget på<br />

basis af en række hovedværker inden for evalueringslitteraturen, som præsenteres<br />

nærmere i kapitlets indledning.<br />

Kapitel 5 opsummerer de to foregående kapitler ved at gennemgå paralleller mellem<br />

de gennemgåede udviklings- og evalueringsteoretiske diskurser. Afslutningsvist i<br />

kapitlet behandler vi spørgsmålet om normativitet i analysen.<br />

I kapitel 6 redegør vi for den anvendte metode og de overvejelser, som ligger bag.<br />

Først præsenteres de otte rapporter og tretten kvalitative interviews, som den<br />

empiriske analyse baserer sig på, og dernæst beskrives de analytiske værktøjer, vi har<br />

anvendt i behandlingen af data. Endvidere rejses spørgsmålet om videnskabelighed<br />

under inddragelse af metodeteoretikere som Alasuutari (1995) og Silverman (1993,<br />

2000). Kapitlet afsluttes med en metodisk refleksion, hvor vi diskuterer fordele og<br />

ulemper ved den anvendte fremgangsmåde.<br />

1.3.2. Specialets anden del: Analyse<br />

I specialets anden del præsenterer vi vores analyse af Danidas evalueringspraksis på<br />

mediebistandsfeltet. Analysen er inddelt i otte kapitler (7 til og med 14), som<br />

tilsammen sigter mod at besvare specialets problemformulering.<br />

Analysen indledes med kapitel 7, der i høj grad fungerer som afsæt for de øvrige<br />

analysedele, idet vi her præsenterer de formelle strukturer omkring Danidas<br />

evalueringspraksis. Vi inddeler et evalueringsforløb i fire trin: initiering, design,<br />

udførelse og opfølgning, og beskriver de aktører og processer, som gør sig gældende<br />

på hvert af disse trin. Desuden redegør vi for Danidas skelnen mellem to<br />

evalueringsformer: evaluering og review. Kapitlet bygger dels på Danidas<br />

12


etningslinier for projektledelse og evaluering (Danida 2003 og 1999) samt på<br />

interviews med ansatte i Danida.<br />

I kapitel 8 søger vi at besvare spørgsmålet om, hvordan de involverede aktører<br />

forstår begreberne læring og kontrol ved at beskrive, hvordan henholdsvis de<br />

interviewede Danidamedarbejdere, Danidas partnere og de eksterne konsulenter<br />

forstår de to begreber. Vi undersøger endvidere, hvordan disse forståelser trækker på<br />

de evaluerings- og udviklingsteoretiske diskurser, vi præsenterer i kapitel 4 og 5. Det<br />

viser sig, at Danidas partnere og de eksterne konsulenter primært oplever kontrol som<br />

ubehagelig inspektion og læring som en kritisk, participatorisk proces. Danida forstår<br />

kontrol som et spørgsmål om ansvarliggørelse og demokratisk legitimitet, mens<br />

læringsforståelsen baserer sig på en antagelse om konsensus både internt i Danida og<br />

mellem organisationen og dens omverden.<br />

Kapitel 9 tager bolden op fra konklusionerne i kapitel 8, og drejer sig om, hvordan<br />

de forskellige lærings- og kontrolforståelser kommer til udtryk i<br />

evalueringsrapporterne. I kapitlet præsenteres de enkelte evaluerings- og<br />

reviewforløb nærmere på baggrund af dokumenter og interviews med involverede<br />

aktører. Denne case-præsentation danner afsæt for inddragelse af empirien i de<br />

følgende kapitler.<br />

I kapitel 10 tager vi fat på besvarelsen af problemformuleringens første spørgsmål<br />

ved at undersøge, hvordan interaktionen mellem Danida og Danidas partnere i<br />

evalueringsprocessen afspejler og påvirker rammerne omkring mediebistanden. Da<br />

Danida og partnerne ikke interagerer direkte i forbindelse med udførelse af<br />

evalueringer, manifesterer interessemodsætningerne og forhandlingerne mellem de to<br />

praksisfællesskaber sig i konsulenternes identitet, der af alle parter opleves som<br />

kompleks og modsætningsfyldt. Konsulenterne forsøger at håndtere deres splittelse<br />

mellem donor og modtager ved at indtage rollen som en neutral og uafhængig aktør i<br />

lighed med forskrifterne inden for den evalueringsteoretiske kontroldiskurs, til trods<br />

for en række problemer som knytter sig til netop uafhængighedskriteriet.<br />

Fra at have fokuseret på konsulentidentiteten undersøger vi i kapitel 11, hvordan de<br />

anvendte evalueringskriterier og -indikatorer bidrager til at konstruere ’det gode<br />

mediebistandsprojekt’. Analysen leder frem til en konklusion af, at Danidas<br />

evalueringer i høj grad fokuserer på de kortsigtede effekter af mediebistanden ud fra<br />

en implementeringsvinkel, trods hensigter om at ville undersøge langsigtede effekter<br />

fra et samfunds- og et målgruppeperspektiv. Vi redegør for årsager til og<br />

konsekvenser af dette fokus, hvilket danner afsæt for opstilling af anbefalinger til en<br />

fremtidig styrkelse af Danidas evalueringspraksis på mediebistandsfeltet.<br />

13


Hvor kapitel 10 behandler forhandlingerne mellem de tre praksisfællesskaber i<br />

forbindelse med udførelse af evaluering, og kapitel 11 belyser fremstillingen af<br />

mediebistand i evalueringsrapporterne, drejer kapitel 12 sig om de forhandlinger,<br />

som følger efter endt afrapportering. Her fokuserer vi på de forskellige faktorer, der<br />

motiverer partnerne og Danida til at drage konsekvenser af evalueringer, samt hvilke<br />

donor-modtager-relationer disse motivationsfaktorer afspejler og indebærer. Kapitlet<br />

afsluttes med en diskussion af Danidas identitet som en lærende organisation.<br />

På baggrund af analysen af Danidas evalueringspraksis i de foregående kapitler,<br />

identificerer vi i kapitel 13 en række problemer i Danidas gældende praksis i forhold<br />

til evaluering af mediebistand og stiller forslag til, hvordan disse kan overkommes.<br />

Analysens resultater opsummeres og perspektiveres i kapitel 14.<br />

1.4. Begrebsafklaring<br />

Vi vil i dette afsnit give en kort, indledende redegørelse for vores forståelse af<br />

specialets to væsentligste begreber: mediebistand og evaluering. Begge begreber<br />

uddybes yderligere senere i specialet.<br />

1.4.1. Mediebistand<br />

Undersøgelsen omhandler evaluering 2 af Danidastøttede projekter og programmer,<br />

som har til formål at fremme udviklingen af frie medier. Denne del af<br />

udviklingsbistanden – udvikling af frie medier – vil vi fremover betegne<br />

mediebistand 3 . Siden slutningen af 1980’erne har Danida støttet ”en række presse-<br />

relaterede projekter og aktiviteter” (Danida 1994C:1), og i 1994 udviklede<br />

organisationen en egentlig strategi på området, som kom til at indgå som element i<br />

den overordnede danske udviklingspolitik (Udenrigsministeriet 1994A). Formålet<br />

med Danidas mediebistand beskrives således i den aktuelle danske udviklingspolitik<br />

Partnerskab 2000:<br />

Retten til information og til at ytre sig frit er væsentlige faktorer i den folkelige<br />

deltagelse og i demokratiseringsprocessen. Menneskers mulighed for at<br />

udtrykke deres behov og deltage i en demokratisk proces skal understøttes<br />

gennem udvikling af frie og demokratiske medier og sikring af pressens vilkår.<br />

(Udenrigsministeriet 2000B:53)<br />

På et mere specificeret niveau fremgår det af Danidas policy papir Støtte til fremme<br />

af en fri presse i udviklingslandene fra 1994, at man ønsker ”at støtte en pluralistisk<br />

2 Danida skelner mellem ’evaluering’ og ’review’ – en skelnen vi vender tilbage til senere i opgaven.<br />

Begge bedømmelsesaktiviteter falder imidlertid ind under vores definition af evalueringer (se afsnit<br />

1.4.2.), hvorfor vi i første del af specialet anvender denne term om begge aktiviteter.<br />

3 Vi afgrænser os hermed fra udviklingskommunikation, som udgør en anden ’søjle’ i den medie- og<br />

kommunikationsorienterede bistand (Larsen 2002). Udviklingskommunikation retter sig mod<br />

implementering af kommunikationskomponenter i udviklingsindsatser generelt – eksempelvis i<br />

forbindelse med sundheds- eller miljøprogrammer.<br />

14


presse, styrke en kvalitativ udvikling af mediesektoren, samt medvirke til at forbedre<br />

de organisatoriske forhold i mediebranchen” (Udenrigsministeriet 1994C:15).<br />

Mediebistanden retter sig mod udvikling af mediesektoren på lokalt, nationalt<br />

og/eller regionalt niveau gennem indsatser på følgende fire områder<br />

(Udenrigsministeriet 2000A:23ff.):<br />

Institutionsopbygning: støtte til oprettelse og drift af medievirksomheder,<br />

fortrinsvis radiostationer og trykte medier<br />

Kapacitetsopbygning i form af uddannelse af journalister, teknikere og<br />

administratorer<br />

Netværksopbygning via støtte til nationale/regionale medie- og pressecentre<br />

Støtte til og rådgivning om medielovgivning 4<br />

Mediebistanden udgør blot en lille andel af den samlede, danske udviklingsbistand.<br />

De nyeste præcise tal for andelens samlede omfang, vi har kunnet fremskaffe,<br />

vedrører årene 1990-1999. Her lå det gennemsnitlige årlige bidrag til mediebistand<br />

på godt 36 mio. kr. (Udenrigsministeriet 2000A:130). Der findes ikke isolerede data<br />

om mediebistandens størrelse fra 1999 og frem 5 , men der er tale om et område, der<br />

samlet set fylder mindre end 1 % af Danidas bilaterale bistand 6 .<br />

1.4.1.1. Mediebistandens struktur og aktører<br />

Den danske udviklingsbistand bevilges og udføres i form af projekter eller<br />

programmer. Hvor projekter er enkeltstående, afgrænsede indsatser, som er forankret<br />

i en projektorganisation, varetages programmerne i et samarbejde mellem donorerne<br />

og modtagerlandets regering og retter sig mod en sammenhængende indsats inden for<br />

en bestemt sektor. Danidas mediebistand er hovedsageligt struktureret omkring<br />

mindre projekter – dels på grund af de politiske vanskeligheder ved at etablere et<br />

samarbejde omkring ytringsfrihed på statsniveau, og dels fordi der er tale om et lille<br />

bistandsområde præget af små, kortsigtede bevillinger.<br />

4 I en evaluering af Danidas støtte til fremme af en fri presse (Udenrigsministeriet 2000A:23ff) skønnes<br />

det, at mere end 80 % af støtten til fremme af en fri presse går til tre typer af projekter: en tredjedel til<br />

radioprojekter, en fjerdedel til uddannelse og træning, mens en femtedel kanaliseres til medie- og<br />

pressecentre. Disse projekter er fordelt over Danidas programsamarbejdslande i Asien, Afrika,<br />

Mellemøsten og Sydamerika. Det fremgår dog også, at det er ”a very complex task to produce a<br />

complete picture of all the components making up the Danish assistance to the media,” hvilket skyldes,<br />

at størstedelen af aktiviteterne på området rummer flere komponenter og dermed er svære at kategorisere<br />

entydigt.<br />

5 Uddrag af mail fra Johanne Hjort, studentermedhjælp i Udviklingspolitisk Kontor, Udenrigsministeriet,<br />

modtaget 17/11/04: ”Vi har ikke isolerede tal på de oplysninger, I søger, og da jeres spørgsmål derfor vil<br />

blive meget tidskrævende at besvare, ser vi os desværre ikke i stand til at hjælpe jer i med netop denne<br />

anmodning.”<br />

6 Detaljerne i denne beregning fremgår af bilag 2. De anvendte tal er fundet i Udenrigsministeriet<br />

2000A:130 og et udvalg af Danidas årsberetninger fra 1993-2003. Bemærk at vi udelukkende<br />

beskæftiger os med den del af Danidas mediebistand, som kanaliseres bilateralt – den multilaterale støtte<br />

ligger uden for dette speciales fokus.<br />

15


Overordnet er to typer aktører involveret i et bistandsprojekt: en donor og en<br />

modtager. Der imidlertid behov for at nuancere disse to aktørkategorier, hvis man vil<br />

forstå samspillet mellem de aktører, som spiller en rolle i forhold til evaluering af<br />

mediebistand.<br />

Modtagerkategorien kan inddeles i tre: en projektorganisation, en eller flere<br />

målgrupper for bistandsindsatsen samt modtagerlandets offentlighed.<br />

Projektorganisationen har ansvaret for den daglige drift af projektet og samarbejder<br />

tæt med donorerne omkring bevillinger, implementering og afrapportering.<br />

Modtagerlandets offentlighed er en sammensat størrelse, idet et udsnit af denne, den<br />

almindelige befolkning, ofte vil være identisk med målgruppen for et<br />

mediebistandsprojekt, mens modtagerlandets regering og statsadministration i nogle<br />

tilfælde spiller rollen som modstandere af ytringsfrihed. Inden for mediebistand er<br />

samspillet mellem donor og modtager således komplekst og politiseret.<br />

På donorsiden kan man skelne mellem et donoragentur, der varetager bevilling,<br />

implementering og opfølgning af udviklingsbistanden, samt donorlandets<br />

offentlighed, det vil sige de skatteborgere, som i sidste ende afgør om der skal ydes<br />

udviklingsbistand, og i så fald hvor meget. Donoragenturet i Danmark hedder som<br />

bekendt Danida og er en del af Udenrigsministeriet. Administrationen af<br />

udviklingsbistanden varetages dels fra Danidas hovedkvarter i København og dels fra<br />

de danske ambassader – afhængig af bevillingens størrelse 7 .<br />

I visse tilfælde varetages implementeringen af projektet af en ekstern<br />

implementerende organisation (IO). Med en samlet betegnelse benævner vi fremover<br />

projektorganisationer og eksterne IO’er Danidas partnere.<br />

1.4.2. Evaluering<br />

Vi definerer evaluering som en systematisk retrospektiv bedømmelse af organisering,<br />

gennemførsel, præstationer og udfald af en given indsats, som tiltænkes at spille en<br />

rolle i praktiske beslutningssituationer 8 .<br />

Den ’givne indsats’, vi fokuserer på, er som nævnt Danidastøttede<br />

mediebistandsprojekter, og med termen ’retrospektiv’ omfatter ovenstående<br />

7<br />

Se afsnit 7.1.2. for en nærmere præsentation af Danidas forskellige enheder og deres rolle i forbindelse<br />

med udførelse af evalueringer.<br />

8<br />

Denne definition er inspireret af den svenske politolog Evert Vedungs definition (Vedung 1998:20),<br />

som er gængs i dansk evalueringsforskning og blandt andet er gengivet i Dahler-Larsen 1998, Dahler-<br />

Larsen & Krogstrup (red.) 2001, Dahler-Larsen 2004. I en dansk oversættelse lyder Vedungs definition:<br />

”[Evaluering er] en systematisk retrospektiv bedømmelse af organisering, gennemførsel, præstationer og<br />

udfald af offentlig politik, som tiltænkes at spille en rolle i praktiske beslutningssituationer” (Dahler-<br />

Larsen & Krogstrup 2001:14). Vi har valgt at erstatte ”offentlig politik” med ”en given indsats”, da<br />

evaluering også finder sted i private sammenhænge.<br />

16


definition kun bedømmelsesaktiviteter med fokus på afsluttede projekter eller<br />

afviklede aktiviteter i et igangværende projekt. Dermed afgrænser vi os eksempelvis<br />

fra at se på analyser af fremtidsperspektiverne for et givet mediebistandsprojekt,<br />

skønt disse i struktur, systematik og fokus kan minde meget om en evaluering. Med<br />

’systematisk’ sigter vi til, at bedømmelsesaktiviteten følger standarder og strukturer,<br />

som på forhånd er aftalt mellem evalueringsprocessens aktører, og vi definerer<br />

endvidere evalueringer ved at de tiltænkes ’en rolle i praktiske<br />

beslutningssituationer’. Det er i sidstnævnte forbindelse væsentligt at bemærke, at<br />

den tilsigtede anvendelse af evalueringerne ikke nødvendigvis er lig den<br />

aktualiserede (Dahler-Larsen 2004:14). I det kommende kapitel præsenterer vi den<br />

teoretiske forståelsesramme, ovenstående definition skal ses i lyset af, men først vil<br />

vi udbygge definitionen ved at karakterisere de aktører og roller, som indgår i en<br />

evalueringsproces.<br />

En evalueringsproces rummer fire roller: en evalueringsgenstand, en opdragsgiver,<br />

som bestiller evalueringen, samt en eller flere evaluatorer, som udfører evalueringen.<br />

Dertil kommer en eller flere målgrupper for evalueringen, der ikke nødvendigvis er<br />

identiske med de førnævnte målgrupper for mediebistandsindsatsen.<br />

Evalueringsgenstanden: I kraft af specialets fokus er vores evalueringsgenstand<br />

konstant: Danidastøttede mediebistandsprojekter. Til evalueringsgenstanden<br />

knytter der sig en række aktører, som har et ansvar for og en identitet i forhold til<br />

denne. Det drejer sig typisk om en projektorganisation og i nogle tilfælde også en<br />

ekstern IO. Disse aktører fungerer i evalueringssammenhæng dels som<br />

informanter i forbindelse med dataindsamlingen, og dels kan de betragtes som en<br />

del af genstanden, det vil sige, at de bliver evalueret, hvorfor vi betegner dem<br />

evaluerede aktører.<br />

Opdragsgiveren: Den danske udviklingsbistand evalueres på forskellig vis af<br />

forskellige opdragsgivere. Eksempelvis kontrollerer Rigsrevisionen med jævne<br />

mellemrum Danidas anvendelse af midler, og i særlige tilfælde kan<br />

Udenrigsministeriet vælge at nedsætte undersøgelser af bestemte forhold<br />

omkring udviklingsbistanden 9 . Danidas ledelse iværksætter desuden løbende<br />

forskellige former for evaluering af organisationens programmer og projekter, og<br />

det er disse, vi vil fokusere på. Den mere eksakte opgavefordeling mellem<br />

forskellige enheder i Danida i forbindelse med forskellige typer evaluering af<br />

mediebistand behandler vi i kapitel 7.<br />

9 Et eksempel herpå er en udredning af Danidas evalueringsfunktion fra 2003 (Lundgren, Haven North<br />

& Rist 2003), som vurderer Evalueringskontorets uafhængighed og organisatoriske placering i Danida.<br />

Udredningen blev iværksat på opfordring af Udenrigsministeren i forbindelse med offentlig kritik af<br />

evalueringernes troværdighed.<br />

17


Evaluatorer: Samme aktør kan indtage forskellige roller i en evalueringsproces<br />

(Scriven 1997:481f.), og evaluator kan således både være identisk med<br />

evalueringsgenstanden og med opdragsgiveren. I førstnævnte tilfælde vil der<br />

være tale om en selvevaluering, hvor projektorganisationen vurderer sig selv, og i<br />

sidstnævnte tilfælde bruger man betegnelsen intern evaluering. En evaluator kan<br />

dog også være en ekstern konsulent, som købes af opdragsgiveren til at udføre<br />

den konkrete evalueringsopgave. For evaluering af mediebistand gælder det, at<br />

Danida overvejende benytter sig af eksterne evaluatorer.<br />

Målgrupper: Målgrupperne for Danidas evalueringer af medieprojekter omfatter<br />

både opdragsgiveren (Danida), de evaluerede aktører (Danidas partnere) og andre<br />

interessenter (eksempelvis den danske offentlighed, andre<br />

mediebistandsprojekter, modtagerlandets regering, med flere). Vi diskuterer<br />

evalueringsmålgrupperne nærmere i specialets analysedel.<br />

Ovenstående tjener til en foreløbig afklaring af begreberne mediebistand og<br />

evaluering og introducerer en række af de termer, vi anvender til at betegne de<br />

forskellige aktører i et Danidastøttet mediebistandsprojekt og de dertil knyttede<br />

evalueringsprocesser. Vi vil i det kommende kapitel redegøre for det teoretiske afsæt<br />

for analysen af evaluering af mediebistand, og derefter identificerer vi dominerende<br />

udviklings- og evalueringsteoretiske diskurser. Begreberne mediebistand og<br />

evaluering bliver derved uddybet og belyst yderligere.<br />

18


2. Teoretisk afsæt<br />

Formålet med dette kapitel er at redegøre for den teoretiske ramme, ud fra hvilken vi<br />

forstår og analyserer evaluering af udviklingsbistand. Vores udgangspunkt er to<br />

antropologer Mosse (2001) og Ferguson (1994), som analyserer bistandsprojekter<br />

ved hjælp af Foucaults diskursbegreb (Foucault 1978, 1991). Afsnit 2.1. omhandler<br />

diskursbegrebet og konsekvenserne af at analysere evaluering af udviklingsbistand i<br />

et diskursperspektiv. I afsnit 2.2. beskriver vi de metodeteoretiske overvejelser vi har<br />

gjort os i forbindelse med at identificere og afgrænse evaluerings- og udviklings-<br />

teoretiske diskurser – en problemstilling vi nærmer os ved hjælp af Foucaults<br />

genealogiske metode. Dernæst præsenterer vi i afsnit 2.3. den sociologiske retning<br />

symbolsk interaktionisme, en teoretisk ressource ved hjælp af hvilken vi analyserer<br />

evalueringsforløb som forhandlingsprocesser. Med udgangspunkt i Foucault og<br />

Dahler-Larsen (Dahler-Larsen 1998, 2004), redegør vi i afsnit 2.4. for, hvordan<br />

evaluering påvirker sin genstand: mediebistand.<br />

2.1. Evaluering af mediebistand i et diskursperspektiv<br />

I bogen The Anti-Politics Machine fra 1994 kritiserer Ferguson dominerende<br />

diskurser inden for feltet udviklingsbistand for at betragte udvikling som et moralsk<br />

projekt. Han påpeger, at et sådant normativt syn på udvikling indebærer en antagelse<br />

om overensstemmelse mellem de officielle målsætninger om eksempelvis demokrati-<br />

sering eller fattigdomsbekæmpelse og så de faktiske handlinger i udviklingsprocessen<br />

(Ferguson 1994:15). På baggrund af en analyse af udviklingsprojekter i Lesotho viser<br />

Ferguson, at der typisk er meget langt fra donorernes gode intentioner til de reelle<br />

resultater af indsatsen, og i forlængelse heraf argumenterer han for, at man som<br />

analytiker må frigøre sig fra normative perspektiver, hvis man vil tegne et dækkende<br />

billede af udviklingsbistand. I stedet foreslår Ferguson en forståelse af udvikling som<br />

en historisk situeret praksis, der ikke kan forklares ud fra aktørernes hensigter, men<br />

må anskues teoretisk som ”a riddle, a problem to be solved, an anthropological<br />

puzzle” (ibid.:17).<br />

Fergusons perspektiv gør op med et traditionelt syn på udviklingsprojekter som<br />

løsninger på foruddefinerede behov og problemer. Synspunktet bakkes op af antro-<br />

pologen Mosse, der mener, at de lokale behov først konstrueres under projektforløbet<br />

på baggrund af de muligheder, som udviklingsbistanden åbner op for, idet ”needs are<br />

socially constructed” (Mosse 2001:21). Denne sociale konstruktion af behov, løsnin-<br />

ger og ’udvikling’ finder sted i forhandlinger mellem de involverede aktører, disses<br />

forståelseshorisonter samt de institutionelle, politiske og økonomiske rammer<br />

omkring udviklingspraksissen, og man kan på den baggrund betragte udvikling som<br />

”a system of representations” (ibid.:27).<br />

19


2.1.1. Diskurs, magt og viden<br />

Ferguson baserer sin analyse af udviklingsbistand på Foucaults diskursbegreb<br />

(Foucault 1978 og 1991). Foucault definerer diskurser som kulturelt og historisk<br />

givne videnssystemer, der på en gang påvirker og påvirkes af praksis (Foucault<br />

1978:112). Begrebet favner således både et lokalt praktisk og et samfundsmæssigt<br />

strukturelt niveau, som betinger hinanden. Det interessante for Foucault er netop at<br />

undersøge samspillet mellem disse to niveauer, idet hans metodiske målsætning er:<br />

”To relate discourse not to a thought, mind or subject which engendered it, but to the<br />

practical field in which it is deployed” (Foucault 1991:61).<br />

Vi opererer i dette speciale med en analytisk skelnen mellem diskursiv praktik –<br />

Foucaults betegnelse for den specifikke fremgangsmåde, hvorpå aktører inden for et<br />

bestemt socialt domæne genskaber og forandrer viden om dette domæne (eksempel-<br />

vis mediebistand), og begrebet diskurs, der beskriver de overordnede betydnings-<br />

mønstre, som den diskursive praktik er den del af (ibid.:68, Lindgren 1996:241).<br />

Tæt knyttet til Foucaults diskursbegreb er hans magtbegreb, som defineres negativt i<br />

forhold til en gængs juridisk-politisk forestilling om magt som en makrofysisk,<br />

statisk og repressiv størrelse: ”magt er ikke en institution, og det er ikke en struktur,<br />

det er heller ikke en bestemt kraft som visse udvalgte skulle være begavet med: det er<br />

det navn, man giver en kompliceret strategisk situation i et givet samfund” (Foucault<br />

1978:105). For Foucault er magt således en allestedsnærværende, socialt produktiv<br />

ressource, der ikke kan besiddes eller ophobes men udøves i social interaktion og<br />

kommer til udtryk som en ”mangfoldighed af styrkeforhold som er immanente i det<br />

område hvor de udøves og hvis organisation de konstituerer” (ibid.:104). Magt<br />

implicerer viden og vice versa, og i enhver diskursiv praktik vil man genfinde en<br />

dynamisk relation mellem disse to aspekter (ibid.:113, Lindgren 1996:336). Ferguson<br />

giver dette eksempel på sammenføjningen af magt og viden i et udviklingsprojekt:<br />

…discourse is a practice, it is structured, and it has real effects (….) The<br />

thoughts and actions of “development” bureaucrats are powerfully shaped by<br />

the world of acceptable statements and utterances within which they live: and<br />

what nations, classes, or international agencies, but also, and at the same time,<br />

of a working out of this complex structure of knowledge. (Ferguson 1994:18)<br />

Citatet anskueliggør, at udviklingsaktørers handlinger, tanker og udsagn informeres<br />

af de magtrelationer, der gør sig gældende på de institutionelle, politiske og<br />

økonomiske arenaer, de pågældende aktører agerer i. Magtrelationerne definerer<br />

hvilken viden og hvilke normer, der opfattes som acceptable og sætter dermed<br />

rammerne for, hvad der kan tænkes og gøres i et konkret udviklingsprojekt. Dog er<br />

aktørerne ikke determinerede af disse rammer – de bearbejder dem løbende og<br />

bidrager derved til at rekonstruere og udvikle diskurserne (Ferguson 1994:67, Mosse<br />

2001:29f). Med Mosses ord er et udviklingsprojekt ud fra ovenstående<br />

20


diskursperspektiv at betragte som ”a complex of micro-politics of knowledge<br />

production and use” (Mosse 2001:19).<br />

2.1.2. Evaluering som diskursiv praktik<br />

Inspireret af Mosse og Ferguson betragter vi mediebistand ved hjælp af Foucaults<br />

diskursbegreb og anskuer følgelig et Danidastøttet mediebistandsprojekt som en<br />

praksis, der opstår og udvikles i komplekse forhandlinger mellem aktører med<br />

forskellige interesser og forståelseshorisonter. Aktørernes handlinger og udsagn i den<br />

lokale mediebistandspraksis bidrager til at vedligeholde og reartikulere bestemte<br />

opfattelser af, hvad ’mediebistand’ er – jævnfør synet på udvikling som et system af<br />

repræsentationer. Et væsentligt element i denne diskursive konstruktion af<br />

mediebistand er evalueringsprocessen, idet forhandlingerne om værdier, viden og<br />

interesser skærpes, når projekterne skal vurderes. Evalueringer er således at betragte<br />

som forhandlingsknudepunkter (”negotiating points”, Marsden, Oakley & Pratt<br />

1994:1) og anledninger til at eksplicitere og dermed reetablere antagelser om<br />

udviklingsindsatsens mål og midler (Mosse 2001:31):<br />

…evaluations themselves provided important moments in the lives of all<br />

development projects, when opportunities for the ’negotiation of values’ might<br />

be centrally addressed. (Marsden, Oakley & Pratt 1994:1)<br />

Evaluering er således en signifikant diskursiv praktik, som det er interessant at<br />

analysere nærmere med henblik på at afdække dominerende diskurser om medie-<br />

bistand og disses praktiske konsekvenser (Ferguson 1994:71). I afsnit 2.3.<br />

præsenterer vi en teoretisk ramme for analysen af evalueringer af Danidastøttede<br />

mediebistandsprojekter som en diskursiv praktik.<br />

2.2. Udviklings- og evalueringsdiskurser<br />

Det første trin i vores analyse af samspillet mellem diskurser og de diskursive<br />

praktikker bliver en undersøgelse af fremtrædende udviklings- og evaluerings-<br />

teoretiske diskurser. En sådan undersøgelse rejser spørgsmålet om, hvordan man<br />

afgrænser en diskurs. Foucaults bud på denne problemstilling er, at man ikke kan<br />

identificere diskurser som stabile, velafgrænsede enheder, idet alle diskurser undergår<br />

konstante forandringer som følge af forskydninger i selve den diskursive formation, i<br />

relationerne mellem diskurser samt i de politiske, økonomiske og sociale betingelser<br />

for diskursen (Foucault 1991:56ff.). Det er i disse forskydninger, at en diskurs<br />

defineres – den er med andre ord afgrænset ved sin forskel fra andre diskurser,<br />

hvorfor man må undersøge ”the divergence, the distances, the oppositions, the<br />

differences, the relations of various scientific discourses” (ibid.:55).<br />

På denne baggrund har vi i analysen af videnskabelige diskurser på udviklings- og<br />

evalueringsområdet taget udgangspunkt i de måder, hvorpå teoretiske tekster<br />

kritiserer og distancerer sig fra hinanden. Denne grænsedragning mellem diskurserne<br />

21


har vi løbende sammenholdt med den empiriske analyse af Danidas evaluerings-<br />

praksis. Derved har vi søgt at skabe en synergi mellem teori og empiri, hvor teorien<br />

på den ene side bidrager til at belyse og kvalificere de empiriske iagttagelser, mens<br />

den empiriske kortlægning af, hvordan diskurserne manifesterer sig, på den anden<br />

side udfordrer og raffinerer identifikationen af videnskabelige diskurser. Denne<br />

tilgang er inspireret af den diskursanalytiske metode, som Foucault betegner<br />

genealogi. Genealogien sigter mod at beskrive diskurser dels ’indefra’ gennem<br />

tolkning af tekster og udsagn, og dels ’udefra’ ved at karakterisere de historiske<br />

mulighedsbetingelser for produktionen af udsagn (Lindgren 1996:339). Metoden har<br />

i kraft af dette dobbelte perspektiv en vis lighed med hermeneutikken, men dog med<br />

den vigtige forskel, at diskursanalysen ikke søger efter en dybere sandhed og dermed<br />

ikke interesserer sig for skjulte betydninger og psykologiske motiver.<br />

Efter nu at have beskrevet vores metodologiske overvejelser i forbindelse med at<br />

analysere evaluerings- og udviklingsdiskurser, præsenterer vi i det følgende det<br />

teoretiske apparat, hvormed vi belyser evaluering af dansk mediebistand som<br />

diskursiv praktik:<br />

2.3. Symbolsk interaktionisme<br />

Med udgangspunkt i Mosse beskrev vi ovenfor et udviklingsprojekt som et mikro-<br />

politisk kompleks af vidensproduktion og –anvendelse, det vil sige en diskursiv<br />

praktik, i hvilken evalueringsprocessen spiller en særlig rolle som knudepunkt for<br />

forhandlinger om de antagelser, projektet bygger på (Mosse 2001:19). Til belysning<br />

af disse forhandlingsprocesser har vi fundet det frugtbart at inddrage et teoretisk<br />

perspektiv, som bygger på Foucaults magtbegreb og giver konkrete redskaber til<br />

empirisk mikrosociologisk analyse heraf. Det drejer sig om traditionen symbolsk<br />

interaktionisme, der beskæftiger sig med interaktion mellem individer, sociale<br />

grupperinger og artefakter (symboler, fænomener, fysiske genstande, begreber).<br />

Vores fremstilling af symbolsk interaktionisme bygger primært på Susan Leigh Stars<br />

begreber grænseobjekt og praksisfællesskab, der er beskrevet i Bowker & Star (1999)<br />

og Star & Griesemer (1989). Desuden inddrager vi to teoretikere, som Star trækker<br />

på og forholder sig til. Det drejer sig om den franske sociolog Bruno Latour og hans<br />

translationsbegreb (Latour 1986), samt Anselm Strauss (1978), som er en af den<br />

symbolske interaktionismes grundlæggere.<br />

2.3.1. Translation<br />

Fergusons modsvar til den normative udviklingsdebat var, som nævnt, at definere<br />

udvikling som en situeret praksis, der er til løbende forhandling mellem de<br />

involverede aktører, disses forståelseshorisonter og interesser. Dette syn på udvikling<br />

kan beskrives teoretisk ved hjælp af begrebet translation, som er introduceret af<br />

22


Latour (Latour 1986). Anlægger man Foucaults pluralistiske og dynamiske magt-<br />

perspektiv er det ifølge Latour umuligt at forestille sig, at nye artefakter kan udbredes<br />

ved egen kraft i overensstemmelse med de intentioner, de blev skabt på baggrund af.<br />

Udbredelsen af et artefakt forudsætter derimod, at aktører løbende overtager eller<br />

oversætter dette i henhold til deres egne ønsker og interesser. Translation refererer til<br />

denne oversættelsesproces, og Latours introduktion af begrebet indebærer et opgør<br />

med forestillingen om, at udvikling, evaluering eller andre fænomener besidder en<br />

bestemt essens, som passerer uændret gennem de oversættende led. En evaluering<br />

eksisterer dermed ikke ’i sig selv’ – den bryder frem gennem en kompleks<br />

forhandlings- og fortolkningsproces. Konsekvenserne heraf diskuterer vi indgående i<br />

analyseafsnittet.<br />

2.3.2. Praksisfællesskaber<br />

Star bygger videre på Latours translationsbegreb og forsøger med begreberne<br />

praksisfællesskab og grænseobjekt at beskrive den sociale infrastruktur, som<br />

translationsprocesser er en del af (Bowker og Star 1999:285). Star benytter begrebet<br />

praksisfællesskab (community of practice) 10 om relationer mellem aktører, som er<br />

fælles om et bestemt sæt aktiviteter, arbejdsmetoder samt interaktions- og<br />

kommunikationsformer. Et praksisfællesskab er en analytisk enhed, der går på tværs<br />

af formelle organisationer og institutioner, hvilket betyder, at begrebet kan appliceres<br />

på mange forskellige niveauer (ibid.:283).<br />

Vi interesserer os for interaktionen mellem de tre praksisfællesskaber: evaluatorer/<br />

konsulenter, opdragsgiver/Danida og evaluerede aktører/partnere. Men vi betragter<br />

samtidig også disse som henholdsvis underinddelt i mindre fællesskaber og dele af<br />

større, overordnede fællesskaber. Eksempelvis består Danida af en række mindre<br />

praksisfællesskaber såsom ’Ambassaden i Dhaka’ og ’Evalueringskontoret’ og indgår<br />

samtidig i større praksisfællesskaber såsom ’statsadministrationen’ og ’donor-<br />

samfundet’.<br />

2.3.3. Grænseobjekter<br />

I teksten ”Institutional Ecology, ’Translation’, and Boundary Objects – Amateurs and<br />

Professionals in Berkeley’s Museum of Vertebrate Zoology, 1907-1939” undersøger<br />

Star og Griesemer, hvordan samarbejde mellem forskellige praksisfællesskaber er<br />

muligt. Star og Griesemer introducerer begrebet grænseobjekt (”boundary object”,<br />

Star & Griesemer 1989:390) som et analytisk værktøj til at forstå samarbejdet<br />

mellem ledelse, sponsorer og zoologiske samlere i forbindelse med dannelsen af et<br />

10 Bowker & Star 1999:294-7. Star er elev af en af den symbolske interaktionismes grundlæggere,<br />

Strauss, som i artiklen ”A Social World Perspective” fra 1978 foreslår social verden som en sociologisk<br />

kategori. En social verden opstår i samkonstruktion mellem følgende syv aspekter: (1) kommunikation,<br />

(2) kultur, (3) interaktion, (4) fysiske rammer, (5) aktiviteter, (6) organisationsstrukturer, (7)<br />

teknologier/arbejdsmetoder. Stars definition af praksisfællesskaber trækker på Strauss 1978.<br />

23


naturhistorisk museum i Californien. Et grænseobjekt defineres som en konkret<br />

genstand eller et abstrakt begreb, der medierer mellem forskellige interesser og<br />

praksisformer. Eksempelvis fungerer begrebet Californien som et grænseobjekt i<br />

samarbejdet omkring museet, idet alle involverede praksisfællesskaber er<br />

interesserede i at bevare naturen i netop dette geografiske område. Fælles<br />

arbejdsformer og idealtyper – i form af kort, kategoriseringsformer, diagrammer – er<br />

eksempler på mere konkrete grænseobjekter, hvis udvikling og opretholdelse er en<br />

forudsætning for kohærens mellem samlere og forskere (ibid.:407). Der kan således<br />

være mange grænseobjekter i spil mellem de samme grupper på samme tid. Når vi i<br />

det følgende vælger at analysere en evaluering som et grænseobjekt, er det værd at<br />

huske på, at den blot er én blandt flere, som bidrager til at binde Danida, Danidas<br />

partnere og de eksterne konsulenter sammen.<br />

Vi har nu defineret et grænseobjekt som en enten abstrakt eller konkret genstand, der<br />

som et resultat af aktørernes translations- og forhandlingsarbejde medvirker til at<br />

knytte forskellige praksisfællesskaber sammen:<br />

Boundary objects are those objects that both inhabit several communities of<br />

practice and satisfy the informational requirements of each of them. Boundary<br />

objects are thus both plastic enough to adapt to local needs and constraints of<br />

the several parties employing them, yet robust enough to maintain a common<br />

identity across sites. (Bowker & Star 1999:297)<br />

Grænseobjekter bygger bro mellem forskellige praksisfællesskabers antagelser og<br />

praksisformer ved på den ene side at være så plastiske og ’tomme’, at de kan tilpasse<br />

sig forskellige informationsbehov og på den anden side at være så robuste og<br />

indholdsrige, at de bevarer en fælles mening på tværs af praksisfællesskaber. Der er<br />

altså tale om objekter ”which lives in multiple social worlds and which have different<br />

identities in each” (Star & Griesemer 1989:409). Dannelsen og vedligeholdelsen af<br />

grænseobjekter er i sig selv et resultat af interaktion og forhandlinger mellem aktører<br />

inden for og på tværs af praksisfællesskaber. Et grænseobjekt afspejler således<br />

styrkeforholdet og de politiske spændinger mellem de aktører, som har deltaget i<br />

forhandlingerne (Bowker & Star 1999:305).<br />

Ved at betragte evalueringer som grænseobjekter bliver det tydeligt, at det samme<br />

evalueringsforløb kan translateres forskelligt af henholdsvis opdragsgiveren,<br />

evaluatoren og de evaluerede aktører. Det står samtidig klart, at et praksisfællesskab<br />

ikke kan translatere en evaluering fuldstændig frit og efter eget forgodtbefindende,<br />

idet fortolkningen hele tiden er til forhandling med de øvrige praksisfællesskaber og<br />

grænseobjektets robusthed. På trods af translationer, forhandlinger og trans-<br />

formationer bevarer den sociale verden altså en tilstrækkelig stabilitet til, at vi<br />

genkende den, agere i den og sommetider føle os dominerede af den.<br />

24


I dette afsnit har vi nu beskrevet de teoretiske ressourcer, vi senere vil trække på i<br />

analysen dels af fremtrædende diskurser på felterne evaluering og udviklingsbistand,<br />

dels af evalueringsprocessen som en diskursiv praktik, der opstår og forhandles i<br />

interaktionen mellem aktører med forskellige forståelseshorisonter og interesser.<br />

Dermed har vi præsenteret en ramme for forståelsen af, hvordan Danidas<br />

evalueringspraksis trækker på og genskaber overordnede diskurser. De ovenfor<br />

nævnte perspektiver har fokus på, hvordan strukturer, normer og diskurser på<br />

mediebistandsfeltet former en evaluering. I det følgende vil vi redegøre for en<br />

teoretisk ramme til belysning af den påvirkning, som evalueringerne øver på deres<br />

genstand, mediebistand. Den samlede teoretiske platform vil dermed give os<br />

mulighed for at analysere samspillet mellem evaluering og mediebistand.<br />

2.4. Evaluering og dens genstand<br />

Den danske politolog Dahler-Larsen (1998, 2004) forsker i evaluering som kulturelt<br />

og organisatorisk fænomen og interesserer sig blandt andet for, hvordan en<br />

evaluerings sprog bidrager til at konstituere den virkelighed, evalueringen<br />

undersøger:<br />

[E]valueringer kan påvirke, hvad der tages som efterstræbelsesværdige mål i en<br />

organisation; de kan styrke eller svække bestemte former for solidaritet og<br />

samarbejde; de kan gøre bestemte typer af aktører tavse eller talende (…). Det<br />

er det, der menes med, at evalueringer kan være konstitutive. De er med til at<br />

konstruere virkelighed. (Dahler-Larsen 1998:163)<br />

Disse ”konstitutive virkninger” (Dahler-Larsen 2004:31) hviler på evalueringers rolle<br />

som knudepunkter for forhandlinger og meningskonstruktion i et udviklingsprojekt. I<br />

en evaluering udpeges en aktivitet til genstand og bliver derved problematiseret: det<br />

skal undersøges, om aktiviteten er ’god nok’. Hvad der regnes for ’godt nok’ kommer<br />

til udtryk i de evalueringskriterier som genstanden vurderes på baggrund af.<br />

Evalueringskriterierne udtrykker dermed, hvad der er væsentligt og uvæsentligt,<br />

problematisk og uproblematisk, normalt og unormalt ved genstanden, hvilket<br />

potentielt smitter af på de evaluerede aktørers selvforståelse og handlingsorientering.<br />

Dahler-Larsen skelner mellem tre aspekter ved genstanden, som på denne måde<br />

påvirkes af en evaluering: et indholdsmæssigt aspekt, et tidsligt aspekt samt de<br />

relationer og identiteter, som knytter sig til genstanden (2004:32f., 1998:97f.). Vi vil i<br />

det følgende se nærmere på disse tre aspekter.<br />

2.4.1. Indhold og tidsorientering<br />

2.4.1.1. Kriterier og indikatorer<br />

En evaluering er en bedømmelseshandling, som baserer sig på en række mere eller<br />

mindre udtalte evalueringskriterier defineret som ”målepunkter, der bruges til at<br />

afgøre, om et resultat er godt eller dårligt” (Dansk Evaluerings Selskab 2004:7).<br />

Evalueringskriteriernes skelnen mellem godt og dårligt fortolker de politisk-<br />

25


administrative målsætninger og værdier, som ligger bag den evaluerede indsats og<br />

udtrykker således, hvad opdragsgiveren finder væsentligt og acceptabelt. Med<br />

henblik på at kunne vurdere om et evalueringskriterium er opfyldt eller ej, anvender<br />

evaluatoren en række indikatorer, der beskrives som ”kvalitative eller kvantitative<br />

mål, der kan anvendes som enkle og pålidelige redskaber til at måle et opnået resultat<br />

eller til at afspejle ændringerne, som er fundet med en indsats.” (ibid.:11). Indikatorer<br />

omsætter de værdier, som kommer til udtryk i kriterierne, til empirisk målbare<br />

spørgsmål.<br />

Relationen mellem kriterier og indikatorer vil vi illustrere ved hjælp af to eksempler,<br />

som begge er hentet uden for vores kontekst. Det ene eksempel er evaluering af<br />

Arbejdsformidlingens (AF) indsats, hvor et væsentligt kriterium er, at der er effektivt<br />

samarbejde mellem AF og erhvervslivet. Den kvantitative indikator, som anvendes<br />

med henblik på at vurdere, om dette kriterium opfyldes, er antallet af virksomheds-<br />

besøg, som den enkelte AF-medarbejder aflægger årligt (Dahler-Larsen 1998:95).<br />

Det andet eksempel er den polske møbelindustri, som før jerntæppets fald blev<br />

belønnet af staten ud fra et kriterium om, at de mest effektive virksomheder skulle<br />

have flest penge. Indikatoren, som blev anvendt til at måle effektivitet, var vægt –<br />

altså antal producerede tons møbler per år (Dahler-Larsen 2004:32).<br />

2.4.1.2. Indikatorfiksering<br />

De anvendte evalueringskriterier og indikatorer måler ikke blot indsatsen neutralt –<br />

de styrer også de evaluerede aktørers handlinger og bidrager dermed til at definere<br />

evalueringsgenstanden. Dette fænomen kaldes indikatorfiksering (Dahler-Larsen<br />

2004:31ff.) og kan komme til udtryk på forskellig vis. Eksempelvis oplevede et<br />

indkøbscenter at blive besøgt mere end 30 gange den sidste uge før nytår af en AF-<br />

konsulent (Dahler-Larsen 1998:95). Tilsvarende havde den polske stats belønnings-<br />

system utilsigtede konsekvenser, idet det resulterede i, at det polske møblement blev<br />

verdens tungeste (Dahler-Larsen 2004:32). Begge eksempler illustrerer, at den<br />

anvendte indikator er blevet mere vigtig end selve indsatsen, hvorved evalueringen<br />

’koloniserer’ evalueringsgenstanden (Power 1997, Dahler-Larsen 1998:79).<br />

AF-medarbejderen, som pludselig fik travlt med at aflægge virksomhedsbesøg, er et<br />

eksempel på, at de anvendte indikatorer påvirker de evaluerede aktørers<br />

tidsorientering:<br />

Evalueringernes konstitutive effekt langs den tidsmæssige dimension består i,<br />

at man kan komme til at indrette en indsats efter, at (erkendelsen af) dens<br />

evaluerbare effekter skal vise sig på det tidspunkt, hvor en given evaluering<br />

finder sted. (Dahler-Larsen 2004:34-35)<br />

En evaluering må nødvendigvis vurdere sin genstand på et bestemt tidspunkt. Vi har<br />

tidligere defineret evaluering som en retrospektiv bedømmelse, hvilket vil sige, at<br />

26


kun de aktiviteter, som afsluttes inden evalueringstidspunktet, tæller med i<br />

vurderingen. Det er på den baggrund, at anvendelsen af indikatorer kan tilskynde de<br />

evaluerede aktører til at indrette indsatsen i et forsøg på at få resultaterne synlige til<br />

evalueringens deadline. Mediebistand er en metodisk vanskelig evalueringsgenstand<br />

at have med at gøre, idet projekternes effekt på demokratisering og udvikling har et<br />

langt tidsperspektiv. Der er derfor et misforhold mellem evalueringsmetodens og<br />

evalueringsgenstandens tidsorientering. Hvordan dette tackles i de enkelte<br />

evalueringer, og hvad det betyder for projektaktørernes indsats, vil vi undersøge<br />

nærmere i analysen.<br />

Det tunge polske møblement illustrerer, hvordan en indikator kan sætte sig<br />

definitorisk på evalueringsgenstanden og indstifte en opfattelse af, at ’gode møbler er<br />

tunge møbler’. På samme måde opstiller de anvendte indikatorer i mediebistands-<br />

evalueringer retningslinier for, hvad opdragsgiveren anser for en god mediebistands-<br />

indsats:<br />

Evaluation has the potential to influence aid performance. The foci chosen, the<br />

direction of attention, the questions asked, all signal to the aid agencies’<br />

operative units what really matters at the end of the day. (Stokke 1991:1)<br />

Såvel den tidsmæssige som den indholdsmæssige indikatorfikserings omfang<br />

afhænger i høj grad af, hvilke konsekvenser det har ikke at leve op til evaluerings-<br />

kriterierne (Dahler-Larsen 1998:94f). Opdragsgiverens anvendelse af evalueringen<br />

har således en væsentlig betydning for samspillet mellem en evaluering og dens<br />

genstand. Hvis et mediebistandsprojekt risikerer lukning som følge af en kritisk<br />

evaluering, er tilskyndelsen til at undgå en sådan alt andet lige større, end hvis ingen i<br />

Danida læser og følger op på rapporten. På den baggrund spiller de forskellige<br />

aktørers forventninger og relationer til hinanden i evalueringsprocessen en rolle for<br />

deres handlinger både før, under og efter gennemførelsen af en evaluering. Vi vil i<br />

det følgende se nærmere på, hvordan evalueringer bidrager til at konstruere<br />

identiteter og relationer.<br />

2.4.2. Identiteter og relationer<br />

Samtidig med at evalueringen kommunikerer om evalueringsgenstandens indhold og<br />

tidsperspektiv, metakommunikerer den også om de involverede aktørers identiteter<br />

og relationer. En evaluering af et mediebistandsprojekt beskriver således forholdet<br />

mellem donor og modtager, ligesom den implicit definerer, hvem der har ret til at<br />

sætte spørgsmålstegn ved hvad, hvem ansvaret for projektets (manglende) resultater<br />

skal tilskrives, og om de evaluerede aktører skal have lov til fortsat at modtage penge<br />

fra Danida. Der er altså væsentlige emner på spil i evalueringsprocessens forhandling<br />

af identiteter og relationer – så store, at Dahler-Larsen omtaler evalueringer som<br />

”identitetsdramaer” (ibid.:164).<br />

27


Dahler-Larsens gennemgang af evalueringers konstitutive virkninger uddyber Mosses<br />

påstand om, at et udviklingsprojekts virkelighed er socialt konstrueret, og at<br />

evalueringer spiller en vigtig rolle i denne virkelighedskonstruktion. Dette forhold<br />

belyses teoretisk af Foucault.<br />

Ifølge Foucault eksisterer der ikke subjekter uden for diskursen, hvilket med andre<br />

ord vil sige, at han ikke anerkender eksistensen af en identitetsmæssig ’essens’.<br />

Individets personlighed, opfattelser og handlinger defineres derimod i interaktionen<br />

med andre mennesker, strukturer og objekter (Foucault 1978:339). Dette synspunkt<br />

er ligeledes en grundpille i den symbolsk interaktionistiske tankegang, hvilket<br />

afspejler sig traditionens navn. Alle diskurser rummer en række subjektpositioner,<br />

som aktørerne kan indtage, og ud fra hvilke aktørernes indbyrdes relationer og<br />

magtstrukturer defineres:<br />

What is important to me is to show that there are not on the one hand inert<br />

discourses, which are already more than half dead, and on the other hand, an<br />

all-powerful subject, which manipulates them, overturns them, renews them;<br />

but that discoursing subjects form a part of the discursive field (…) Discourse<br />

is not a place onto which the subjectivity irrupts – it is a space of differentiated<br />

subject-positions and subject-functions. (Foucault 1991:58)<br />

Det følger heraf, at den måde, hvorpå den enkelte evaluering indskriver sig i en<br />

bredere diskursmæssig sammenhæng, har betydning for det udvalg af<br />

subjektpositioner, som er tilgængeligt for den konkrete donor, partner og konsulent.<br />

Hermed former evalueringens sprog de identiteter og relationer, som knytter sig til et<br />

helt projekt.<br />

Med afsæt i Foucaults diskursbegreb, den symbolske interaktionisme og antropo-<br />

logerne Mosse og Fergusons anvendelse af Foucault i en udviklingssammenhæng har<br />

vi i dette kapitel præsenteret de teoretiske ressourcer, vi anvender til at belyse sam-<br />

spillet mellem Danidas evalueringspraksis, feltet mediebistand samt evaluerings- og<br />

udviklingsteoretiske diskurser. I de tre følgende kapitler forbliver vi på et teoretisk<br />

niveau og identificerer dominerende diskurser inden for felterne udvikling og<br />

evaluering med henblik på en senere analyse og diskussion af, hvordan disse<br />

diskurser manifesterer sig i Danidas evalueringspraksis.<br />

28


3. Udviklingsteoretiske diskurser<br />

I dette kapitel vil vi identificere to dominerende diskurser, som former praksis og<br />

antagelser på feltet udviklingsbistand. De to diskurser trækker på vidt forskellige<br />

ideologiske grundlag men eksisterer ikke desto mindre side om side i dag og kommer<br />

begge til udtryk i Danidas mediebistand. Afsnit 3.1. omhandler moderniserings-<br />

diskursen, og afsnit 3.2. dens modstykke, som vi benævner den kritiske udviklings-<br />

diskurs. Vi afrunder kapitlet med en diskussion af, hvordan de to diskurser på<br />

paradoksal vis påvirker forholdet mellem donor og modtager i Danidas medie-<br />

bistandsprojekter. Det sker i afsnit 3.3.<br />

Det første eksempel på en egentlig udviklingsindsats var rettet mod vores egen<br />

verdensdel: Med The European Recovery Programme, bedre kendt som Marshall-<br />

hjælpen, valgte USA i årene efter Anden Verdenskrig at give det dengang krigs-<br />

hærgede Europa en finansiel indsprøjtning for at hjælpe de enkelte landes økonomier<br />

på fode igen efter krigens afslutning. 11 De positive erfaringer med denne model var<br />

anledningen til, at man kort efter, det vil sige i slutningen af 1940’erne, påbegyndte<br />

endnu en hjælpeindsats i den såkaldt tredje verden.<br />

I dag har donorlandene været engageret i den tredje verdens udvikling gennem mere<br />

end et halvt århundrede, og mange strategier er afprøvet – nogle med held, andre<br />

uden. Såvel teoretiske og ideologiske strømninger som realpolitiske målsætninger har<br />

spillet ind på valget af disse strategier, og således har man gennem udviklings-<br />

bistandens historie kunnet iagttage forskellige udviklingsdiskurser afspejle skiftende<br />

politiske tendenser og skillelinier. Et åbenlyst eksempel herpå er, at Øst- og<br />

Vestmagterne med henholdsvis Sovjetunionen og USA i spidsen under den kolde<br />

krig valgte at gribe udviklingsproblematikken i den tredje verden an på forskellige<br />

måder. Mens man fra toneangivende vestlige landes side 12 forfulgte et kapitalistisk<br />

præget ideal og gennem strukturtilpasningsprogrammer blandt andet ydede u-landene<br />

lån til gengæld for liberalisering af deres markedsforhold (Degnbol-Martinussen &<br />

Engberg-Pedersen 1999:76f), så anvendte Sovjetunionen udviklingsbistand til at<br />

støtte socialistiske kræfter i modtagerlandene (ibid:35f.). Efter murens fald i 1989<br />

oplevede man blandt de vestlige lande en styrket selvbevidsthed, der blandt andet<br />

kommer til udtryk gennem mere eksplicitte krav overfor modtagerlandene om blandt<br />

andet demokratisering og overholdelse af menneskerettigheder (ibid:78f.). Disse krav<br />

omtales i udviklingsterminologien som politiske konditionaliteter, det vil sige<br />

betingelser, som NGO’er og/eller regeringer i modtagerlandet må indgå på for at<br />

11 80 % af den samlede Marshall-hjælp gik til Europa, 20 % blev fordelt til Mellemøsten, Syd- og<br />

Østasien (Degnbol-Martinussen & Engberg-Pedersen 1999:122).<br />

12 Det vil ifølge Degnbol-Martinussen & Engberg-Pedersen sige USA, Storbritannien og Tyskland<br />

(Degnbol-Martinussen & Engberg-Pedersen 1999:76).<br />

29


kunne modtage udviklingsbistand. Fremme af frie medier er et eksempel på en sådan<br />

politisk konditionalitet og dermed – som vi også beskrev i indledningen – et<br />

eksempel på en politisering af et i forvejen komplekst forhold mellem donor og<br />

modtager. Dette forhold vil vi belyse nærmere i nærværende afsnit.<br />

Pointen med ovenstående korte, historiske vue er at understrege udviklings-<br />

diskursernes nære forbindelse til den samtid og det politiske klima, de aktualiseres i.<br />

Selvom vores fremstilling i det følgende er relativt enkel, idet vi ikke har vurderet en<br />

høj detaljeringsgrad relevant i lyset af den valgte problemstilling, så er det væsentligt<br />

at være opmærksom på relationen mellem politiske strømninger og udviklings-<br />

diskurser.<br />

Vi foretager i det følgende en overordnet inddeling i to diskurser, en moderniserings-<br />

diskurs og en kritisk udviklingsdiskurs. Denne inddeling baserer sig på en række<br />

kilder, hvoraf de primære er Degnbol-Martinussen (1994): Globalisering og<br />

udvikling: Teorier og perspektiver for u-landene, Chambers (1983): Rural<br />

Development. Putting the Last First og Degnbol-Martinussen og Engberg-Pedersen<br />

(1999): Bistand – udvikling eller afvikling? 13 Endvidere inddrages en række<br />

publikationer fra Udenrigsministeriet/Danida.<br />

3.1. Moderniseringsdiskursen<br />

Moderniseringsdiskursen er kendetegnet ved, at udvikling betragtes som en stræben<br />

efter en samfundsform, der i videst mulig udstrækning minder om den vestlige<br />

verdens ditto (Degnbol-Martinussen 1999:78f). Denne idé om udviklingsprocessens<br />

endemål har været aktuel siden Marshall-hjælpen, og den er funderet i en forestilling<br />

om kausal sammenhæng mellem økonomisk vækst og udvikling af det samfund,<br />

hvori væksten foregår (Degnbol-Martinussen & Engberg-Pedersen 1999:48ff, Brett<br />

2000:2). I forlængelse heraf opfattes udviklingsprocessen som et tilnærmelsesvist<br />

lineært forløb, der foregår efter stort set samme forskrift, uanset hvilken nation eller<br />

13 Disse teoretikere anvender ikke begrebet udviklingsdiskurs, men taler derimod om henholdsvis<br />

forskellige ”udviklingsmål” og ”bistandsstrategier” (Degnbol-Martinussen & Engberg-Pedersen<br />

1999:48ff) samt om nye eller gamle ”udviklingsparadigmer” (Chambers 1993:2ff).<br />

Gennemgangen i Degnbol-Martinussen & Engberg-Pedersen 1999:72 tager afsæt i, at forskellige årtier<br />

har været præget af forskellige bistandsstrategier. På side 84 fremgår det dog, at strategierne – på trods<br />

af tilknytning til et særligt årti – anvendes parallelt med hinanden, også i dag.<br />

Paradigmebegrebet defineres således af Chambers: ”[A] coherent and mutually supporting pattern of<br />

concepts, values, methods and action, amenable to wide application” (Chambers 1993). Citatet afspejler,<br />

at et teoretisk paradigme, såvel som en diskurs, både omfatter et bestemt videnssystem (concepts), et<br />

normativt, ideologisk standpunkt (values) samt en bestemt metodologisk tilgang, som er i<br />

overensstemmelse med paradigmets forståelseshorisont (methods and action). Teoretikerne drager<br />

forskellige skel mellem paradigmerne, men vores overordnede inddeling i en moderniserings- og en<br />

kritisk diskurs baserer sig på dels en bearbejdning og forsimpling af de metodiske, teoretiske og<br />

strategiske skillelinier i Degnbol-Martinussen 1994, dels et foredrag af Morten Sodeman holdt på<br />

Annual Development Symposium: Poverty and Development, Centre for Tropical Ecosystems Research,<br />

Aarhus Universitet, 10. september 2004, og dels på Kattenhøj, Christensen og Gram (2004):<br />

Udviklingskommunikation – en synergi af metoder, Institut for Informations- og Medievidenskab, januar<br />

2004. Opgave afleveret i faget ”Medier i overgangs- og 3. verdenslande” v. Poul Erik Nielsen.<br />

30


hvilket samfund, man befinder sig i (Servaes 1996:84). Diskursen har traditionelt<br />

været nært knyttet til økonomisk teori, og denne tilknytning afspejler sig i en<br />

positivistisk verdensopfattelse, som blandt andet kommer til udtryk i antagelsen om,<br />

at et samfunds eller en enkelt sektors udviklingsstadie til enhver tid kan indtegnes på<br />

en skala fra underudviklet til udviklet, idet der i højere grad er tale om forskellige<br />

grader af udvikling end om forskellige typer af udvikling (Degnbol-Martinussen<br />

1999:78ff.).<br />

Uanset hvor på denne skala, en udviklingsgenstand befinder sig, så er selve<br />

udviklingsprocessen i en moderniseringstankegang kendetegnet af ’interventioner’,<br />

igennem hvilke der sker en opgradering eller udskiftning af traditionelle eller<br />

umoderne systemer, sektorer og infrastrukturer, eksempelvis også på medieområdet.<br />

Målet med disse interventioner er at bidrage til, at modtagerlandet eller<br />

organisationen opnår standarder, der i vid udstrækning er præget af vestlige idealer.<br />

3.1.1. Moderniseringsdiskursen og forholdet mellem donor og<br />

modtager<br />

På grund af moderniseringsdiskursens vægtning af vestlige idealer spiller donor – der<br />

typisk repræsenterer et vestligt land – en vigtig rolle i forhold til at vurdere, hvad der<br />

er ’bedst’ for den pågældende modtager, det vil sige i forhold til at afgøre hvilken<br />

intervention, der skal foretages. Heraf følger, at den praksis, som ligger i forlængelse<br />

af en moderniseringstankegang, tager sit udgangspunkt i donorens analyser og<br />

arbejdsmetoder, og den er dermed karakteriseret ved en såkaldt top-down tilgang<br />

(Degnbol-Martinussen & Engberg-Pedersen 1999:75).<br />

Interventionstankegangen, sigtet efter vestlige standarder og top-down-orienteringen<br />

er medvirkende til, at moderniseringsdiskursen præges af et donor-modtagerforhold,<br />

hvor donor indtager en fremtrædende rolle. Idet det overordnede mål kort sagt er at<br />

indføre tilstande lig dem, donorlandet/-organisationen selv befinder sig i, så vil donor<br />

– der repræsenterer endemålet for udviklingsindsatsen – i en relativ betragtning<br />

befinde sig højere i hierarkiet end modtageren (Chambers 1997). Man kan på denne<br />

baggrund tale om, at de donor-modtager subjektpositioner, som er indeholdt i<br />

moderniseringsdiskursen, i udgangspunktet står i et asymmetrisk styrkeforhold til<br />

hinanden.<br />

3.1.2. Kritik af moderniseringsdiskursen<br />

Moderniseringsdiskursens grundantagelser og metoder har til alle tider været<br />

omdiskuterede, men alligevel har de ”overlevet de sidste 40 års debatter og empiriske<br />

analyser” (Degnbol-Martinussen 1994:58). Den første eksplicitte kritik af tanke-<br />

gangen blev rejst i 1970’erne, og den rettede sig først og fremmest mod grund-<br />

læggende moderniseringsantagelser, såsom at en massiv eksport af vestlige systemer<br />

31


og teknologi til samfundenes centrale niveauer automatisk ville have en effekt for de<br />

mere perifere dele af et samfund. Eller at udviklingsprocessen kunne betragtes som et<br />

lineært forløb, uafhængigt af eksempelvis et lands kulturelle og historiske kontekst<br />

(Degnbol-Martinussen 2002:30). Endvidere blev det anført, at diskursen har rødder i<br />

kolonitidens dominansforhold, hvilket blandt andet indebærer en grov diskriminering<br />

af de lokales ønsker og viden (Chambers 1983).<br />

Denne kritik af den tidlige moderniseringsdiskurs har ført til, at centrale aktører i<br />

donorverdenen er begyndt at sætte spørgsmålstegn ved dens politiske korrekthed og<br />

har fremsat mere moderate udlægninger af den tankegang, der ligger bag. Sand-<br />

synligvis har denne moderation været medvirkende til, at en lang række af<br />

moderniseringsdiskursens synspunkter stadig er aktuelle blandt mange aktører<br />

indenfor udviklingsbistanden i vore dage. Ifølge Poul Grosen, direktør for UNDP’s<br />

nordiske kontor, er de grundlæggende elementer i moderniseringsdiskursen nemlig<br />

stadig aktuelle for både udviklingsorganisationer i FN-regi og blandt regeringer<br />

verden over 14 . At betragte udvikling som modernisering kan således betegnes som en<br />

’gammel’ og omdiskuteret tankegang, der dog stadig må anses som ganske aktuel og<br />

havende en ikke ubetydelig indflydelse på udviklingsindsatsen på såvel det multi-<br />

som det bilaterale plan. I afsnit 3.3. vender vi tilbage til, hvilke implikationer dette<br />

har for udviklingsindsatsen i dag.<br />

3.2. Den kritiske udviklingsdiskurs<br />

Til trods for, at den kritiske udviklingsdiskurs ofte opfattes som en ny eller i hvert<br />

fald nyere forståelsesramme, kan dens fremkomst spores helt tilbage til 1960’erne,<br />

hvor forskellige afarter af den såkaldte afhængighedsteori 15 begyndte opgøret med<br />

moderniseringstankegangen som den eneste måde at opfatte udviklingsprocessen på<br />

(Degnbol-Martinussen 1994:58). Den kritiske diskurs kan karakteriseres som en<br />

reaktion mod idealet om modernisering og vækst – i stedet bør opmærksomheden ret-<br />

tes mod selve udviklingsprocessen og de metoder, man benytter i den forbindelse.<br />

Robert Chambers m.fl. 16 blev i begyndelsen af 1980’erne talsmænd for den<br />

tankegang, der også i dag udgør fundamentet for den kritiske udviklingsdiskurs:<br />

’Putting the last first’ var undertitlen på hans første større udgivelse (Chambers<br />

1983), hvilket indikerer en markant anderledes opfattelse af udviklingsarbejde end<br />

den, moderniseringsdiskursen repræsenterer. Chambers plæderer for reel inddragelse<br />

af den allerfattigste del af målgruppen for udviklingsindsatsen og opfordrer til, at de<br />

udefrakommende udviklingsarbejdere ”step down off their pedestals, and sit down,<br />

14 Foredrag ved Poul Grosen, Annual Development Symposium, 10. september 2004. Aarhus<br />

Universitet, Søauditoriet. Arrangør: Centre for Tropical Ecosystems Research (cenTER).<br />

15 I et afhængighedsteoretisk perspektiv er årsagen til underudvikling, at de fattige tredjeverdens-lande<br />

er afhængige af den, vestlige økonomiske, militære og politiske magt. (Degnbol-Martinussen 1994:<br />

112ff.)<br />

16 Bl.a. den amerikanske samfundsforsker Guy Gran og den ligeledes amerikanske økonom og<br />

organisationsteoretiker David Korten.<br />

32


listen and learn” (ibid.:101). Han og andre antastede således den hidtidigt<br />

dominerende orientering efter økonomi, statsinstitutioner og topstyring af<br />

udviklingen og erstattede den med begreber som blandt andre participation og<br />

myndiggørelse 17 , hvor participationen dikterede et fokus på aktiv inddragelse af mål-<br />

gruppen, mens myndiggørelse udtrykte et af de primære formål med selve indsatsen:<br />

at målgruppen styrkes til at kunne og ville handle på eget initiativ (Servaes 1996:85).<br />

Den kritiske diskurs rummer således en bottom-up-praksis, hvor enhver beslutning<br />

træffes i samarbejde mellem alle involverede parter (UN 1999:9).<br />

Ud fra en kritisk udviklingsforståelse bliver participation på denne vis et mål i sig<br />

selv, da ligeværd mellem donor og modtager koblet med selvudvikling og frihed til<br />

selv at vælge for det samfund og de mennesker, der er i fokus, er afgørende succes-<br />

kriterier. I forlængelse heraf retter en ’kritisk’ udviklingsindsats sig mod civil-<br />

samfundet og dets individer, hvilket yderligere adskiller den kritiske diskurs fra<br />

moderniseringsdiskursen, hvor reformer primært sker via markedet og staten.<br />

3.2.1. Den kritiske udviklingsdiskurs og forholdet mellem donor<br />

og modtager<br />

Som tidligere nævnt er den kritiske diskurs i høj grad opstået som reaktion på<br />

moderniseringsdiskursen, og ikke mindst i forhold til synet på donor-modtager-<br />

relationen udgør de på det nærmeste hinandens modsætninger. Hvor moderniserings-<br />

diskursen indebærer et asymmetrisk styrkeforhold mellem donor og modtager,<br />

rummer subjektpositionerne i den kritiske udviklingsdiskurs et ideal om et<br />

ligeværdigt forhold, hvor donor solidariserer sig med modtager og også selv er<br />

indstillet på at forandre sig – frem for blot at understøtte modtagerens forandring.<br />

3.2.2. Kritik af den kritiske udviklingsdiskurs<br />

Selvom den kritiske tilgang til udviklingsbistand i mange sammenhænge anses for at<br />

være et bedre alternativ, ikke mindst i forhold til en moderniseringstankegang, så<br />

godtages det ikke ukritisk af hverken udviklingspraktikere eller –teoretikere (Brett<br />

2003). For det første er det en udbredt opfattelse, at de idealer, som kommer til<br />

udtryk i den kritiske diskurs er sympatiske, men at participations- og myndig-<br />

gørelsesorienterede metoder ikke er velegnede til alt (Mosse 2002). Eksempelvis kan<br />

det i visse tilfælde koste uforholdsmæssigt mange ressourcer at sikre en partici-<br />

patorisk proces omkring udformningen af et projekt, set i forhold til det endelige<br />

udbytte deraf (Mosse 1993, Brett 2003).<br />

Som vi beskrev i kapitel 2 kritiserer Mosse forestillingen om, at udviklingsbistand<br />

imødekommer foruddefinerede lokale behov, som kan klarlægges ved brug af den<br />

rigtige bottom-up metode. Behov konstrueres ifølge Mosse i processen, og det vil til<br />

17 Denne danske term erstatter det engelske begreb ’empowerment’.<br />

33


enhver tid vil være donor, der opsætter præmisserne for inddragelsen (Mosse<br />

1993:21). Han peger på, at målgruppens udtrykte ønsker kan være underlagt ”a<br />

conspiracy of courtesy” (ibid.:20), i vores oversættelse en høflighedssammen-<br />

sværgelse, der indebærer, at den inddragne målgruppe slører visse aspekter af deres<br />

sociale virkelighed, eller at de formulerer deres behov ud fra, hvad de forventer,<br />

projektet kan give dem (Mosse 1993:20).<br />

Pointen er, at den kritiske diskurs – på trods af idealer om ligeværdighed og<br />

symmetrisk magtrelation mellem donor og modtager – stadig oplever store<br />

udfordringer på netop denne front. De oprindelige slagord, som blandt andre Robert<br />

Chambers bidrog til at sætte i verden i begyndelsen af 1980’erne om, at man ’bare<br />

skal spørge de lokale, de ved en masse, og de er dine venner’ (Mosse 1993:21), bliver<br />

således ofte kritiseret for at udtrykke en naiv opfattelse af udviklingsprocessen, der<br />

langt fra overkommer de problemer i bistandssamarbejdet, som man oprindeligt<br />

antog, de ville.<br />

Et sidste kritikpunkt, som skal nævnes her, retter sig mod den kritiske diskurs’<br />

anvendelse af termen participation. Ifølge Jules Pretty, britisk professor i miljø- og<br />

samfundsforhold, er participation et udvandet begreb, som bruges i flæng og med et<br />

væld af forskellige betydninger. Pretty opstiller en participationstypologi, der<br />

illustrerer hvorledes participation bruges som betegnelse for alt lige fra manipulation<br />

af bistandsmodtagerne – hvor participationen begrænser sig til flotte ord – til at være<br />

en metode til selv-mobilisering af målgruppen, der efter Prettys opfattelse må<br />

betragtes som den mest reelle form for participation (Pretty 1995:1252).<br />

3.3. Partnerskabets paradoks<br />

Både moderniseringsdiskursen og den kritiske udviklingsdiskurs’ fremkomst kan<br />

hver især forklares ud fra samfundsforhold og politiske vinde, som har været<br />

dominerende i bestemte historiske perioder. Relationen mellem udviklings-<br />

diskurserne og den politiske og samfundsmæssige kontekst, de oprindeligt er<br />

etableret i, er en af årsagerne til, at de begge i høj grad kan siges at være bærere af<br />

normative opfattelser af, hvad udvikling består i, og hvordan den bør finde sted.<br />

Disse normative opfattelser er lige så aktuelle i dag som for tyve år siden, hvorfor<br />

diskurserne ikke kan siges at være særligt knyttede til bestemte tidspunkter i<br />

historien. I dag synes de to diskurser da også i vid udstrækning at eksistere side om<br />

side, hvilket kommer til udtryk i den udviklingsopfattelse og -retorik, som for tiden<br />

gør sig gældende i både FN, Verdensbanken og de nationale donoragenturer –<br />

herunder Danida (Ellis & Biggs 2001).<br />

Et eksempel på mødet mellem de to udviklingsdiskurser er målet om ’vækst med et<br />

menneskeligt ansigt’, som blandt andet er formuleret af økonomen Amartya Sen (Sen<br />

34


1999) og af Verdensbanken (Dollar & Kraay 2002) 18 . I Danida kommer koblingen<br />

mellem diskurserne til udtryk ved, at man frem for at bruge betegnelserne ’donor’ og<br />

’modtager’, som har en asymmetrisk moderniseringsklang, anvender det mere<br />

egalitære begreb ’partnere’. Partnerskabsbegrebet har de senere år vundet indpas,<br />

ikke blot i Danida, hvor den seneste udviklingsstrategis titel er Partnerskab 2000<br />

(Danida 2000B), men også i andre bilaterale og multilaterale donoragenturer.<br />

Årsagerne til partnerskabsbegrebets udbredelse er dels normativt og dels praktisk<br />

funderet. Praktisk har en højere grad af modtagerinddragelse i udviklingsbistanden<br />

vist sig at højne projekternes bæredygtighed og effektivitet. Normativt indeholder<br />

begrebet en betragtelig dosis retorik fra det kritiske paradigme, idet man ved brug af<br />

partnertermen eksplicit vedkender sig idealet om ligeværdighed mellem donor og<br />

modtager. Men partnerskabsretorikken er ikke et udtryk for en generel tilslutning til<br />

den kritiske udviklingsdiskurs, idet moderniseringsdiskursens metoder stadig gør sig<br />

gældende i praksis.<br />

Partnerskabet rummer således et paradoks: På den ene side står visionen om<br />

symmetrisk styrkeforhold mellem donor og modtager og en lige grad af inddragelse<br />

og indflydelse på udviklingsbistandens mål og midler. På den anden side står de<br />

økonomiske realiteter: donor har penge og dermed magt til at opsætte krav og<br />

betingelser. Det er således givet, at der er forskel på partnernes status: uanset fælles<br />

målsætninger om ligeværd og participation er præmissen nemlig, at den ene partner<br />

skal forandre sig, og at det sker på den anden partners foranledning – og efter dennes<br />

målestok. Denne paradoksale partnerrelation kompliceres yderligere af fremkomsten<br />

af politiske konditionaliteter. Karikeret stilles modtagerne i en mediebistands-<br />

sammenhæng over for dette (ikke)valg: ’Danida stiller som en betingelse, at I<br />

indvilger i at fremme demokrati og ytringsfrihed gennem støtte til frie medier. Det er<br />

imidlertid ikke nok, at I indgår på vores krav – I skal selv formulere dem, ønske dem<br />

og gøre dem til jeres. Vi kan nemlig kun forsvare at støtte jer, hvis vi kan pege på, at<br />

vi opfylder lokale ønsker og derved indgår i et ligeværdigt partnerskab.’<br />

Koblingen af moderniseringsdiskursen og den kritiske udviklingsdiskurs er således<br />

ikke uproblematisk, hverken på et teoretisk eller et praktisk plan. I analysen vil vi<br />

vende tilbage til de spørgsmål, problematikken rejser i et evalueringsperspektiv, og vi<br />

vil undervejs eksemplificere hvordan Danidas mediebistandspraksis trækker på begge<br />

diskurser.<br />

18 Økonomen og nobelpristageren Sen argumenterer i bogen Development as Freedom for, at lighed,<br />

demokrati og menneskerettigheder er forudsætninger for økonomisk vækst (Sen 1999). I artiklen<br />

”Growth is Good for the Poor” fremfører Dollar og Kraay fra Verdensbankens ’Policy Research<br />

Department’ en lignende argument men med omvendt fortegn – nemlig at vækst er forudsætningen for<br />

lighed og demokrati (Dollar & Kraay 2002). Begge tekster har fået nærmest kanonisk status i<br />

udviklingsverdenen.<br />

35


4. Evalueringsteoretiske diskurser<br />

Fra udviklingsbistand vender vi nu blikket mod evalueringsfænomenet og vil i dette<br />

afsnit redegøre for to dominerende teoretiske opfattelser af evaluerings rolle –<br />

evaluering som et redskab til henholdsvis kontrol og organisatorisk læring. Disse to<br />

anskuelser er gennemgående i såvel den metodeanvisende evalueringslitteratur som i<br />

evalueringspraktikeres selvforståelse (Hansen 2001), og de er derfor væsentlige at<br />

introducere med henblik på at kunne forstå de forskellige synspunkter, handlinger og<br />

diskurser, som kommer til udtryk i Danidas evalueringspraksis. Analysen af<br />

antagelser, metoder og legitimeringsgrundlag inden for lærings- og kontroltraditionen<br />

leder frem mod en identifikation af to evalueringsteoretiske diskurser – en kontrol-<br />

diskurs og en participatorisk læringsdiskurs.<br />

Det evalueringsteoretiske felt bærer præg af, at evaluering først og fremmest er en<br />

praktisk disciplin, som kun har en 30-40 år på bagen i en amerikansk sammenhæng<br />

og endnu færre i Danmark, hvorfor størstedelen af litteraturen på området er metode-<br />

anvisende og forfattet af amerikanske evaluatorer. Værkerne fordeler sig som nævnt<br />

overordnet på to tilgange til evaluering: En tilgang ser evalueringer som et redskab til<br />

tilvejebringelse af objektiv information, som kan anvendes til demokratisk og<br />

administrativ kontrol af offentlige ydelser. Denne evalueringstradition betegner vi<br />

kontrolevaluering, og vores gennemgang bygger på hovedværker inden for<br />

traditionen. Det drejer sig primært om Michael Scriven (1967, 1991, 1996, 1997) og<br />

Rossi, Lipsey & Freeman (1985/2004). Kontroltilgangens modstykke betragter<br />

evaluering som et redskab til organisatorisk læring og betegnes derfor lærings-<br />

evaluering. Under denne tradition skelner vi mellem henholdsvis en konsensus- og en<br />

konfliktbaseret læringsforståelse, hvor fremstillingen af førstnævnte primært bygger<br />

på Scriven, mens den konfliktbaserede læringsforståelse beskrives ud fra tekster af to<br />

toneangivende evaluatorer, Michael Quinn Patton (1986, 1994, 1996) og Hallie<br />

Preskill (Torres, Preskill, & Piontek 1997, Preskill & Torres 1999).<br />

Vi supplerer analysen af den amerikanske evalueringslitteratur med nyere<br />

skandinavisk forskning i evaluering som et kulturelt, politisk og institutionelt<br />

fænomen. Politologerne Dahler-Larsen (1998, 2001, 2004), Hansen (2001, 2003),<br />

Krogstrup (2001) samt svenske Vedung (1998, 2000) har inspireret vores fremstilling<br />

af baggrunden for og udbredelsen af evaluering i Skandinavien.<br />

4.1. Distinktionen mellem kontrol- og læringsevalueringer<br />

Evaluering kom fra USA til Europa som begreb og disciplin i 1970’erne via<br />

udviklingsbistanden, som var under indflydelse dels af det amerikanske donoragentur<br />

36


USAID, og dels af OECD’s Development Assistance Committee (DAC). Danida var<br />

i 1982 den første offentlige enhed herhjemme, som institutionaliserede evaluerings-<br />

funktionen, og samme år nedsatte DAC en permanent ekspertgruppe inden for<br />

evaluering af udviklingsbistand (Kjekshus 1991:64, Dabelstein 1998). Evaluerings-<br />

fænomenet blev udbredt til andre enheder i den offentlige administration i løbet af<br />

1980’erne og 90’erne, og i dag har evalueringers udbredelse nået et omfang i<br />

Danmark, så evalueringsforskere hævder, at ”vi lever i evalueringernes tidsalder”<br />

(Dahler-Larsen 1998:7). Vil man finde forklaringer på fænomenets udbredelse samt<br />

på de antagelser, som ligger til grund for den hjemlige evalueringspraksis, kan det<br />

betale sig at vende blikket mod evalueringsdisciplinens udvikling i USA.<br />

Evaluering opstod som en selvstændig disciplin i USA i 1960’erne og 1970’erne ud<br />

fra et ønske i den amerikanske statsadministration om at udfærdige velfærdsreformer<br />

på baggrund af videnskabelige, objektive vurderinger af succeser og fiaskoer i den<br />

tidligere indsats. Evalueringshistorikere beskriver denne fase i disciplinens udvikling<br />

som præget af et positivistisk inspireret sandhedsideal. I 1970’erne og 80’erne opstod<br />

der kritik af den positivistiske tilgang, fordi de forventede erfaringer med<br />

evalueringer som et redskab til entydig indsatsforbedring og objektiv vurdering<br />

udeblev. I stedet opstod en ny tradition, som fokuserede på brugerinddragelse i<br />

evalueringsprocessen ud fra en antagelse om, at inddragelse ville styrke brugernes<br />

ejerskab til og engagement i indsatsen. Der skete dermed en forskydning fra kontrol-<br />

og resultatorientering til lærings- og procesorientering i evalueringsdisciplinens<br />

anden udviklingsfase (Shadish, Cook & Leviton 1991:69-71 og 171-7, Rossi, Lipsey<br />

& Freeman 1985/2004:9f.). I dag eksisterer de to evalueringstraditioner side om side.<br />

Første gang man i evalueringslitteraturen blev opmærksom på eksistensen af de to<br />

tilgange til evaluering var i 1967, da evalueringsteoretikeren Scriven i artiklen “The<br />

Methodology of Evaluation” introducerede en skelnen mellem formativ og summativ<br />

evaluering – en skelnen som siden har dannet udgangspunkt for stort set al teori-<br />

dannelse og diskussion inden for feltet 19 . Summative evalueringer designes og<br />

anvendes med henblik på at bedømme opnåede resultater, mens formativ evaluering<br />

har til hensigt at forbedre evalueringsgenstanden (Scriven 1967:40f., Shadish, Cook<br />

& Leviton 1991:73). Formativ/summativ er blot et ud af mange dikotome betegnelser<br />

for forskellene mellem kontrol- og læringsevalueringer 20 . Vi vil i det følgende<br />

19 Scriven 1967:43ff. I 1991 udgav Scriven artiklen: ”Beyond Formative and Summative Evaluation”,<br />

hvor han udfordrede distinktionen mellem formativ og summativ evaluering ved at opridse 10 punkter,<br />

som forvirrede distinktionen. Denne artikel udløste stor debat, som varede ved gennem det meste af<br />

1990’erne omkring tidsskriftet Evaluation Practice. Debatindlæggene herfra danner i høj grad<br />

udgangspunkt for vores fremstilling af kontrol- og læringsdiskurserne.<br />

20 Ved siden af distinktionen formativ/summativ eksisterer der en række andre evalueringsdikotomier,<br />

som ikke udelukker hinanden indbyrdes. Eksempelvis kan en summativ evaluering fokusere både på<br />

processen og på resultatet, ligesom den kan benytte sig af både kvalitative og kvantitative metoder<br />

(Scriven 1996:50). Tendensen er dog, at summative evalueringer fortrinsvis ser på resultatet ved hjælp<br />

37


eskrive de to tilgange ud fra en række af de mest gængse begrebspar i evaluerings-<br />

litteraturen. En foreløbig model ser således ud:<br />

Kontrolevaluering Læringsevaluering<br />

Anvendelse og sigte Summativ Formativ<br />

Fokus Resultat Proces<br />

Kvalitetsparameter Upartiskhed Relevans<br />

Metode Kvantitativ Kvalitativ<br />

Relation mellem evalueringsaktørerne Distanceret/ Evaluatorstyret Interaktiv/ Samarbejdsstyret<br />

Figur 4a<br />

Vi lægger ud med en gennemgang af, hvad der kendetegner den såkaldte kontrol-<br />

evaluering.<br />

4.2. Evaluering som et redskab til kontrol<br />

I løbet af 1990’erne har ledelsesstrukturen og -kulturen i den danske offentlige sektor<br />

været under kraftig inspiration fra ledelsesfilosofier som ’Resultatbaseret ledelse’,<br />

’New Public Management’ og ’Total Quality Management’. Alle er betegnelser for<br />

ledelsesfilosofier, som sigter mod øget resultatorientering og målrettethed i den<br />

offentlige administration. Indførelsen af denne nye ledelseskultur er et svar på<br />

økonomisk, socialt og politisk pres i form af budgetnedskæringer, aftagende tillid til<br />

’systemet’, strukturelle problemer samt øget markedsgørelse af offentlige ydelser<br />

(Binnendijk 2001:3). Dette politiske pres har i særlig grad været rettet mod Danida,<br />

der – i lighed med andre donoragenturer i OECD-landene – har været genstand for<br />

besparelser og en generel ’bistandstræthed’ i befolkningen (OECD 2001,<br />

Schaumburg-Müller & Wad 1998). En bagvedliggende årsag til det politiske pres har<br />

givetvis været vanskelighederne ved entydigt at bevise og styre effekterne af<br />

udviklingsbistanden, og netop dette forhold er evaluering ifølge ovenstående<br />

ledelsesteorier et velegnet redskab til at rette op på. Tankegangen er, at en øget<br />

effektmålingsindsats højner organisationens troværdighed i offentlighedens øjne, idet<br />

skatteydere og beslutningstagere får lejlighed til at kontrollere, om pengene bruges<br />

fornuftigt (Scriven 1997:481). Det er på den baggrund, at der er sket en nærmest<br />

eksplosiv vækst i udbredelsen af evalueringer med kontrolformål i donorverdenen,<br />

herunder i Danida.<br />

Vi definerer kontrolevaluering som en summativ vurdering af en given aktivitets<br />

resultater og nytteværdi, hvis primære målgruppe er beslutningstagere og<br />

observatører (Patton 1996:131).<br />

af kvantitative metoder (Patton 1996 og Dahler-Larsen 2001 og 2004), og derfor mener vi det er<br />

frugtbart at beskrive de to evalueringstilgange ud fra den skitserede model.<br />

38


4.2.1. Kontrolevalueringernes demokratiske<br />

legitimeringsgrundlag<br />

I USA har resultatorienteringen nået et sådant omfang, at der ifølge en fremtrædende<br />

amerikansk evaluator, Leonard Bickman, er tale om en ”outcome mania” (Bickman<br />

1997:10), sociologen Michael Power advarer mod ”revisionssamfundet” (Power<br />

1997), og i Danmark beskriver Dahler-Larsen den rutinemæssige anvendelse af<br />

evalueringer som ”en slags kollektiv, mental besættelse” (Dahler-Larsen 1998:10).<br />

Disse udtalelser illustrerer de negative konnotationer som kontrolbegrebet ofte<br />

forbindes med. Men kontrol har også en række positive og legitime funktioner at<br />

spille i samfundet, og mange evaluatorer ser ligefrem kontrolevalueringer som en<br />

demokratisk nødvendighed:<br />

[Evaluation] is so important to any democratic society. Evaluation benefits<br />

public policy, it benefits those who make decisions about that policy, and it<br />

benefits the citizens who have to live with those decisions, once made.<br />

(Chelimsky 1995:216, tidl. præsident for det amerikanske evalueringsselskab)<br />

Den evalueringsteoretiske kontroldiskurs henter sin berettigelse i en demokrati-<br />

opfattelse, som kan betegnes konkurrencedemokratiet (Hansen 2004). I et<br />

konkurrencedemokratisk perspektiv er valghandlingen kernen i demokratiet – her<br />

uddelegerer borgerne deres ansvar til repræsentanter, som i en bestemt periode får<br />

beføjelser til at træffe de politiske beslutninger og lede den offentlige administration.<br />

Administrationen står altså til ansvar overfor politikerne, som igen står til ansvar<br />

overfor vælgerne. Det er i denne styringskæde, at evalueringer har en demokratisk<br />

legitim kontrolfunktion (Vedung 1998). De mange aktiviteter, som finansieres af<br />

offentlige midler i Danmark, nødvendiggør ud fra en konkurrencedemokratisk<br />

opfattelse, at disse aktiviteter evalueres for at give politikere og deres embedsmænd<br />

indsigt i, hvordan de offentlige tilskud bliver anvendt, sådan at ansvaret kan placeres.<br />

Ansvarliggørelse og ansvarsplacering er således centrale begreber, når man vil forstå<br />

kontrolevalueringernes forankring i demokratiet (Rossi, Lipsey & Freeman<br />

1985/2004:36, Binnendijk 2001:18) 21 .<br />

Efter nu at have beskrevet hvorledes kontroldiskursen argumenterer for sin egen<br />

samfundsmæssige berettigelse, vil vi i det kommende afsnit behandle de centrale<br />

kvalitetskriterier og metodeanvisninger inden for diskursen.<br />

4.2.2. Kravet om objektiv information<br />

Et stykke hen ad vejen har evaluering ”surfet” på moderniseringsprocessens<br />

bølge. Evaluering er barn af rationalismen. (Dahler-Larsen 1998:61)<br />

21 ’Ansvarliggørelse’ er den danske betegnelse vi anvender for begrebet accountability, som beskriver<br />

gennemsigtighedsprincippet inden for god regeringsførelse. ’Ansvarsplacering’ er vores oversættelse af<br />

begrebet attributing (Binnendijk 2001:18).<br />

39


Vedung (Vedung 2000) betragter evaluering som et trin på stigen i modernitetens<br />

projekt om at ’affortrylle verden’ gennem videnskabeliggørelse og rationelle<br />

forklaringer. Ifølge Vedung var politik indtil for nylig en af de sidste emotionelle<br />

bastioner i en ellers gennemrationaliseret moderne verden, men blandt andet via<br />

evalueringer er det politiske forsøgt gjort mindre impulsivt og mere resultatorienteret<br />

(ibid.:9f.). Midlet til at opnå en sådan rationalisering af det politiske er tilveje-<br />

bringelse af objektive data om virkeligheden, og kontroldiskursen baserer sig således<br />

på en positivistisk forståelse af, at der eksisterer en universel, objektiv virkelighed,<br />

som kan analyseres og formidles samt påvirkes kausalt (Guba & Lincoln 1984:32ff.,<br />

Kapoor 2004:159). Forudsætningen for, at kontrolevalueringerne kan leve op til<br />

målsætningen om at tilvejebringe objektiv information er, at de udføres af<br />

evaluatorer, som er uafhængige af de interesser, der er knyttet til den evaluerede<br />

genstand. Objektivitet og uafhængighed er således nøglebegreber inden for kontrol-<br />

diskursen, og disse to faktorer ses som nødvendige forudsætninger for troværdige,<br />

anvendelige evalueringer (Rossi, Lipsey & Freeman 1985/2004:26).<br />

At idealet om den uafhængige, objektive evaluator er særdeles levende i praktiker-<br />

kredse fremgår af nedenstående citat fra en kongrestale i amerikanske evaluerings-<br />

selskab. Her beskrives evaluatoren som en rationelt køligt og oplyst tekniker i en<br />

følelsesladet og uvidende politisk verden:<br />

So it is up to us to make objective information available, especially in a hostile<br />

political environment, and also when the relevant public groups are unaware of<br />

the facts. (…) Why is it up to us? Because we know the data, because we<br />

believe in the value of knowledge, and because we are non-euphoric by<br />

training. (Chelimsky 1995:218)<br />

Idet uafhængighed er et helt centralt kvalitetskriterium, anbefales det af den metode-<br />

anvisende evalueringslitteratur, at kontrolevalueringer udføres af eksterne<br />

evaluatorer, som bevarer styringen med evalueringsprocessen og kun inddrager de<br />

evaluerede aktører i begrænset omfang (Scriven 1996:156-8, Rossi, Lipsey &<br />

Freeman 1985:38f.). Anbefalingen om at holde en vis distance mellem evaluator og<br />

de evaluerede aktører begrundes med risikoen for, at de evaluerede aktører kan<br />

påvirke indsamling og fortolkning af data, hvorved evalueringens validitet bringes i<br />

fare (Scriven 1996:158).<br />

4.2.3. Fokus på resultater<br />

Af definitionen af en kontrolevaluering fremgik det, at dens primære målgrupper er<br />

’beslutningstagere og observatører’, det vil sige aktører som ikke har daglig berøring<br />

med det evaluerede projekt. Disse målgruppers interesse i evalueringen er at<br />

kontrollere projektet i henhold til ansvarliggørelsesprincippet, og de ønsker derfor<br />

ikke at læse lange, kontekstnære redegørelser. ”At beskrive noget komplekst ved<br />

hjælp af noget komplekst er sjældent ressourcemæssigt fornuftigt” påpeger Dahler-<br />

40


Larsen (Dahler-Larsen 2004:24), og dette forklarer, hvorfor kontrolevalueringer<br />

bestræber sig på at beskrive relativt komplicerede aktiviteter og udfald ved hjælp af<br />

simple, kortfattede – og gerne kvantitative – kriterier. Det er så evaluatorens rolle at<br />

sikre, at kriterierne lever op til krav om validitet, reliabilitet, utvetydighed og<br />

operationaliserbarhed (Rossi, Lipsey & Freeman 1985:74). Som nævnt i begrebs-<br />

afklaringen vender vi tilbage til emnet evalueringskriterier i analysen.<br />

Vi har nu på baggrund af klassikere inden for den metodeanvisende evaluerings-<br />

litteratur defineret kontrolevalueringer som summative vurderinger med observatører<br />

og beslutningstagere som primær målgruppe. De vigtigste kvalitetsparametre inden<br />

for den evalueringsteoretiske kontroldiskurs er upartiskhed og objektivitet, hvorfor<br />

evalueringsprocessen bør styres af en ekstern, uafhængig evaluator. Evaluatoren<br />

vurderer projektet på baggrund af simple, gerne kvantitative kriterier med henblik på<br />

at fremdrage resultaterne af indsatsen.<br />

4.2.4. Kritik af kontrolevalueringer<br />

I dette underafsnit vil vi skitsere de væsentligste punkter i kritikken af kontrol-<br />

diskursen. En kritik, som samtidig har dannet afsæt for fremkomsten af den<br />

participatoriske læringsdiskurs, der vil blive behandlet i afsnit 4.3.<br />

På et ontologisk og epistemologisk niveau kritiseres kontroldiskursen for dens<br />

positivistisk inspirerede antagelse om, at verden er statisk nok til at kunne beskrives<br />

objektivt og standardiseret i en evaluering. I stedet hævder fortalerne for lærings-<br />

evalueringer, at virkeligheden er dynamisk og kompleks, og at evalueringer derfor<br />

kun kan give et forhandlet øjebliksbillede af dens karakter (Kapoor 2004:160).<br />

Begreber som kausalitet, fakta og objektivitet anses af læringstraditionen for at være<br />

normative størrelser, der anvendes mere eller mindre bevidst af opdragsgiverne til at<br />

pådutte evaluanderne udefrakommende og ofte irrelevante kriterier. Fortalere for<br />

læringstilgangen mener, at objektivitetskriteriet er farligt og forkert – virkeligheden<br />

findes ikke derude, den skabes i evalueringsprocessen (Guba & Lincoln 1987:211,<br />

Kapoor 2004:159).<br />

En anden hyppig indvending mod kontrolevaluering går på diskursens manglende<br />

magtperspektiv. Litteraturen om kontrolevalueringer har tendens til at fokusere på<br />

kontrollens legitime og positive sider og ser evalueringens tilvejebringelse af viden<br />

som en magtneutral proces. Fortalere for læringsevalueringer hævder i stedet, at:<br />

”Evaluation produces information, and information is power” (Guba & Lincoln<br />

1987:212). En kritiker af de resultatbaserede ledelsesfilosofier, Power, skriver<br />

bekymret om den tendens mod ”revisionssamfundet” som kontrolevalueringer efter<br />

hans mening er udtryk for. Power ser evaluering som inspektion, der sigter mod<br />

41


angordning gennemført på basis af usikre kvantitative målinger, og han tolker<br />

udviklingen som udtryk for forøgelse af distanceret kontroludøvelse, og som fravær<br />

af tillid til dem, der er ansvarlige for projekterne (Power 1997). I forlængelse af dette<br />

synspunkt påpeger Dahler-Larsen (1998:53 & 102), at kontrolevalueringens fokus på<br />

ansvarliggørelse og ansvarsplacering betyder, at de evaluerede aktører oplever<br />

evalueringen som en utryg proces. Han henviser til Foucaults beskrivelse af<br />

”Panoptikon”, der bygger på den af Bentham designede fængselsmodel bestående af<br />

celler placeret omkring et centralt beliggende tårn (Foucault 1994:179f.). Fra tårnet<br />

kan man overvåge samtlige celler uden selv at blive betragtet. Betragterens motiv er<br />

således ligegyldigt for den indsatte, idet alene bevidstheden om at man måske bliver<br />

overvåget med et disciplinerende sigte gør, at man disciplinerer sig selv. På samme<br />

måde er det for den evaluerede aktør underordnet, om evalueringen faktisk anvendes<br />

af opdragsgiveren i et kritisk overvågningsøjemed – det vigtige er, at muligheden<br />

foreligger, og derfor indretter den evaluerede aktør sin adfærd herefter. Dette er en<br />

pointe, vi behandler mere dybtgående senere i specialet.<br />

4.3. Evaluering som et redskab til læring<br />

Vi har tidligere beskrevet evaluering som en rationel, moderne tendens. Men<br />

evaluering er i høj grad også udtryk for den refleksive modernitet, en samtidsdiagnose<br />

stillet af Beck, Giddens og Lash, som peger på, at traditioner og de store fortællinger<br />

har mistet deres forklaringskraft, hvorfor individer og organisationer hele tiden må<br />

stille spørgsmålstegn ved og reflektere over sig selv (Beck, Giddens & Lash 1994).<br />

Tankefiguren i evaluering afspejler på mange måder den refleksive modernitets<br />

grundlæggende kulturelle figur. Vi har ikke at gøre med central planlægning<br />

udført prospektivt. Vi har at gøre med mange, iterative og relativt<br />

ukoordinerede feed-back-loops på mange niveauer, udført retrospektivt.<br />

Evalueringsbølgen er et tegn på, at man ikke er sikker på, tingene lykkes på<br />

forhånd. (Dahler-Larsen 1998:71)<br />

Sideløbende med de resultatorienterede ledelsestanker, vi tidligere har præsenteret, er<br />

der også sket en opblomstring i teorier om den lærende organisation. Hovedstand-<br />

punktet inden for teorierne om den lærende organisation er, at organisationer er nødt<br />

til at udvikle evnen til at reflektere og forandre sig, hvis de vil overleve i dynamiske<br />

og ustabile omgivelser. Læring er således ikke alene blevet en mulighed – det er<br />

blevet et must, hvis man vil klare sig som individ eller organisation i den refleksive<br />

modernitet (Argyris 1995:1). Læring er et spørgsmål om, hvordan organisationer,<br />

individer og grupper reagerer på den feedback, de registrerer som følge af deres<br />

handlinger. Man kan afbilde organisatoriske læreprocesser i form af en læringscyklus<br />

(Morgan 1986:87, Dahler-Larsen 1998:39):<br />

42


Organisationen korrigerer evt.<br />

misforhold mellem realitet og normer.<br />

Figur 4b<br />

Organisationen registrerer ændringer i<br />

omverdenen – fx via evalueringer<br />

Ændringerne sammenlignes med<br />

organisationens egne normer og standarder<br />

Alle tre momenter i cyklussen er konstituerende for læringsbegrebet, så læring er<br />

ikke alene et spørgsmål om feedback 22 og viden – man kan først tale om læring i det<br />

øjeblik, den nye viden omsættes (Argyris 1995:7, Christensen 1997:18). Læring kan<br />

foregå på flere niveauer. Foretager en organisation løbende justeringer af sine<br />

handlinger ud fra den eksisterende handlingsnormer, taler man om enkeltsløjfet<br />

læring, men i det tilfælde organisationen begynder at ændre disse handlingsnormer,<br />

er der tale om dobbeltsløjfet læring (Argyris 1995:8, Dahler-Larsen 1998:39f.). Et<br />

eksempel fra vores kontekst er, at der er tale om enkeltsløjfet læring, når Danida<br />

korrigerer udførelsen af et medieprojekt på baggrund af en kritisk evaluering, mens<br />

Danida går ind i en dobbeltsløjfet læringsproces, hvis organisationen revurderer om<br />

mediebistandsaktiviteter overhovedet har relevans i forhold til at nå de overordnede<br />

udviklingsmål.<br />

Læringsevalueringer er kendetegnet ved at have til formål at justere og forbedre en<br />

aktivitet, og målgruppen for evalueringen er aktivitetens deltagere og ledelse (Patton<br />

1996:131). Der findes imidlertid forskellige opfattelser af læringsbegrebet inden for<br />

læringsevalueringstraditionen. Den slagordsagtige status som læringsbegrebet har<br />

fået, betyder at termen optræder ofte – men i forskellige betydninger – i evaluerings-<br />

litteraturen. Det kan give anledning til nogen forvirring (som vi også skal se<br />

eksemplificeret i analysen), og vi vil derfor bruge lidt plads på at klarlægge de to<br />

hovedbetydninger, som læringsbegrebet har i evalueringssammenhæng. Inspireret af<br />

Nymark 1997 og Krogstrup 2001 skelner vi mellem to former for læring: (1)<br />

konsensusbaseret læring, som antager at organisationer er harmoniske enheder og (2)<br />

konfliktbaseret læring, der betragter organisationer som arenaer for interesse-<br />

konflikter 23 . Som vi vil uddybe i det følgende, placerer førstnævnte læringsforståelse<br />

sig inden for den evalueringsteoretiske kontroldiskurs, mens sidstnævnte<br />

repræsenterer en selvstændig diskurs, som vi behandler under betegnelsen partici-<br />

patorisk læringsdiskurs.<br />

22 Feedback defineres som ”Tilbagemelding om resultatet af en indsats og vurderingen heraf med<br />

henblik på læring” (Dansk Evaluerings Selskab 2004:10).<br />

23 Der findes adskillige bestræbelser i evalueringslitteraturen på at skelne mellem de to<br />

læringsopfattelser (Chen 1996, Fetterman 1996, Guba & Lincoln 1987, Patton 1994). Vores<br />

gennemgang baserer sig primært på Nymark 1997, af hvem vi låner termerne ’konsensusbaseret’ og<br />

’konfliktbaseret’ læring, samt på Krogstrup 2001 (top-down vs. bottom-up læring).<br />

43


4.3.1. Konsensusbaseret læring<br />

Den konsensusbaserede læringsopfattelse kan illustreres ved hjælp af en hologram-<br />

metafor (Morgan 1986:100f.). I et hologram afspejler hver enkelt del hele billedet, og<br />

samme princip gør sig gældende, når en organisation søges opbygget således, at hver<br />

enkelt medarbejder repræsenterer den samlede virksomheds værdier og visioner –<br />

”the corporate DNA” (ibid.:103). At betragte organisatoriske læreprocesser ud fra en<br />

hologrammetafor indebærer således en forestilling om ”en fælles vision”<br />

(Christensen 1997:25) ledelse og medarbejdere imellem.<br />

Hvor evaluatoren i kontrolevalueringer alene skulle sørge for at tilvejebringe data om<br />

evalueringsgenstanden, har vedkommende i en læringsevaluering også til opgave at<br />

tilse, at den fundne viden omsættes til nye handlingsformer. Det er derfor nødvendigt<br />

at inddrage både opdragsgiveren og de evaluerede aktører i processen med henblik på<br />

at sikre sig, at de føler ejerskab overfor evalueringsresultaterne (Scriven 1967:45).<br />

Ifølge Scriven må inddragelsen af de øvrige evalueringsaktører dog på intet tidspunkt<br />

blive så radikal, at evaluatoren mister styringen med processen, sådan at resultaternes<br />

validitet kan drages i tvivl. Sker dette, er der nemlig ikke længere tale om en<br />

evaluering, mener Scriven, som hævder, at kontroldiskursens formkrav er<br />

konstituerende for selve evalueringsdefinitionen. Han betragter ikke en<br />

bedømmelsesaktivitet som en evaluering, hvis den ikke forholder sig til nytteværdien<br />

af en given aktivitet og lever op til kravene om objektivitet, systematisk<br />

metodeanvendelse, samt en afrapportering, som indeholder en klar konklusion<br />

formuleret af evaluator (Scriven 1996:154).<br />

I Scrivens formulering er der således en række ligheder mellem den konsensus-<br />

baserede evalueringstilgang og kontrolevalueringer, idet begge typer er orienteret<br />

mod resultatforbedring, har fokus på ledelsens/opdragsgiverens værdier og betragter<br />

virkeligheden som besiddende en vis grad af stabilitet og harmoni. At der derfor ikke<br />

er tale om en ny evalueringsteoretisk diskurs, underbygges af, at Scriven betragter<br />

formativ evaluering som et delelement i en summativ evaluering 24 :<br />

Formative evaluation is, to a large extent, best designed as summative<br />

evaluation of an early version. (Scriven 1997:498-499)<br />

På baggrund af ovenstående kan vi slå fast, at konsensusbaserede læringsevalueringer<br />

nok repræsenterer en anden metode og tilgang til evaluering, men ikke en<br />

selvstændig evalueringsdiskurs, idet de grundlæggende ontologiske, epistemologiske<br />

og metodologiske antagelser svarer til kontroldiskursens. En model over relationen<br />

24 For Scriven er forskellen mellem kontrol- og læringsevalueringer et spørgsmål om variation<br />

i metoden og forskellig anvendelse: ”There are many cases (…) where both formative and<br />

summative purposes can be served by a single evaluation” (Scriven 1996:154).<br />

44


mellem kontrolevalueringer og konsensusbaserede læringsevalueringer ser således<br />

ud:<br />

Evalueringsteoretisk diskurs Kontroldiskurs<br />

Evaluerings rolle Redskab til kontrol Redskab til læring<br />

Evalueringstype Kontrolevaluering Konsensusbaseret<br />

læringsevaluering<br />

Figur 4c<br />

4.3.1.1. Kritik af konsensusbaserede læringsevalueringer<br />

Vi vil her redegøre for to væsentlige kritikpunkter af den konsensusbaserede lærings-<br />

opfattelse, som har dannet udgangspunkt for formuleringen af et konfliktbaseret<br />

alternativ.<br />

Først og fremmest kritiseres konsensusforståelsen for sin antagelse om organisatorisk<br />

harmoni. Spørgsmålet om, hvem der lærer hvad til hvem, det vil sige spørgsmålet om<br />

magtrelationer i evalueringsprocessen, er ikke relevant i den konsensusbaserede<br />

læringsforståelse, idet organisationen betragtes som en harmonisk enhed, som både er<br />

ophav til og genstand for læringen. Målgruppen for læringen er således hele<br />

organisationen – læring er ”for alle” (Laursen 1997:52). Kritikere af den konsensus-<br />

baserede evalueringstilgang hævder, at den vage målgruppebetegnelse dækker over,<br />

at ledelsens holdning i virkeligheden er facit – den ’rigtige’ læring er den, der kan<br />

skabes konsensus med opdragsgiverens/ledelsen om (Preskill & Torres 1999:14).<br />

Den inddragelse af opdragsgiver og de evaluerede aktører, som finder sted i en<br />

konsensusbaseret læringsevaluering, mener fortalerne for den konfliktbaserede<br />

tilgang derfor er en ”pseudo-inddragelse” (Krogstrup 2001:199), hvor de evaluerede<br />

aktører foregøgles en reel indflydelse, mens de i virkeligheden påduttes ledelsens/<br />

opdragsgiverens værdier under dække af konsensus (Torres, Preskill & Piontek<br />

1997).<br />

Derved udøver den konsensusbaserede læringsevaluering magt på en subtil vis, en<br />

magtudøvelse, der af Foucault betegnes som bekendelse (Foucault 1980:191).<br />

Bekendelsen bygger ligesom den panoptiske overvågning på, at individet<br />

disciplinerer sig selv ud fra en forventning om omverdenens blik og normer. Hvor<br />

panoptisk overvågning indebærer uvisheden om det kontrollerende blik, er<br />

bekendelsen som magtform baseret på de normalitetsstandarder, som håndhæves i en<br />

given kontekst. Hvis normen i en evaluering eksempelvis er, at ’vi skal diskutere,<br />

hvordan projektledelsen kan forbedre sin indsats’ og en af deltagerne i stedet foreslår,<br />

at hele ledelsen fyres, så bryder vedkommende med den gældende norm for, hvad der<br />

er acceptabelt at foreslå og vil opleve at normen sanktioneres af enten evaluatoren<br />

eller en anden evalueringsaktør (Preskill & Torres 1999:54).<br />

45


Dette leder over i et beslægtet kritikpunkt mod konsensusbaserede lærings-<br />

evalueringer, nemlig at de kun sætter organisationen i stand til at foretage enkelt-<br />

sløjfede læringsprocesser. De diskussioner og forslag, som kommer frem i<br />

evalueringen, vil nemlig holde sig inden for de handlingsnormer og rammer, som<br />

ledelsen/opdragsgiveren har opstillet på forhånd. Derved kommer evalueringer af<br />

denne type ifølge Krogstrup til at virke som en legitimering og styrkelse af ledelsens<br />

kurs snarere end som en udfordring. Vil man anvende en evaluering som en<br />

anledning til at stille spørgsmålstegn ved organisationens grundlæggende antagelser<br />

og værdier, skal man altså fjerne sig fra det konsensusbaserede læringsperspektiv og i<br />

stedet bedrive det, Krogstrup kalder ’bottom-up inddragelse’, som baserer sig på en<br />

konfliktbaseret læringsforståelse (Krogstrup 2001:205).<br />

4.3.2. Den participatoriske læringsdiskurs<br />

Konfliktbaseret læring er den mest gængse læringsforståelse inden for evaluerings-<br />

teori, og traditionen tager afsæt i kritikken af kontrolevalueringer og den konsensus-<br />

baserede læringsforståelse 25 . Som modsvar til disse evalueringsforståelser er der<br />

formuleret en lang række alternative tilgange, såsom ”fjerdegenerationsevaluering”<br />

(Guba & Lincoln 1987), ”participatory evaluation” (Preskill & Torres 1999),<br />

”developmental evaluation” (Patton 1996), ”empowerment evaluation” (Fetterman<br />

1996) og den danske variant ”BIKVA-modellen” (Krogstrup 2001) 26 . Fælles for disse<br />

evalueringsmetoder er, at de plæderer for en høj grad af inddragelse af de evaluerede<br />

aktører i alle evalueringsprocessens trin. Som vi vil redegøre for i det følgende, er der<br />

tale om en evalueringsforståelse, der repræsenterer en selvstændig evaluerings-<br />

teoretisk diskurs, en participatorisk læringsdiskurs. Denne deler i vid udstrækning<br />

tankegods med den kritiske udviklingsdiskurs, i gennemgangen af hvilken vi<br />

introducerede begreberne participation og myndiggørelse.<br />

4.3.2.1. Den participatoriske læringsdiskurs’ demokratiske<br />

legitimeringsgrundlag<br />

Den participatoriske læringsdiskurs argumenterer for sin berettigelse på to fronter:<br />

dels fremføres et vidensargument om, at de evaluerede aktører har større indsigt i<br />

evalueringsgenstanden end både opdragsgiver og evaluator, og at en høj grad af<br />

inddragelse derfor er central for evalueringens validitet og anvendelighed (Patton<br />

1986:20f.). Derudover henter diskursen sin legitimitet i et værdiargument, som<br />

baserer sig på et demokratisyn, som kan betegnes deltagelsesdemokratiet (Hansen<br />

2004). I deltagelsesdemokratiet står den demokratiske samtale og dialog i centrum,<br />

25 Nymark 1997:59 bemærker, at den konsensusbaserede læringsopfattelse er dominerende inden for<br />

ledelsesteorien, mens den konfliktbaserede er langt den mest udbredte inden for evalueringsteorien.<br />

Forklaringen herpå skal givetvis findes i det forhold, at organisations- og managementteori ofte er<br />

skrevet ud fra et ledelsessynspunkt, mens evalueringsteorien er skrevet af konsulenter, der gerne ser sig<br />

selv som forandringsagenter.<br />

26 BIKVA står for ”Brugerinddragelse i kvalitetsvurdering”. Modellen er udviklet af Hanne-Kathrine<br />

Krogstrup.<br />

46


og borgerne tager via deres deltagelse selv ansvar for en effektiv udnyttelse af<br />

ressourcerne, modsat den konkurrencedemokratiske opfattelse, hvor den valgte elite<br />

er garant. Fortalere for participatoriske læringsevalueringer fremfører det værdi-<br />

mæssige standpunkt, at evaluering som indflydelsesrig dimension bør medvirke til at<br />

støtte realiseringen af et demokratisk samfund gennem folkelig inddragelse, hvilket<br />

stiller krav til evalueringen om at fungere som ramme omkring dialog mellem alle<br />

interessenter i en evalueringsproces (Patton 1996:137).<br />

This [evaluation] process is fundamentally democratic. It invites (if not<br />

demands) participation, examining issues of concern to the entire community<br />

in an open forum. (Fetterman 1996:5)<br />

Participationsdiskursen anerkender eksistensen af menings- og interesseforskelle,<br />

men søger samtidig – i overensstemmelse med demokratiidealet – at tilstræbe<br />

symmetri og lydhørhed i evalueringsprocessen. Den lærer-elev-asymmetri, som<br />

ifølge kritikerne gør sig gældende i den konsensusbaserede læringsforståelse,<br />

forsøger det konfliktorienterede alternativ at gøre op med ved at stille krav til<br />

evaluatorens metode. Evaluatoren bør se sig selv som en facilitator, der er åben og<br />

parat til at lære noget af de evaluerede aktører, da disse kender konteksten bedre end<br />

evaluatoren gør. Det kræver, at evaluatoren solidariserer sig med de evaluerede<br />

aktører og ikke først og fremmest ser sig selv som en repræsentant for et sæt<br />

’objektive’ kriterier, der er forhandlet på plads mellem evaluator og opdragsgiver.<br />

Hvor den konsensusbaserede opfattelse betragtede organisationen som et harmonisk<br />

hele, træder den participatorisk orienterede evaluator ind som en forandringsagent i<br />

en antaget konflikt mellem organisationens top og bund, og søger at styrke ’bunden’<br />

gennem inddragelse og myndiggørelse (Preskill & Torres 1999:55, Guba & Lincoln<br />

1987:215, Fetterman 1996:11, Patton 1996:136, Kapoor 2004:160).<br />

4.3.2.2. Fokus på processen<br />

Jævnfør demokratiidealet er det væsentligt inden for den participatoriske lærings-<br />

diskurs, at forandringer sker på baggrund af de evaluerede aktørers motivation og<br />

viden – frem for med udgangspunkt i opdragsgiverens interesser (Kapoor 2004:160).<br />

Forandringerne finder sted løbende i evalueringsprocessen, efterhånden som<br />

deltagerne opnår nye indsigter, og det giver derfor ikke mening i denne diskurs at<br />

betragte evaluering som et neutralt måleværktøj, der vurderer en upåvirket<br />

evalueringsgenstand fra en vis distance. Evalueringen er en læreproces, i hvilken<br />

genstanden forandres og påvirkes aktivt af alle medvirkende aktører, hvorfor fortalere<br />

for tilgangen hævder, at: ”The process is the outcome” (Patton 1996:135).<br />

Hermed bryder den participatoriske læringsdiskurs med kontroldiskursens<br />

uafhængigheds- og objektivitetsnorm. Det vigtigste kvalitetskriterium for en<br />

evaluering er relevans, og det har betydning både for valg af evalueringsmetode og<br />

evaluatorens rolle.<br />

47


Hvad angår evalueringsmetoden betragter fortalerne for participatoriske lærings-<br />

evalueringer kontroldiskursens positivistisk orienterede måleredskaber for<br />

begrænsende og irrelevante. ”Clarity, specificity and measurability are limiting”,<br />

hævder Patton (1996:135) og gør sig i stedet til talsmand for anvendelsen af<br />

kvalitative, kontekstnære metoder, som ikke tilstræber entydighed. I henhold til en<br />

konfliktbaseret læringsforståelse betragtes verden som flertydig, og derfor er det en<br />

betingelse for en evaluerings anvendelighed og validitet, at den indfanger denne<br />

flertydighed, har et eksplorativt design, lader kriterier opstå undervejs i processen og<br />

afspejler de forskellige synspunkter i afrapporteringen (Guba & Lincoln 1987:208,<br />

Patton 1996:135, Kapoor 2004:160).<br />

4.3.2.3. Relevans og tillid<br />

Evaluatorens rolle adskiller sig inden for denne evalueringsteoretiske diskurs markant<br />

fra den uafhængige og distancerede rolle, som kontroldiskursen foreskriver. Den<br />

participatoriske evalueringslitteratur fremhæver, at evaluator bør have et tæt<br />

tillidsforhold til de evaluerede aktører, da dette er en forudsætning for, at de indgår i<br />

læringsprocessen med den fornødne åbenhed og ærlighed (Guba & Lincoln<br />

1987:222, Snyder & Doan 1995:146, Preskill & Torres 1999:156). Patton beskriver<br />

sin evaluatorrolle således:<br />

I become part of the team, not apart from the team. I participate in decisionmaking<br />

about the program and facilitate discussion about how to evaluate<br />

whatever happens. (Patton 1996:136)<br />

Den metodeanvisende litteratur argumenterer således mod kontroltilgangens<br />

distancerede og dømmende evaluatorfigur og for en participatorisk metode ud fra en<br />

holdning om, at ”evaluation is too important to be left to evaluators” (ibid.:139).<br />

På baggrund af ovenstående kan vi definere participatoriske læringsevalueringer som<br />

procesorienterede evalueringer, der har til formål at forandre og forbedre evaluerings-<br />

genstanden gennem løbende dialog og gensidig læring de involverede aktører<br />

imellem. Evaluatorens rolle er faciliterende, og vedkommendes fornemste opgave er<br />

at sikre, at de evaluerede aktører får nye indsigter, tager ejerskab og bliver myndig-<br />

gjort i løbet af en samarbejdsstyret proces. Den participatoriske evalueringsdiskurs’<br />

væsentligste kvalitetskriterium er relevans, og tilgangen har en forkærlighed for<br />

kvalitative, eksplorative evalueringsmetoder.<br />

4.3.2.4. Kritik af den participatoriske læringsdiskurs<br />

En kritik, som rettes mod læringsevalueringer generelt – både konsensusbaserede og<br />

participatoriske – er læringsbegrebets bias: ”Formative evaluation carries a bias about<br />

making something better” (Patton 1996:135). Den konsensusbaserede lærings-<br />

forståelse kritiseres for at anvende læringsbegrebet som en trylleformular: Jo mere<br />

læring, desto bedre, og jo flere barrierer mod læring, desto værre:<br />

48


Forestillingen om den lærende organisation er I dag blevet til et slogan og en<br />

populær organisationsopskrift (…). Med til at sælge den er sandsynligvis, at<br />

den virker optimistisk og uden modhager (hvem er imod læring?) (Dahler-<br />

Larsen 1998:33).<br />

Men selvom den participatoriske læringsdiskurs søger at gøre op med den konsensus-<br />

baserede læringsforståelse og i stedet ser læringsprocessen som en interesse- og<br />

værdikamp, så kan diskursen stadig ikke sige sig fri for normativitet. Kritikere peger<br />

på, at den participatoriske evalueringslitteratur har klar tendens til at foreskrive en<br />

solidaritet mellem evaluatoren og de evaluerede aktører, hvilket ofte indebærer en<br />

afstandtagen fra opdragsgiveren 27 . Det betyder på den ene side, at evaluatoren vil<br />

være tilbøjelig til at betragte den læring og de værdier, som formuleres af de<br />

evaluerede aktører, for værende mere sande end ledelsens synspunkter – og dermed<br />

gør diskursen reelt ikke op med forestillingen om en objektiv sandhed og en rigtig/<br />

forkert læring (Preskill & Torres 1999:13-14). På den anden side vil evaluatorerne<br />

efter kritikernes mening være tilbøjelige til at tage parti for enhver forandring, der<br />

udgår fra de evaluerede aktører, alene fordi det er en forandring, som udfordrer<br />

organisationens magtbalance (Høgsbro & Rieper 2001:183).<br />

Et andet kritikpunkt går på den participatoriske evalueringsmetodes utilstrækkelighed<br />

til at garantere reel participation. Participationsdiskursen har øje for, at<br />

evalueringernes kontekst er modsætnings- og konfliktfyldt, men betragter dialogen i<br />

evalueringsprocessen som herredømmefri i overensstemmelse med demokratiidealet<br />

(Hansen 2003:35). Kritikere peger dog på, at begreber som dialog, deliberation og<br />

inklusion er så svagt formulerede, at evaluator får et stort råderum til at definere sin<br />

egen indflydelse. Dermed tilslører den deltagelsesdemokratiske retorik omkring<br />

evalueringsprocessen evaluatorens reelle magt (Krogstrup 2001:204).<br />

Sidst, men bestemt ikke mindst, skal kontroldiskursens kritik af participatoriske<br />

læringsevalueringer nævnes. Vi har tidligere beskrevet, at fremtrædende evaluerings-<br />

forskere som Scriven slet ikke betragter participatorisk evaluering som evaluering.<br />

Han kritiserer metoden for manglende klarhed og systematik omkring kriterier,<br />

udførelse og afrapportering og advarer mod at sammenblande evalueringsopgaven<br />

med proceskonsulentbistand (Scriven 1997:481f.). De participatoriske lærings-<br />

evalueringer er ifølge kritikere alt for følsomme overfor særstandpunkter og har et for<br />

snævert perspektiv, hvorfor deres validitet og dermed deres anvendelighed i det hele<br />

taget kan drages i tvivl (Scriven 1996:158). Fra et værdimæssigt synspunkt angribes<br />

de participatoriske læringsevalueringer for at negligere den demokratiske styrings-<br />

27 Se Guba & Lincoln 1987:208, Kapoor 2004:161 for eksempler på implicitte solidaritetserklæringer<br />

med ’the people’/’the participants’. Preskill og Torres 1999 afbilder endvidere den organisatoriske<br />

læringsproces som en fremad- og opadgående linie med læringsevalueringer markeret som små<br />

refleksive løkker, og indikerer dermed, at participatoriske læringsevalueringer fører organisationer mod<br />

fremskridt og forbedringer (Preskill & Torres 1999:185).<br />

49


kæde og ikke tage højde for den offentlige administrations behov for ansvarliggørelse<br />

og kontrol (Krogstrup 2001:204).<br />

4.3.3. Opsummering: to forskellige læringsforståelser<br />

Vi har nu indført et skel mellem konsensusbaserede og participatoriske lærings-<br />

evalueringer og argumenteret for, at de hører hjemme under hver deres evaluerings-<br />

diskurs, som vi har benævnt hhv. kontrol- og participationsdiskursen. Der er altså stor<br />

forskel på, hvad man taler om, når man taler om læring i evalueringsøjemed, og<br />

grænserne er bestemt ikke altid klare – hverken i evalueringslitteraturen eller i<br />

praksis. På skemaform kan forskellene mellem de to læringsforståelser skitseres<br />

således:<br />

Evalueringsteoretisk<br />

diskurs<br />

Konsensusbaseret<br />

læringsevaluering<br />

Participatorisk læringsevaluering<br />

Kontroldiskurs Participatorisk læringsdiskurs<br />

Læringsbegreb Konsensusbaseret læring Konfliktbaseret læring<br />

Evalueringens<br />

kontekst<br />

Kilde til organisatorisk<br />

forandring<br />

Inddragelse af<br />

evalueringsaktører<br />

Figur 4d<br />

Organisatorisk harmoni Interessekonflikt mellem organisationens<br />

top og bund<br />

Ledelsen/opdragsgiveren Medarbejderne/de evaluerede aktører<br />

Top-down inddragelse med formålet<br />

at øge ejerskabet til evalueringsresultaterne<br />

Bottom-up inddragelse med formålet at<br />

styrke de evaluerede aktørers myndiggørelse.<br />

4.4. Forskelle og ligheder mellem de to evalueringsteoretiske<br />

diskurser<br />

Med udgangspunkt dels i hovedværker inden for den amerikanske, metodeanvisende<br />

evalueringslitteratur og dels i nyere skandinavisk samfundsvidenskabelig<br />

evalueringsforskning har vi arbejdet os frem til følgende klassificering af<br />

evalueringsdiskurser, -tilgange og -typer.<br />

Evalueringsteoretisk<br />

diskurs<br />

Evalueringstype Kontrolevaluering Konsensusbaseret<br />

læringsevaluering<br />

Kontroldiskurs Participatorisk læringsdiskurs<br />

Participatorisk læringsevaluering<br />

50


Evaluerings rolle Redskab til kontrol Redskab til læring<br />

Figur 4e<br />

Først og fremmest har vi forsøgt at udrede nogle af de teoretiske uklarheder om,<br />

hvilke forståelser af begrebet læring, der florerer i evalueringssammenhæng. I den<br />

forbindelse er vi kommet frem til en skelnen mellem evalueringstyperne konsensus-<br />

baseret og participatorisk læringsevaluering. Vi har argumenteret for, at de to<br />

opfattelser hører til hver sin diskurs, der er præget af vidt forskellige ontologiske,<br />

epistemologiske og metodologiske antagelser. Disse to diskurser har vi betegnet<br />

kontroldiskursen og den participatoriske læringsdiskurs.<br />

4.4.1. En note om fremstillingen<br />

Det er vigtigt for os at understrege, at de teoretiske distinktioner, som ligger til grund<br />

for modellen er foretaget på baggrund af vores indsamlede empiri i overens-<br />

stemmelse med Foucaults genealogiske metodeanvisninger. Prisen for en klar,<br />

akademisk fremstilling med teoriafsnittet først, metodeafsnittet i midten og analysen<br />

til sidst er, at det tætte samspil mellem vores eksplorative analyseproces og arbejdet<br />

med teorien ikke fremstår så tydeligt for læseren, som vi kunne ønske os – derfor<br />

dette lille mellemspil. I specialeprocessens begyndelse arbejdede vi ud fra et ønske<br />

om at undersøge, hvorfor man i evalueringsteorien skelner så skarpt mellem lærings-<br />

og kontrolevalueringer, mens Danida – i lighed med andre offentlige opdragsgivere<br />

herhjemme – bestiller evalueringer med et dobbelt formål. Med Hansens ord fandt vi<br />

det paradoksalt, at mens evalueringslitteraturen lægger op til heterogenitet og<br />

differentiering i konstruktionen af standarder afhængigt af om formålet er kontrol<br />

eller læring, er praksis kendetegnet ved forsøg på at homogenisere standarderne<br />

(Hansen 2001:117). En del af svaret har vi allerede givet nu: læring er ikke bare<br />

læring – der er stor forskel på, hvad praktikere og teoretikere forstår ved begrebet<br />

’læringsevaluering’. Vi har på den baggrund bragt undersøgelsesspørgsmålet et skridt<br />

videre, så vi nu fokuserer på, hvilke konsekvenser begrebsforvirringen og tilstede-<br />

værelsen af flere evalueringsdiskurser i en og samme evalueringspraksis afføder.<br />

4.4.2. Forskelle<br />

I gennemgangen af den konsensusbaserede læringsforståelse tog vi hul på<br />

diskussionen om, hvorvidt lærings- og kontrolevalueringer kan gå hånd i hånd eller er<br />

i modstrid med hinanden. Vi præsenterede Scrivens synspunkt om, at en konsensus-<br />

baseret læringsevaluering med fordel kan betragtes som et led i en kontrolevaluering,<br />

mens han tager så stor afstand fra participatoriske læringsevalueringer, at han slet<br />

ikke betragter denne praksis som evaluering. Scrivens holdninger illustrerer tydeligt,<br />

51


at diskussionen om kontrol overfor læring afhænger af, hvilken læringsopfattelse,<br />

man taler ud fra. Fortalere for participationsdiskursen vender sig mod Scrivens og<br />

andres påstand om at kontroldiskursens formkrav er konstituerende for evaluerings-<br />

definitionen: ”Summative evaluation is not the apex or Holy grail” 28 . Patton, Preskill<br />

og andre participationsorienterede evaluatorer argumenterer i stedet for, at<br />

participatorisk læringsevaluering er en selvstændig tradition med sin egen<br />

berettigelse, metode, erkendelsesinteresse og målgruppe, der adskiller sig markant fra<br />

kontrolevalueringens. De to evalueringsdiskursers repræsentation og påvirkning af<br />

genstandens indholdsmæssige og tidslige aspekt, samt af de identiteter og relationer,<br />

som knytter sig til genstanden, er med andre ord så forskellige fra hinanden, at de<br />

ikke kan kombineres (Preskill & Torres 1999:11, Patton 1994, Perry & Backus 1995,<br />

Kapoor 2004:164, Fetterman 1996).<br />

Uanset hvorvidt evalueringsteoretikerne betragter participatoriske lærings-<br />

evalueringer som en evalueringsform eller ej, kan alle således enes om, at uoverens-<br />

stemmelserne mellem diskurserne er for store til at forestille sig de to evaluerings-<br />

formål tilgodeset i samme proces. Kontroldiskursens objektivitetskrav vil modarbejde<br />

participationsdiskursens relevanskrav og omvendt, resultat- og procesorienteringen<br />

vil føre evalueringens fokus i modstridende retninger, og evaluatoren kan ikke på<br />

samme tid være distanceret og interagere åbent med de evaluerede aktører.<br />

Forskellene og diskussionerne mellem de to diskurser er således mange og store, men<br />

der er dog også en række lighedspunkter.<br />

4.4.3. Ligheder<br />

Både kontrol- og participationsdiskursen forudsætter organisatorisk rationalitet. Hvor<br />

kontroldiskursen baserer sig på bureaukratiet som den gennemgående organisations-<br />

teoretiske metafor og antager, at der går en lige linie mellem organisationens<br />

præferencer og handlinger, opererer participationsdiskursen med et ideal om en<br />

lærende organisation, der gennem refleksion og forhandling når en stadig højere grad<br />

af indsigt og tilpasningsevne (Albæk 2001:33f.). Denne rationalitetsforudsætning<br />

smitter af på perspektivernes syn på evaluering som en grundlæggende lineær og<br />

rationel foreteelse. Begge diskurser arbejder med antagelsen om, at evalueringer kan<br />

anvendes som instrument til at nå et på forhånd fastsat mål, og at dette mål er<br />

bestemmende for evalueringens design, udførelse og anvendelse. Med andre ord<br />

antages forholdet mellem formål og funktion at være 1:1, og netop derfor anses det<br />

for så vigtigt at afklare evalueringens formål på forhånd (Dahler-Larsen 2004:26).<br />

Med vores teoretiske perspektiv på evaluering som forhandlingsknudepunkt,<br />

diskursiv praktik og grænseobjekt, tager vi afstand fra antagelsen om evalueringers<br />

grundlæggende rationalitet. Denne antagelse implicerer nemlig en forestilling om, at<br />

28 Patton citeret i Chen 1996:142.<br />

52


en evaluering har en særlig ’essens’, som sørger for, at den forløber i overens-<br />

stemmelse med dens oprindelige mål. Med introduktionen af translationsbegrebet har<br />

vi søgt at anskueliggøre, at en evaluering kun iværksættes, udføres og anvendes, fordi<br />

aktører konstant interagerer med den i overensstemmelse med deres egne interesser.<br />

Vi kan i denne forståelsesramme også forklare, hvorfor en evaluering sjældent vil<br />

kunne karakteriseres som enten en læringsevaluering eller en kontrolevaluering –<br />

forskellige aktører kan opfatte samme evalueringsforløb forskelligt, hvorfor der<br />

snarere vil være tale om et både-og.<br />

I kapitlerne 7-11 præsenterer vi en analyse af, hvordan forskellene og lighederne<br />

mellem de to evalueringsdiskurser manifesterer sig i Danidas evalueringspraksis. Det<br />

følgende kapitel diskuterer de i alt fire udviklings- og evalueringsteoretiske diskurser<br />

i forhold til hinanden og indeholder desuden vores overvejelser om normativitet i<br />

diskursanalysen.<br />

53


5. Udviklings- og evalueringsteoretisk<br />

opsummering<br />

I afsnit 2.2. rejste vi spørgsmålet om, hvordan man afgrænser en diskurs. Det gøres<br />

ifølge Foucault (Foucault 1991) ved at se på dens forskel fra andre diskurser, hvorfor<br />

vi i gennemgangen af udviklings- og evalueringsteoretiske diskurser har taget afsæt i<br />

de uenigheder, som kommer til udtryk i litteraturen. Som det især fremgår af kapitel<br />

4 om evalueringsdiskurser, har vi, i overensstemmelse med Foucaults genealogiske<br />

metode desuden løbende forholdt den teoretiske skelnen til resultaterne af vores<br />

empiriske undersøgelse af Danidas evalueringspraksis, og derigennem søgt at<br />

kvalificere begge dele. Endelig har vi afgrænset diskurserne i forhold til, hvilket felt<br />

de manifesterer sig på – og har på den baggrund adskilt evaluerings- fra udviklings-<br />

diskurser.<br />

5.1. Slægtskab mellem diskurser på tværs af felter<br />

Det står imidlertid klart, at der er et vist slægtskab mellem diskurserne på tværs af<br />

felter: Den udviklingsteoretiske moderniseringsdiskurs og den evalueringsteoretiske<br />

kontroldiskurs bygger begge på en positivistisk grundopfattelse, som medfører, at<br />

diskurserne indfører tydelige skel mellem henholdsvis rigtig/forkert og sandt/falsk.<br />

Dette betyder, at relationerne mellem de subjektpositioner, som diskurserne stiller til<br />

rådighed, defineres i forhold til en objektivitetsstandard. Med andre ord er den<br />

stærkeste aktør til enhver tid den, som kender ’virkeligheden’ bedst: Det være sig<br />

eksempelvis donor i moderniseringsdiskursen eller den objektive, uafhængige<br />

konsulent i kontroldiskursen. Anvendelsen af top-down metoder anses inden for<br />

begge diskurser at være til alles bedste, idet alle aktører har en fælles interesse i, at<br />

evalueringen/udviklingsprojektet er i overensstemmelse med den objektive sandhed.<br />

Både den kritiske udviklingsdiskurs og den participatoriske læringsdiskurs er<br />

formuleret i opposition til forestillingen om fælles interesser og objektivitet. Disse to<br />

diskurser deles om en kritisk, samfundsforandrende ambition og foreskriver<br />

solidaritet med de aktørgrupper, som de anser for undertrykte inden for henholdsvis<br />

moderniserings- og kontroldiskurserne: bistandsmodtagerne og de evaluerede<br />

aktører. Som følge heraf foreskriver de to diskurser anvendelse af bottom-up<br />

metoder, ligesom de har fælles idealer om participation og myndiggørelse af de<br />

svageste.<br />

54


5.2. En note om normativitet<br />

Både den udviklingsteoretiske moderniseringsdiskurs og den evalueringsteoretiske<br />

kontroldiskurs har været udsat for megen kritik, og der er således en høj grad af<br />

bevidsthed i litteraturen om disse diskursers normativitet. Dette gælder ikke i samme<br />

grad for den kritiske udviklingsdiskurs og den participatoriske læringsdiskurs, som –<br />

blandt andet fordi de er af nyere dato – ikke har undergået samme kritiske<br />

granskning 29 .<br />

Det teoretiske afsæt, vi redegjorde for i kapitel 2, har i kraft af dets fokus på brud,<br />

forhandlinger, interesser og processer flere lighedspunkter med den kritiske<br />

udviklingsdiskurs og den participatoriske læringsdiskurs end med det andet ’diskurs-<br />

par’ bestående af moderniserings- og kontroldiskursen. I forlængelse heraf er der en<br />

tendens til, at kritisk humanistisk og sociologisk evaluerings- og udviklingslitteratur<br />

betragter henholdsvis den kritiske diskurs og den participatoriske læringsdiskurs som<br />

mindre normative og mere politisk korrekte alternativer til deres ’undertrykkende’,<br />

normative modstykker. Eksempelvis munder Fergusons analyse af udviklings-<br />

projekter i Lesotho ud i en skarp kritik af moderniseringsdiskursen og en formulering<br />

af et kritisk alternativ – trods hans målsætning om ikke at ville analysere udvikling<br />

ud fra et normativt standpunkt.<br />

Vi ønsker ikke at forfalde til en sådan stillingtagen og betragter samtlige fire<br />

præsenterede udviklings- og evalueringsdiskurser som stærkt normative. Når vi ikke<br />

ønsker at forholde os til de værdier og den praksis, som kommer til udtryk i<br />

diskurserne, skyldes det, at det efter vores mening ville give sig udslag i et<br />

uinteressant analyseprojekt. Efter vores opfattelse er det ’for nemt’ at kritisere en<br />

relativt magtfuld og veletableret aktør som Danida for at basere sin praksis på<br />

forkerte, undertrykkende antagelser uden at tage Danidas virkelighed og interesser i<br />

betragtning. I stedet finder vi det mere interessant at undersøge diskursernes<br />

praktiske konsekvenser for styrkeforholdet på mediebistandsfeltet og diskutere dette<br />

under hensyntagen til aktørernes forståelseshorisonter, interesser og handlemønstre.<br />

Vi vender tilbage til slægtskaberne mellem de evaluerings- og udviklingsteoretiske<br />

diskurser i specialets analysedel, hvor vi også tager normativitetsdiskussionen op<br />

igen i forbindelse med vores målsætning om at vurdere, hvordan Danida kan styrke<br />

sin evalueringspraksis. Inden vi når så langt, vil vi i det følgende præsentere den<br />

analysemetode, vi har anvendt, og diskutere denne i forhold til det teoretiske afsæt.<br />

29 En undtagelse er antologien Participation – The New Tyranny? fra hvilken David Mosses artikel:<br />

“‘People’s Knowledge’, Participation and Patronage: Operations and Representations in Rural<br />

Development” fra 1991 stammer. Denne bog er et af de indtil videre eneste kritiske opgør med den<br />

kritiske udviklingsdiskurs.<br />

55


6. Metode<br />

Fra de foregående kapitlers fokus på teoridannelser inden for undersøgelsens<br />

genstandsfelt vil vi nu rette blikket mod en analyse af samspillet mellem<br />

dominerende evaluerings- og udviklingsteoretiske diskurser og evaluering af dansk<br />

mediebistand som en diskursiv praktik. Analysen baserer sig på otte rapporter og<br />

tretten interviews med ansatte i Danida, eksterne konsulenter og repræsentanter for<br />

Danidas partnere på mediebistandsområdet. I dette kapitel redegør vi for vores<br />

overvejelser i forbindelse med design og udførelse af undersøgelsen. Kapitlet tager<br />

udgangspunkt i den metodeteoretiske redegørelse, som er beskrevet i afsnit 2.1. og<br />

2.2.. Her blev den diskursanalytiske forståelsesramme, som udgør fundamentet for<br />

selve undersøgelsen, defineret, og i det følgende vil vi konkretisere, hvorledes<br />

Foucaults genealogiske metode operationaliseres. Indledningsvist redegøres i 6.1. og<br />

for den metodiske fremgangsmåde, hvorefter denne i afsnit 6.2. diskuteres i forhold<br />

til videnskabelighedsparametrene validitet, reliabilitet og generaliserbarhed. Afsnit<br />

6.3. indeholder en metodisk refleksion, hvor vi diskuterer fordele og ulemper ved den<br />

anvendte metode.<br />

6.1. Udvælgelse og behandling af empiri<br />

Vi har tidligere præsenteret de tre forskellige praksisfællesskaber, som er involveret i<br />

evaluering af dansk mediebistand: Opdragsgiver (Danida), evaluatorer (konsulenter)<br />

og de evaluerede aktører (Danidas partnere). Den ene del af undersøgelsens empiri<br />

består af tretten interviews med repræsentanter for disse tre praksisfællesskaber,<br />

mens den anden del udgøres af otte rapporter. Der redegøres først for udvælgelse og<br />

databehandling af dokumenter og dernæst rettes samme fokus mod interviewene.<br />

6.1.1. Udvælgelse og databehandling af dokumenter<br />

Danida opererer med fire forskellige typer af evalueringer og evalueringsdokumenter:<br />

(1) evalueringer, (2) reviews, (3) mål- og resultatstyring samt (4) projektrapportering.<br />

Af årsager som fremgår af følgende, beskæftiger vi os alene med evalueringer og<br />

reviews.<br />

Ad 1) Danida definerer ’evaluering’ som en bedømmelsesaktivitet, der varetages af<br />

Kontoret for Evaluering af udviklingsbistand (EK) og udføres af eksterne,<br />

uafhængige konsulenter. De nærmere detaljer i definitionen behandles i kapitel 7.<br />

Danidas operationelle definition er langt smallere end den teoretiske, som hidtil er<br />

anvendt i specialet. Evalueringer er typisk omfattende og bredt orienterede<br />

undersøgelser, som beskæftiger sig med enten et udvalgt tema (eksempelvis<br />

ligestilling i bistanden), en bestemt bistandsform (bistand gennem NGO’er eller<br />

nødhjælp), landeprogrammer (den samlede danske bistand til et enkelt land) eller den<br />

kan stille skarpt på udviklingsbistanden inden for en udvalgt sektor (sundhed eller<br />

56


undervisning) (Udenrigsministeriet 2004:2). Fremover – og med mindre andet er<br />

nævnt – lader vi i forlængelse heraf betegnelsen ’evaluering’ referere til Danidas<br />

operationelle definition og ikke til den teoretiske definition, som er blevet anvendt<br />

indtil nu.<br />

Ad 2) Et review er en undersøgelse, som foretages enten midtvejs eller ved<br />

slutningen af en bevillingsfase med henblik på at vurdere resultaterne af og fremtiden<br />

for en specifik indsats. I kraft af reviewenes retrospektive og systematiske karakter<br />

omfattes de af den teoretiske evalueringsdefinition, om end Danida skelner skarpt<br />

mellem et review og en evaluering. Vi redegør nærmere for forskelle og ligheder<br />

mellem reviews og evalueringer i kapitel 7.<br />

Ad 3) Mål- og resultatstyring varetages af Kontoret for kvalitetssikring af udviklings-<br />

bistanden (KVA) og har til hensigt at monitorere Danidas samlede indsats på<br />

årsbasis. Denne evalueringstype omhandler kun indirekte de konkrete bistands-<br />

aktiviteter, hvorfor vi ikke inddrager den i den aktuelle undersøgelse.<br />

Ad 4) Projektrapportering er en samlet betegnelse for den løbende dokumentation af<br />

projekters forløb. Rapporteringen udarbejdes i samarbejde mellem projekt-<br />

organisationen, en eventuel ekstern IO og Danida. I bilag 5 og afsnit 7.1.5.1. findes<br />

der oversigter over de obligatoriske typer projektdokumenter. Hovedparten af<br />

projektrapporteringen falder uden for vores evalueringsdefinition (jf. afsnit 1.4.2.),<br />

enten fordi dokumenterne ikke er retrospektive, eller fordi de ikke er gennemført<br />

systematisk. Projektrapportering indgår derfor kun indirekte i analysen af Danidas<br />

evalueringspraksis.<br />

6.1.1.1. Udvælgelse af review- og evalueringsrapporter<br />

Evaluerings- og reviewrapporterne er udvalgt efter en såkaldt ”maksimum variation”-<br />

strategi (Flyvbjerg 1991:150), som i nærværende kontekst indebærer, at vi på to<br />

områder har tilstræbt størst mulig variation i det samlede case-materiale: Dels har vi<br />

stilet efter en nogenlunde lige fordeling mellem evalueringer og reviews, dels har vi<br />

ønsket at undgå overrepræsentation af bestemte evaluatorer (konsulentfirmaer) og<br />

genstande (mediebistandsprojekter). Dette skyldes en bestræbelse på at opnå en vis<br />

grad af repræsentativitet i undersøgelsen. Genealogien foreskriver nemlig, at<br />

forskeren både skal have ”a knowledge of details” og ”a vast accumulation of<br />

material” (Foucault citeret i Flyvbjerg 1991:93), hvilket vi fortolker som et krav om<br />

både at have blik for så mange forskellige detaljer som muligt og samtidig kunne<br />

sikre, at analysen deraf vedrører mere end blot en enkelt case – eller måde at evaluere<br />

på.<br />

57


Arbejdet med udvælgelse af varierede cases har dog været begrænset af to forhold:<br />

For det første genbruger Danida i høj grad de samme konsulentfirmaer til at udføre<br />

reviews af mediebistandsprojekter, og for det andet er der stor forskel på, med<br />

hvilken frekvens de enkelte projekter udsættes for evalueringer og reviews. Begge<br />

dele medfører, at visse konsulenter og projekter indgår flere gange. Dette gælder to af<br />

konsulentfirmaerne, og desuden er der en overvægt af reviews og evalueringer af de<br />

to flagskibsprojekter inden for dansk mediebistand: Nordic-SADC School of<br />

Journalism (NSJ) og Media Institute of Southern Africa (MISA).<br />

Følgende review- og evalueringsrapporter indgår i analysen:<br />

Doku-<br />

menttype<br />

År:<br />

udført/<br />

udgivet<br />

Titel<br />

Forkortet titel<br />

Rapporthenvisning, registranthenvisning<br />

Evaluering 1999/00 Dansk støtte til fremme af MR & D: Medier<br />

Den generelle medieevaluering og Danida 2000A<br />

Evaluering 2002 Evaluering af NSJ: Nordic-SADC School of Journalism<br />

NSJ 02<br />

Evaluering 2002 Evaluering af Media Institute of Southern Africa<br />

Review<br />

(eval.) 30<br />

MISA 02<br />

2001/02 Evaluering/review af the Media Institute of Southern Africa<br />

MISA 01/02<br />

Review 2002 Review af dansk støtte til den lokale presse i Bangladesh<br />

Bangladesh 02<br />

Review 2002 Review af dansk støtte til fremme af en fri presse i Zambia<br />

Zambia 02<br />

Review 2003 Review af Nordic-SADC School of Journalism<br />

NSJ 03<br />

Review 2004 Review af Media Institute of Southern Africa<br />

Figur 6a<br />

MISA 04<br />

Evaluatorer/<br />

nationalitet<br />

Oxford<br />

Research/DK<br />

ECORYS/Holland<br />

& Imani Develop-<br />

ment/Zambia<br />

ECORYS/Holland<br />

& Imani Develop-<br />

ment/Zambia<br />

Media Consult&<br />

COWI/DK<br />

T&B Consult/DK<br />

Danicom/DK<br />

Danicom/DK<br />

Chigudu & Ass/<br />

Zimbabwe & kon-<br />

sulent fra<br />

Som skemaet viser, beror vores analyse på tre evalueringer og fem reviews af<br />

Danidas bilaterale mediebistand, som alle er udgivet efter 2000.<br />

BFT/Danida<br />

30 Når der kan være tale om en hybrid mellem en evaluering og et review skyldes det, at dokumentet er<br />

resultat af et donorsamarbejde mellem Danida, Hivos og Sida. De svenske og hollandske donoragenturer<br />

klassificerer bedømmelsesaktiviteten som en evaluering, mens det i Danida-regi har review-status.<br />

Grundet vores fokus på Danida betragter vi det fremover som et review.<br />

58


6.1.1.2. Databehandling af dokumenter: Tekstanalytiske værktøjer<br />

Analysen af evaluerings- og reviewrapporterne sker med henblik på at belyse det, vi<br />

tidligere med Dahler-Larsens betegnelse har kaldt evalueringers konstitutive<br />

virkninger. Det vil sige de måder, hvorpå teksterne (re)konstruerer ’det gode<br />

mediebistandsprojekt’ og de aktør-identiteter og relationer, der knytter sig<br />

mediebistanden. Til dette formål inddrager vi en metodisk værktøjskasse, som<br />

præsenteres af den britiske lingvist Norman Fairclough.<br />

Som det er tilfældet med Foucault, sættes Faircloughs navn i forbindelse med<br />

diskursanalyse. I Faircloughs forståelse er diskursbegrebet imidlertid væsens-<br />

forskelligt fra Foucaults udlægning. Mens Foucault betragter diskurs som udtryk for<br />

de historiske mulighedsbetingelser for produktionen af udsagn, er Faircloughs<br />

’kritiske diskursanalyse’ (Fairclough 1992) langt mere lingvistisk og tekstanalytisk<br />

orienteret, idet diskurs betragtes som sproglig medieret praksis (Fairclough<br />

1995A:135). Dette fundament i en mere tekstnær tradition betyder, at Faircloughs<br />

diskursanalytiske redskaber bedre lader sig operationalisere sammenlignet med<br />

Foucaults mere uklare metodeanvisninger. I analysen inddrager vi således nogle af<br />

Faircloughs værktøjer, som vi mener, kan bidrage til at afdække de diskursive<br />

rekonstruktioner af sociale identiteter, relationer og repræsentationen af verden, som<br />

kommer til udtryk i en given tekst. Det sker vel at mærke uden at abonnere på hans<br />

diskursbegreb og teoretiske fundament i øvrigt: her fastholder vi afsættet i Foucaults<br />

diskursbegreb 31 .<br />

Repræsentation og afdækning af ’det gode mediebistandsprojekt’<br />

En diskurs repræsenterer et bestemt videnssystem og sætter dermed rammer for,<br />

hvordan vi kan forstå og agere i verden. I dette speciale fokuseres på hvordan<br />

evalueringsrapporterne trækker på evaluerings- og udviklingsteoretiske diskurser i<br />

deres konstruktion af mediebistand, fordi det har betydning for, hvordan Danida og<br />

de øvrige involverede aktører kan handle på mediebistandsfeltet fremover. Specifikt<br />

undersøger vi teksternes valg af ord og argumentationsformer (Fairclough<br />

1992:75ff.) og ser desuden på fænomenet tilslutning (’affinitet’, ibid.:152ff.). Med<br />

tilslutning mener Fairclough den overbevisning, hvormed en påstand fremsættes,<br />

hvilket eksempelvis kan udtrykkes ved brug af værdiladede tillægsord, modalverber<br />

og understregende biord. I nedenstående sætning anvendes værdiladede tillægsord og<br />

modalverbet ”need” som en indikator på forfatternes tilslutning til udsagnet:<br />

31 Fairclough modererer den Foucault-inspirerede traditions socialkonstruktivistiske antagelse om, at den<br />

sociale virkelighed konstrueres gennem sproglig handlen ved at hævde, at der findes en virkelighed uden<br />

for diskursen (Fairclough 1992:64ff.). Diskurs er ifølge Fairclough både konstituerende for og<br />

konstitueret af social praksis. Han søger dermed at kombinere Foucaults magtbegreb med en marxistisk<br />

forståelse af socioøkonomiske strukturer som konstituerende for kulturel og sproglig praksis (Fairclough<br />

1992:56f., Jørgensen og Phillips 1999:27).<br />

59


This is an important issue, linking media with gender and poverty reduction,<br />

which needs to be included in the strategic planning document. (MISA<br />

01/02:45, vores understregning)<br />

Graden af tilslutning giver et fingerpeg om, hvad der tages for givet, og hvad der<br />

stilles spørgsmålstegn ved: Hvor nogle forhold ved genstanden præsenteres som<br />

indiskutable og uantastelige sandheder, gøres andre til genstand for diskussion. Det<br />

bidrager til konstruktionen af ’det gode mediebistandsprojekt’, som i dette citat er<br />

kendetegnet ved at tage højde for Danidas målsætninger om at bidrage til<br />

fattigdomsbekæmpelse og ligestilling mellem kønnene (Danida 2000B).<br />

Identiteter og relationer<br />

Enhver diskurs rummer et afgrænset antal subjektpositioner, som sprogbrugerne kan<br />

indtage, og derved former en evaluerings eller et review’s sprog de interagerende<br />

aktørers identiteter og relationer (Foucault 1991:58). Et indblik i de identiteter og<br />

relationer, som kommer til udtryk i en evalueringsrapport, fås ved at undersøge<br />

tekstens forfatter- og læseridentiteter samt ved at se på, hvilke aktører teksten<br />

fremstiller, og hvad relationen mellem dem er. Grammatisk kan en sådan analyse<br />

gribes an ved at fokusere på fænomenet transitivitet, det vil sige de måder, hvorpå en<br />

begivenhed forbindes med et subjekt og et objekt (Fairclough 1992:158ff.). Konkret<br />

ser vi i tekstanalysen nærmere på verbernes form (aktiv eller passiv), idet<br />

anvendelsen af passivkonstruktioner tilslører agens og fjerner ansvaret. Af denne<br />

sætning fremgår det eksempelvis ikke, hvem ophavsmanden til vurderingen er – er<br />

det donor, konsulenten eller de evaluerede aktører selv, som mener, at indsatsen ikke<br />

står mål med bistandens størrelse?<br />

The training, however, is not regarded as being impressive in comparison with<br />

the amount of funding they have received. (Danida 2000A:35, vores<br />

understregning)<br />

Et andet redskab til analyse af transitivitet er nominalisering, det vil sige en analyse<br />

af, hvem der gøres til subjekt og objekt for hvilke handlinger (Fairclough<br />

1992:169ff.). Dette har betydning for tekstens konstruktion af magtrelationer. Vælger<br />

man at lægge vægt på effekterne i stedet for handlingerne, fremstår det skete som et<br />

naturfænomen, og de ansvarlige aktører fratages ansvar, hvilket eksempelvis kommer<br />

til udtryk i denne formulering: ”der har været mange problemer”. Ved at erstatte<br />

sætningens subjekt med ”der” bliver det uklart, hvem og hvilke faktorer ansvaret for<br />

de nævnte problemer kan tilskrives. En analyse af sætningernes transitivitet giver<br />

således et fingerpeg om, hvordan rollerne kontrolleret-kontrollant og lærer-elev<br />

besættes i teksterne, samt om hvorledes rapporterne placerer ansvar i henhold til<br />

evalueringernes ansvarliggørelsesfunktion.<br />

60


6.1.2. Interviews<br />

6.1.2.1. Udvælgelse af interviewpersoner<br />

Udvælgelsen af interviewpersoner er foretaget under fastholdelse af den genealogiske<br />

grundforståelse af subjektet som værende på én og samme tid både frit af og fast-<br />

bundet til allerede eksisterende diskurser. På den baggrund betragter vi med<br />

genealogien som redskab interviewpersoner som repræsentanter for de praksis-<br />

fællesskaber, de er medlem af. Som tidligere nævnt har vi tilstræbt en vis repræsen-<br />

tativitet i udvælgelsen af empiri, og af den grund har vi interviewet repræsentanter<br />

for de tre forskellige praksisfællesskaber, der er involveret i Danidas review- og<br />

evalueringspraksis: Opdragsgiver, evaluatorer og partnerorganisationer. Vi har talt<br />

med:<br />

o Fire ansatte i Danida, som repræsenterer opdragsgiveren (<strong>OG</strong>)<br />

o Syv eksterne konsulenter (KS), hvoraf fire samtidig har erfaringer som<br />

repræsentanter for en evalueret partnerorganisation<br />

o Seks repræsentanter for evaluerede partnerorganisationer (PO) (hvoraf fire<br />

også har erfaringer med reviews og evalueringer som eksterne konsulenter).<br />

I alt har vi gennemført interviews med 13 individer. Hvad de fire ’gengangere’ angår,<br />

så skelner vi i fremstillingen mellem hvornår en af disse ’gengangere’ udtaler sig som<br />

enten partner eller konsulent, ganske enkelt ved at præsentere dem særskilt som<br />

partnerrepræsentant og konsulent. Det skyldes primært vores syn på interview-<br />

personerne som repræsentanter for praksisfællesskaber snarere end som individer,<br />

sekundært er det et greb, hvormed vi tilstræber anonymisering af interview-<br />

personerne.<br />

6.1.2.2. Gennemførelse af interviews<br />

Indledningsvist kontaktede vi de ønskede interviewpersoner per telefon eller mail.<br />

For personer med base i Danmark lagde vi op til et personligt interview, mens vi i<br />

forhold til partnerorganisationerne i Syd foreslog to interviewformer, enten via mail,<br />

hvor de besvarede spørgsmål, vi stillede på forhånd, eller et telefoninterview. I alt har<br />

vi foretaget to mailinterviews, tre telefoninterviews og otte personlige interviews, og<br />

vi vil her kort redegøre for vores overvejelser omkring brugen af disse metoder.<br />

Spørgeguides<br />

Som afsæt for udformning af hver spørgeguide læste vi den eller de rapporter, som<br />

vedkommende havde været involveret i og researchede på den enkeltes baggrund og<br />

erfaringer 32 . Spørgsmålene var formuleret på forhånd, men vi foretog reelt halv-<br />

strukturerede interviews (Kvale 1997:129), idet vi forfulgte tråde og temaer, der<br />

32 Se bilag 3A for eksempel på spørgeguide.<br />

61


dukkede op undervejs. Mailinterviews blev foretaget ved, at interviewpersonerne<br />

besvarede et individuelt udformet spørgsmålsark.<br />

Interviewsituationen<br />

De personlige interviews blev i alle tilfælde foretaget på den interviewedes arbejds-<br />

plads, og under hvert interview medvirkede vi begge: Én som interviewer og én som<br />

observatør og opsamler til sidst. Da der i alle tilfælde var tale om fagfolk med megen<br />

erfaring, vurderede vi, at det ikke ville influere på udbyttet af interviewet, at vi var<br />

’to over for én’, og denne vurdering har vi ikke fundet grund til at revidere efter-<br />

følgende.<br />

Hvert interview blev indledt med en kort introduktion, hvor vi forklarede<br />

interviewets formål og garanterede interviewpersonens anonymitet. Herefter lagde vi<br />

ud med erfaringsbaserede spørgsmål, hvor interviewpersonen fik lejlighed til at<br />

bringe egne termer og kategorier i spil frem for at bruge vores. Afslutningsvist<br />

spurgte vi ind til personernes holdning til specifikke forhold, og derved blev der i<br />

slutningen af hvert interview tale om en mere diskuterende og reflekterende svar-<br />

form. Interviewene varede mellem en og to timer.<br />

Telefoninterviewene var indbyrdes forskellige på den måde, at det ene var med en<br />

engelsktalende repræsentant for en afrikansk partnerorganisation, mens de to andre<br />

var med dansktalende personer, henholdsvis en opdragsgiver og en repræsentant for<br />

en partnerorganisation. Spørgeguides havde vi i de to sidstnævnte tilfælde udformet,<br />

som var der tale om et personligt interview, hvilket fungerede fint – svarene fra disse<br />

interviews adskiller sig for så vidt ikke fra de svar, vi har fået gennem personlige<br />

interviews, og interviewene havde samme varighed (en til to timer). I det engelsk-<br />

sprogede interview var vi på forhånd mindre ambitiøse i forhold til, hvad vi skulle nå<br />

omkring og hvor stor fortrolighed, man kunne nå at skabe basis for i løbet af relativt<br />

kort tid og uden mulighed for at ’se hinanden an’. Desuden forventede vi, at sproget<br />

ville være en udfordring, hvilket viste sig at holde stik. Det var svært at forstå<br />

hinanden, hvilket både skyldtes forskellige accenter, og telefonforbindelse af mindre<br />

god kvalitet. Interviewet var således ikke så udbytterigt, som vi havde håbet, men det<br />

gav os nogle mere impulsive svar end dem, vi har fået ved at interviewe over mail.<br />

Mens de dansksprogede interviews har forløbet problemfrit og med stort udbytte, så<br />

viste det ene, engelsksprogede interview os med al tydelighed de problemer, som<br />

opstår, når kommunikationen i et interview besværliggøres af en eller flere grunde.<br />

Vi mener imidlertid ikke kun, det skyldes sproget og den dårlige forbindelse, men<br />

også det faktum, at den interviewede part bliver usikker og dermed mindre åben, når<br />

vedkommende ikke ved, hvem eller hvad der er i den anden ende. Forud for<br />

interviewet havde vi forsøgt at imødegå dette ved at maile sammen, og vi havde fra<br />

vores side redegjort for hensigten bag interviewet. Hvorvidt interviewpersonen ville<br />

62


have været mere åben, hvis vedkommende havde kunnet se os og tale uden filtre<br />

imellem, kan vi af gode grunde kun gisne om. Vi har dog valgt at tage højde for, at de<br />

repræsentanter fra partnerorganisationer i Syd, som har bidraget til datamaterialet,<br />

muligvis er i tvivl om, præcis hvem vi er, og hvorvidt vi samarbejder med Danida på<br />

en eller anden vis eller ej. At dette kan have influeret på deres svar, bekræftes i den<br />

forestående analyse, hvor de evaluerende konsulenter tilkendegiver at opleve en<br />

lignende problematik i evaluerings- og reviewsammenhænge.<br />

Afslutningsvist skal det nævnes, at alle interviews med interviewpersonernes<br />

tilladelse blev optaget på bånd.<br />

6.1.2.4. Transskription<br />

Båndoptagelserne fra interviewene er efterfølgende skrevet ud, og det er på baggrund<br />

af disse transskriptioner, databehandlingen er foretaget. Det særlige ved et<br />

transskriberet datamateriale er, at de ikke er vore grunddata, men derimod ”kunstige<br />

konstruktioner fra en mundtlig til en skriftlig kommunikationsform” (Kvale<br />

1996:163). Ved denne konstruktion foretages der – uanset intentioner om at overføre<br />

data så præcist som muligt – en række vurderinger og omformninger, der påvirker<br />

data, ligesom der i tabet af selve lyden går en mængde data tabt. Vi har forsøgt at<br />

imødekomme denne problematik ved fra starten at udarbejde et sæt retningslinier for<br />

transskribering, som fremgår af afsnit 6.1.3. I bestræbelserne på en så høj grad af<br />

tilnærmelse til det optagne interview som muligt har vi medtaget fejlstarter, pauser,<br />

ikke-leksikalske udtryk, ufuldstændige sætninger og lignende. Afslutningsvist har vi<br />

kontrolleret og præciseret hinandens transskriptioner.<br />

6.2.2.3. Fra rå interviews til koder og kategorier<br />

Som et undersøgelsesteknisk værktøj til databehandling af interviewmaterialet har vi<br />

valgt at tage udgangspunkt i traditionen Grounded Theory. Den metodiske frem-<br />

gangsmåde, som knytter sig til Grounded Theory, foreskriver en systematisk, empiri-<br />

nær databehandling, hvor man ved kodning af hvert lille element af datamaterialet<br />

langsomt, men grundigt bevæger sig fra rå, transskriberede interviews til at uddrage<br />

en række overordnede temaer (Alvesson & Sköldberg 1994:78ff.). Kodnings-<br />

processen kan inddeles i tre trin: 1) Åben kodning, 2) opstilling af kodningskategorier<br />

og 3) selektiv kodning 33 .<br />

1. Åben kodning<br />

Indledningsvist læste vi de 13 interviews igennem, afgrænsede naturlige betydnings-<br />

enheder og udtrykte temaet for hver enhed i et sprog, der lå så tæt på respondentens<br />

som muligt – en kode. I tråd med forskrifterne for den åbne kodning var der tale om<br />

33 Et eksempel på, hvordan metoden er omsat til praksis, er at finde i bilag 3B.<br />

63


en detailorienteret gennemgang, der medtog alle betydningselementer, som vi<br />

vurderede havde relevans for specialets fokus (Alvesson & Sköldberg 1994:78ff.,<br />

Kvale 1996:194).<br />

2. Opstilling af kodningskategorier<br />

Efterfølgende blev koderne samlet i et mindre antal kategorier, stadig med den<br />

hensigt at viderebringe så mange detaljer fra hvert af interviewene som muligt. På<br />

dette stadie var det målet at sikre en så udtømmende beskrivelse af kategorierne som<br />

muligt, at ’mætte dem’. Dette er ifølge GT sket, når man ikke længere finder nye<br />

aspekter af dem ved gennemlæsning af datamaterialet (Lindlof & Taylor 2002:222).<br />

3. Selektiv kodning<br />

I den tredje og sidste fase, den selektive kodning, var afsættet samtlige kategorier,<br />

som den enkeltvise gennemgang af interviewene havde resulteret i. Med henblik på at<br />

foretage en første sammenfatning markerede vi nu røde tråde mellem kategorierne og<br />

etablerede dermed datamaterialets ’storyline’ (Alvesson & Sköldberg 1994:78ff.).<br />

Konkret udpegede vi nogle kernekategorier (Lindlof & Taylor 2002:214ff.),<br />

hvoromkring de øvrige, nu underordnede kategorier, blev placeret. Under denne<br />

proces skete der samtidig en udvælgelse af nogle emner på bekostning af andre, idet<br />

vi vurderede, at de enten manglede mætning og underbygning eller omhandlede<br />

temaer, som ikke var relevante i forhold til den aktuelle undersøgelsesoptik. På<br />

baggrund af de kategorier, som var tilbage efter det tredje trin i kodningsprocessen,<br />

udarbejdede vi en første disposition for analysen, der byggede på den storyline, som<br />

var udviklet.<br />

6.1.3. Fremstilling af empiri<br />

I analysen inddrages uddrag af både dokumenter og interviews. Dette har til formål at<br />

gøre vore konklusioner og argumenter så velunderbyggede og gennemskuelige som<br />

muligt. For at imødegå de spørgsmål, der måtte opstå i forbindelse med gengivelse af<br />

citater præsenteres her de konventioner, som er anvendt.<br />

Pauseangivelse<br />

… Kort ophold<br />

(P1) Pause af 1-2 sekunders varighed<br />

(P2) Pause af 2-5 sekunders varighed<br />

(P3) Pause af mere end 5 sekunders varighed<br />

Diverse transskriptionskonventioner<br />

(tekst) Angiver latter, vrængen eller andre former for udtryk, som ikke er<br />

gengivet i den transskriberede tekst.<br />

(tekst) Utydelig tale, eventuelt vores gæt.<br />

64


tekst/ Afbrudt tale<br />

Ændring eller tilføjelse i citater<br />

[tekst] Tilføjede bemærkninger som letter forståelsen af citater<br />

[[tekst]] Anonymisering. Indikerer, at der er fjernet et navn på en person eller<br />

organisation.<br />

(…) Markerer en udeladt passage i et citat eller et rapportuddrag.<br />

Anførselstegn<br />

”tekst” Direkte citat fra interview, rapport eller teoretisk tekst. Efterfølges af<br />

henvisning til den pågældende kilde med angivelse af sidetal.<br />

Eksempelvis (PO) eller (Bangladesh 02:19)<br />

’tekst’ Anvendes dels kreativt i teksten og dels i forbindelse med inddragelse<br />

Understregning<br />

af et citats indhold i ændret form. Efterfølges i sidstnævnte tilfælde af<br />

henvisning.<br />

Tekst Angiver enten interviewpersonens intonation (trykstærke stavelser<br />

eller ord) eller vores fremhævning af bestemte passager eller ord. Når<br />

det er tilfældet, har vi til sidst i kildehenvisningen tilføjet ’vus’ – en<br />

forkortelse for ’vores understregning’.<br />

6.2. Undersøgelsens videnskabelighed<br />

Vi har nu redegjort for vores overvejelser i forbindelse med udvælgelse og<br />

behandling af empiri. På den baggrund vil vi i det følgende gennemgå og diskutere<br />

undersøgelsens videnskabelighed med henblik på at hævde dens gyldighed og<br />

troværdighed. Det sker med afsæt i de tre gængse videnskabelighedskriterier,<br />

validitet, reliabilitet og generaliserbarhed. Disse begreber er oprindeligt formuleret<br />

inden for en kvantitativ metodisk tradition, men har med tiden fået en anden<br />

betydning – eller rettere: en række andre betydninger – inden for den kvalitative<br />

metode. Vi anvender imidlertid de definitioner, som gives af Silverman (Silverman<br />

1993 & 2000) samt Alasuutari (Alasuutari 1995).<br />

6.2.1. Validitet<br />

Begrebet validitet henviser til spørgsmålet om, i hvor høj grad en undersøgelse<br />

repræsenterer virkeligheden: Har man undersøgt det, man siger, man undersøger?<br />

(Silverman 2000:178ff.). Inspireret af Silverman har vi valgt en trestrenget<br />

valideringsstrategi, der består af følgende elementer: Først og fremmest har vi<br />

praktiseret en omfattende databehandlingsmetode, hvilket både henviser til<br />

datamaterialets omfang samt til måden, hvorpå det er bearbejdet. Her skal det<br />

nævnes, at vi, som supplement til den oven for beskrevne databehandling af den<br />

65


interviewbaserede empiri, har gennemgået samtlige interviews på ny, for at sikre at<br />

relevante elementer, der ved første øjekast virkede uvæsentlige, ikke skulle gå tabt.<br />

Valideringsstrategiens anden del består i, at vi løbende har foretaget sammen-<br />

ligninger af de cases, som indgik i datamaterialet, hvorved vi har testet forskellige<br />

hypoteser, som opstod undervejs. Det tredje element i valideringsstrategien har været<br />

at rette opmærksomheden mod de afvigende cases, forstået som et særligt fokus på de<br />

kategorier, der skiller sig ud. De har måske ikke umiddelbart passet ind i de mønstre,<br />

som fremkom i det øvrige materiale, men efter devisen at de indeholder værdifuld<br />

information og viser nye sider af undersøgelsesgenstanden, har vi ladet dem indgå<br />

som en del af empirien frem for at afvise dem som værende unormale og irrelevante.<br />

6.2.2. Reliabilitet<br />

Begrebet reliabilitet betyder i Silverman’s forståelse, at forskeren gør rede for sin<br />

metode med henblik på at give læseren mulighed for at vurdere, hvorvidt den kan<br />

siges at være troværdig og veludført (Silverman 2000:185ff.). Silverman taler for, at<br />

man som kvalitativ forsker bør gøre sit rå datamateriale tilgængeligt, idet der hermed<br />

sikres adgang til respondenternes egne ord og kategorier. En anden dimension af<br />

reliabilitetskriteriet er ifølge Davies (Davies 1999) videnskabelig refleksivitet. Som<br />

forsker skal man således sikre, at man konstant er bevidst om sin rolle, og blandt<br />

andet om den påvirkning, der er mellem forskeren og undersøgelsesobjektet. Vi vil<br />

løbende lade vores refleksioner og overvejelser i forbindelse med valg af metode og<br />

analysestrategier komme til udtryk i specialet.<br />

6.2.3. Generaliserbarhed<br />

Generaliserbarhed i en kvalitativ sammenhæng mange er et spørgsmål om at relatere,<br />

ekstrapolere eller redegøre for emnets relevans (Alasuutari 1995:156f). Vi vil<br />

undervejs i analysen og især i specialets perspektivering relatere vore pointer og<br />

konklusioner til andre praksisser eller sektorer, hvor der er interessante og relevante<br />

paralleller til evaluering af mediebistand. Det sker med afsæt i den i indledningen<br />

skitserede nysgerrighed over for evaluering som samfundsfænomen.<br />

6.3. Metodisk refleksion<br />

I specialeprocessen har vi søgt at balancere mellem på den ene side at leve op til den<br />

diskursanalytiske metodes krav om grundighed og omfang, og på den anden side at<br />

designe en undersøgelse, som vi havde realistisk mulighed for at gennemføre på et<br />

semester. Af praktiske hensyn vurderer vi ikke, at vores empiriske materiale kunne<br />

have været meget mere omfattende, men med de selvkritiske briller på vil vi påpege<br />

tre svagheder ved vores undersøgelsesdesign.<br />

For det første vurderer vi, at det ville have styrket undersøgelsen, hvis den også<br />

omfattede observationer af et eller flere evaluerings- og reviewforløb. Dermed ville<br />

66


vi få adgang til andre og mere ufortolkede data om, hvordan interaktionen mellem<br />

konsulenter, Danida og de evaluerede aktører foregår. På et tidligt stadie overvejede<br />

vi denne mulighed, men valgte den af såvel metodiske som praktiske årsager fra:<br />

Dels ud fra den betragtning, at vores problemformulering fordrede en analyse baseret<br />

på en række forskellige evalueringsforløb – ikke blot på et eller to, som er det antal,<br />

vi realistisk set havde råd og tid til at observere. Dels fordi vi ved at følge et hold<br />

konsulenter ikke ville kunne undersøge de evaluerede aktørers oplevelse af<br />

magtudøvelsen i forbindelse med kontrol- og læringsformålet, da disse sandsynligvis<br />

ville opleve os som en del af evalueringsholdet. Vi vurderer altså, at vi ville påvirke<br />

vores analysegenstand på en uhensigtsmæssig måde, som både ville efterlade os med<br />

et mangelfuldt datamateriale og kunne virke obstruerende på evalueringsprocessen.<br />

Som det tredje argument gjorde der sig også et rent praktisk forhold gældende,<br />

nemlig at vores indsamling af empiri fandt sted i en periode, hvor Danida ikke stod<br />

for at skulle foretage en bedømmelse af deres mediebistandsprojekter. Disse<br />

forklaringer ændrer dog imidlertid ikke ved, at feltobservationer ville have været<br />

yderst interessante at supplere den aktuelle undersøgelse med.<br />

En anden svaghed ved undersøgelsen er, at empirien udelukkende omfatter reviews<br />

og evalueringer, som Danida har været opdragsgiver til. Det har for det første den<br />

implikation, at dataindsamlingen i vid udstrækning er sket med afsæt i de forslag og<br />

kontakter, vores kontaktperson i Danida har bidraget med – fordi vi ikke har haft<br />

mulighed for at danne os et overblik over samtlige dokumenter eller personer, der<br />

kunne være relevante at inddrage i undersøgelsens perspektiv, da oplysningerne ikke<br />

er offentligt tilgængelige. Dette har vi – som det fremgik af afsnit 6.2.2.1. – forsøgt at<br />

tage metodisk højde for ved selv at opsøge interviewpersoner ud over de forslag, vi<br />

fik fra Danida.<br />

Endvidere betyder vort koncentrerede fokus, at vi har afskrevet muligheden for at<br />

undersøge andre, relevante organisationer. Et interessant sammenligningsgrundlag<br />

kunne have været bedømmelsesaktiviteter iværksat af NGO’er, da vi har en<br />

formodning om, at relationen mellem NGO’erne og de evaluerede aktører i højere<br />

grad er præget af jævnbyrdighed og participation – eller i hvert fald af idealer herom.<br />

Hvilken betydning det har for samspillet mellem læring og kontrol i forbindelse med<br />

evalueringer og reviews, er et interessant spørgsmål, som vi desværre må lade en<br />

anden undersøgelse forfølge.<br />

Sidst, men ikke mindst, ville vi gerne have haft muligheden for at konfrontere<br />

interviewpersonerne med analysens konklusioner i form af opfølgende, diskuterende<br />

interviews – eventuelt en fokusgruppe. Dette skyldes, at vi i bearbejdningen og<br />

fremstillingen af analysen har erfaret, at interviewpersonerne giver udtryk for<br />

modstridende, ofte selvmodsigende og uklare forståelser af begreberne kontrol og<br />

67


læring. En konfrontation ville sandsynligvis kunne bidrage til både at udfordre og<br />

forfine såvel vores som deres fortolkning af disse begreber.<br />

Til trods for disse svagheder kan det dog fastslås, at specialet er det første forsøg på<br />

systematisk at undersøge evaluering af dansk mediebistand. På den baggrund<br />

vurderer vi, at det indsamlede datamateriale giver god basis for at fremdrage<br />

væsentlige problemstillinger og spørgsmål.<br />

68


7. Danidas evalueringspraksis<br />

Vi tager nu hul på selve analysen og indleder med at præsentere analysens genstand:<br />

Danidas evalueringspraksis. Som vi redegjorde for i den teoretiske gennemgang i<br />

kapitel 2, betragter vi evalueringer som grænseobjekter, gennem hvilke de tre<br />

praksisfællesskaber Danida, Danidas partnere og de eksterne konsulenter interagerer.<br />

I nærværende kapitel vil vi præsentere både grænseobjekter og praksisfællesskaber<br />

ved at gennemgå de formelle strukturer, som kendetegner disse. Gennemgangen<br />

danner afsæt for en efterfølgende analyse af de forhandlinger og forståelser, som<br />

præger evaluering af Danidastøttet mediebistand. Indledningsvist i afsnit 7.1. redegør<br />

vi for forskelle og ligheder mellem evalueringer og reviews. Det efterfølgende afsnit<br />

7.2. behandler de tre praksisfællesskaber enkeltvist.<br />

7.1. Evalueringer og reviews<br />

I det foregående kapitel om metode beskrev vi de fire former for bedømmelses-<br />

aktiviteter, som gennemføres i Danida: evalueringer, reviews, projektrapportering og<br />

mål- og resultatstyring. Her uddybes ligheder og forskelle mellem de to bedøm-<br />

melsesformer, som vi fokuserer på, det vil sige reviews og evalueringer.<br />

Gennemgangen bygger på dokumenterne Evaluation Guidelines (Danida 1999) og<br />

Guidelines for Project Management (Danida 2003B) og inddrager interview-<br />

materiale, hvor det er relevant.<br />

Danida skelner skarpt mellem reviews og evalueringer:<br />

... vi holder sådan en meget skarp skillelinie. Hvis der er nogen, der bruger<br />

ordet ’evaluering’ her i huset, så skal den lande [i Evalueringskontoret]. Der<br />

laves mange studier, som ligner evalueringer, også reviews, der er meget<br />

omfattende og tilbundsgående og så videre. Men de er ikke evalueringer – de<br />

bliver ikke udsat for den samme kvalitetssikring og den samme uafhængighed,<br />

som vi lægger i evalueringer, og de bliver heller ikke offentliggjort. Det gør<br />

alle vores evalueringer. (<strong>OG</strong>)<br />

Her opridser den citerede Danidamedarbejder kort, på hvilke punkter evalueringer og<br />

reviews adskiller sig fra hinanden i Danidas terminologi. Det drejer sig dels om<br />

offentliggørelse og dels om bedømmelsesaktiviteternes forskellige organisatoriske<br />

forankring i Danida. Disse faktorer handler de kommende to underafsnit om.<br />

7.1.1. Offentliggørelse<br />

Af Danidas retningslinier for evalueringer fremgår det, at forskellen mellem<br />

“evaluation” og “review” består i, at ”[T]he former is an inquiry that will be available<br />

to the public, while the latter is an internal, periodic assessment” (Danida 1999:2). En<br />

vigtig forskel mellem reviews og evalueringer er således, at førstnævnte er interne<br />

arbejdsdokumenter, mens evalueringer er offentligt tilgængelige og som følge heraf<br />

underlagt skrappere krav til uafhængighed og kvalitet. Den primære målgruppe for<br />

69


eviews er aktører, som er involverede i et givent projekt eller program, idet reviews<br />

betragtes som ”key management tools allowing national partners, Danish authorities<br />

and any other donors involved in the project to assess progress and adjust the support<br />

in light of changes in project context, sector development, and achievement of<br />

objectives” (Danida 2003B:8). Hvor reviews retter sig mod organisationsinterne<br />

målgrupper, er evalueringer henvendt til såvel interne som eksterne målgrupper. De<br />

eksterne målgrupper for evalueringerne omfatter både ’offentligheden’ i Danmark og<br />

i modtagerlandet (nærmere bestemt medier, borgere og beslutningstagere, Danida<br />

1999:100ff.) samt NGO’er, andre donoragenturer og interessenter generelt. At<br />

målgruppen for evalueringerne er bred og noget diffus illustreres tydeligt i disse<br />

udsagn, hvor en af de interviewede Danidamedarbejdere forklarer os, at målgruppen<br />

for evalueringer er ”nogen helt andre aktører i…i…i kredsen” (<strong>OG</strong>), mens en anden<br />

ansat i Danida mener, at målgrupperne er ”dem ude i byen” og ”samarbejds-<br />

partnerne” (<strong>OG</strong>). For at nå disse mange og heterogene målgrupper udgiver Danida<br />

forskellige versioner af evalueringsrapporten: Dels den fulde rapport på engelsk, dels<br />

en læsevenlig populærversion på dansk. Ved udgivelse af en evaluering udsendes<br />

altid en pressemeddelelse, blandt andet for at imødekomme den del af evalueringer-<br />

nes formål, som handler om at gøre offentligheden bekendt med udviklingsbistandens<br />

aktiviteter og resultater. Interessen fra medierne er dog svingende:<br />

Vi har i mange år holdt presseseminarer eller pressekonference, når vi har<br />

offentliggjort en evaluering. Og der er det vores erfaring, at når vi sender<br />

invitationen ud og ligesom giver et lille pip om, hvad evalueringen drejer sig<br />

om – hvis den er kritisk, så kommer der syv journalister, hvis den positiv, så<br />

kommer der ikke et øje. (<strong>OG</strong>).<br />

Det er begrænset, hvor megen omtale en evaluering opnår i medierne, og dermed<br />

hvor stort et kendskab befolkningen får til den. Dette underbygges af, at vores<br />

søgning på avisdækningen i forbindelse med udgivelsen af den eneste større<br />

evaluering af Danidas mediebistand (Danida 2000A) ikke gav noget resultat.<br />

7.1.1.1. Offentliggørelse og symbolsk funktion<br />

Vurderet i forhold til medieomtale og offentlighedens kendskab til<br />

udviklingsbistandens resultater er der således ingen vægtig forskel mellem reviews<br />

og evalueringer. Når offentliggørelse alligevel er et interessant parameter, skyldes<br />

det, at evalueringer som offentlige dokumenter er en del af Danidas måde at varetage<br />

kontakt til organisationens omverden på. Evalueringer besidder dermed en<br />

”symbolsk” dimension (Dahler-Larsen 2004:31). Dermed menes, at evaluering ikke<br />

kun udføres med henblik på at anvende resultaterne instrumentelt til at forbedre en<br />

indsats, men også for at ”hjælpe en organisation med at genkende sig selv via en ydre<br />

anerkendelse af, at der er tale om en acceptabel aktør, der anvender tidens<br />

accepterede procedurer og tankefigurer til at løse accepterede problemer på<br />

70


accepterede måder” (Dahler-Larsen 1998:131). Selve det at evaluere sender således<br />

et signal til omverdenen og til Danida selv om, at Danida er en seriøs og omstillings-<br />

parat organisation, der står inde for udviklingsbistandens kvalitet og er villig til at<br />

”tage kontingens på sig” (Dahler-Larsen 2004:28). I kraft af offentliggørelsen spiller<br />

evalueringer en vigtig rolle i forhold til at argumentere for udviklingsbistandens<br />

legitimitet i forlængelse af kontroldiskursens krav om ansvarliggørelse 34 .<br />

Det er årsagen til, at evalueringer er underlagt en skrappere kvalitetskontrol, samt at<br />

retningslinierne for evalueringer er langt mere udbyggede end retningslinierne for<br />

reviews. Danidas evalueringsretningslinier fylder således over hundrede sider<br />

(Danida 1999), mens retningslinierne for reviews begrænser sig til fire sider (Danida<br />

2003B:40-43).<br />

7.1.2. Organisatorisk forankring<br />

Reviews og evalueringer adskiller sig desuden ved at være forankret i forskellige<br />

organisatoriske enheder i Danida. Dette kræver en nærmere forklaring, som bedst<br />

gives ved at illustrere Danidas organisationsstruktur 35 :<br />

Udenrigsministeren Udviklingsministeren<br />

Direktøren<br />

Ministersekretariat Ministersekretariat<br />

Bistandsfaglig<br />

tjeneste (BFT)<br />

Evaluering af<br />

udviklingsbistand<br />

(EK)<br />

Figur 7a<br />

Kvalitetssikring af<br />

udviklingsbistand<br />

(KVA)<br />

Udenrigsråd for<br />

Sydgruppen<br />

Ambassade Ambassade<br />

Multilateral bistand:<br />

(1) FN og Verdensbanken,<br />

(2) FN’s<br />

udviklingsbistand<br />

Humanitær bistand<br />

og NGO-samarbejde<br />

Naboskabsprogrammet<br />

Udviklingspolitik<br />

Landekontorer:<br />

(1) Afrika, (2) Asien,<br />

(3) Mellemøsten,<br />

Nordafrika, Latinamerika <br />

Erhvervsinstrumenter<br />

i<br />

udviklingsbistanden<br />

Miljø og<br />

bæredygtighed<br />

34 Begrebet ansvarliggørelse (accountability) definerer Danida som: ”An obligation for an organisation<br />

or person who manages resources to answer or report to others – whether higher level authorities, a<br />

donor or the public – about the intended and effective use of the resources and on the achievement of<br />

results.” (Danida 1999:110).<br />

35 Kilde: Organigram fremsendt 13. august 2004 af Ulla Braager, Kommunikationsenheden,<br />

Udenrigsministeriet.<br />

71


I organigrammet er de fire enheder fremhævet, som er særligt interessante i<br />

forbindelse med bestilling, udførelse og anvendelse af evalueringer og reviews af<br />

mediebistand. Betragter man evalueringer isoleret, er det EK, som bestiller, designer<br />

og har ansvaret for opfølgning på evalueringer. Anderledes forholder det sig med<br />

reviews, idet opdragsgiverfunktionen her er fordelt på flere hænder: dels på den<br />

bevilgende enhed (en ambassade eller et landekontor), som er ansvarlig for bestilling<br />

af og opfølgning på reviews, og dels på Bistandsfaglig Tjeneste (BFT), som varetager<br />

reviewdesignet og i enkelte tilfælde også deltager i udførelsen. Vi uddyber de enkelte<br />

enheders roller i det følgende.<br />

7.1.2.1. Evalueringskontoret<br />

Som det fremgår af organigrammet, er EK organiseret som en specialenhed med<br />

direkte reference til Udenrigsråden for Sydgruppen. Denne organisatoriske placering<br />

betyder, at EK på én gang er uafhængig af og samtidig tæt på de ansatte i Danida, der<br />

arbejder med udviklingsbistand på et strategisk og operationelt plan. Netop EK’s<br />

placering har flere gange været genstand for offentlig debat, idet der jævnligt er<br />

blevet sået tvivl om, hvorvidt evalueringerne kan betragtes som troværdige og<br />

upartiske, når EK er en del af den organisation, som evalueres (Danida 2003A:2).<br />

7.1.2.2. Bevilgende enheder<br />

Den opdragsgiverfunktion, som EK varetager i forbindelse med evaluering, er for<br />

reviews’ vedkommende placeret i den enhed, som har ansvaret for bevillingen til det<br />

reviewede projekt/program. Bevillingerne til mediebistandsprojekter varetages i dag<br />

af ambassaderne, idet forvaltningen af projekter med en samlet årlig bevilling under<br />

30 mio. kr. blev pr. 1. september 2003 decentraliseret fra tidligere at have hørt under<br />

Danidas lande- og policykontorer i København. Eftersom vores indsamling af empiri<br />

går tilbage til 2000, indgår der også eksempler på reviews, som er iværksat af<br />

Danidas landekontorer, hvorfor vi taler om ’bevilgende enheder’ frem for blot<br />

’ambassader’. En bevilgende enhed varetager løbende kontakt til projekt-<br />

organisationen og sikrer monitorering af de støttede aktiviteter.<br />

7.1.2.3. Bistandsfaglig tjeneste<br />

Den bistandsfaglige tjeneste (BFT) er en selvstændig enhed i Danida, hvis<br />

medarbejdere er fagpersoner med en specifik, faglig viden om bistandsrelevante<br />

emner, eksempelvis sundhed, miljø eller god regeringsførelse. I BFT er der ansat en<br />

medarbejder med mediebistand som en del af sit ansvarsområde. BFT har en<br />

rådgivende funktion i forhold til Danidas beslutningstagende og bevilgende enheder<br />

og vejleder blandt andet om planlægning, implementering, reviews og evaluering af<br />

bistandsaktiviteter.<br />

72


7.1.2.4. Ansvar og roller<br />

EK’s, BFT’s og de bevilgende enheders ansvar og roller i forbindelse med<br />

evalueringer og reviews fremgår af nedenstående skema, hvor vi skelner mellem fire<br />

trin i processen:<br />

Initiering refererer til den proces, hvor det vedtages, at en evaluering eller et<br />

reviews skal sættes i gang, samt hvad bedømmelsen skal fokusere på.<br />

Design: I designfasen præciseres formål og emne, og der træffes valg om<br />

konsulentholdets sammensætning, kommissorium, metode, svarpersoner,<br />

evalueringskriterier og tidsramme.<br />

Udførelse omfatter dataindsamling og -analyse i forbindelse med dokument- og<br />

feltstudier samt afrapportering.<br />

Opfølgning beskriver tre trin: distribution af rapporten, gyldiggørelse forstået<br />

som den proces, hvor aktørerne vurderer resultaternes validitet og relevans samt<br />

konsekvensdragelse: legitimering og iværksættelse af handlinger på baggrund af<br />

den indsamlede viden.<br />

Inddelingen er inspireret af Dahler-Larsen (2004:41ff.) 36 og Andersen Management<br />

International A/S (AMI 2003:9) 37 .<br />

Initiering<br />

Design<br />

Udførelse<br />

Opfølgning<br />

Figur 7b<br />

EK<br />

Evalueringer<br />

EK (i samråd med BFT, den bevilgende<br />

enhed og de evaluerede aktører)<br />

Eksterne konsulenter<br />

EK (i samråd med BFT, den bevilgende<br />

enhed og de evaluerede aktører)<br />

Reviews<br />

Den bevilgende enhed<br />

Den bevilgende enhed (i samråd med BFT<br />

og de evaluerede aktører)<br />

Eksterne konsulenter (undtagelsesvist<br />

interne konsulenter)<br />

Den bevilgende enhed (i samråd med BFT<br />

og de evaluerede aktører)<br />

I det følgende gennemgår vi fællestræk og forskelle mellem de strukturer og<br />

retningslinier, som gælder for henholdsvis reviews og evalueringer på de fire trin.<br />

36 Dahler-Larsen inddeler en evalueringsproces i otte trin: (1) Initiering, (2) Dagsorden (fastsættelse af<br />

evalueringens overordnede fokus), (3) Vidensforvaltning og –organisering, (4) Design, (5)<br />

Dataindsamling, (6) Analyse og sammenfatning, (7) Gyldiggørelse, (8) Konsekvensdragelse. Fordelen<br />

ved Dahler-Larsens model er, at han ikke forstår trinnene som kronologisk skarpt adskilte faser, men<br />

snarere som momenter, der kan overlappe og påvirke hinanden. Da vi ikke analyserer de enkelte<br />

evalueringsforløb med samme detaljeringsgrad som Dahler-Larsen kondenserer vi for overblikkets skyld<br />

hans otte trin til fire.<br />

37 Analyseinstituttet AMI opererer i deres gennemgang af Danidas evalueringsstruktur med syv faser i et<br />

evalueringsforløb: (1) Evalueringskommissorium og struktur, (2) Valg af konsulenter, (3) Indledende<br />

undersøgelser, (4) Evalueringsplan, (5) Feltarbejde, (6) Rapportudkast, (7) Opfølgning og udgivelse. Vi<br />

supplerer Dahler-Larsens otte trin med AMI’s fasemodel, da disse forholder sig specifikt til Danidas<br />

evalueringsstruktur.<br />

73


7.1.3. Initiering<br />

7.1.3.1. Evalueringer<br />

EK varetager såvel igangsættelse som afslutning af alle evalueringer, der foretages i<br />

Danida. Evalueringernes antal og tidsmæssige placering besluttes i en rullende<br />

treårsplan, der opdateres hvert år under inddragelse af relevante departementer i<br />

Udenrigsministeriet, ambassaderne, Danidas Styrelse og Folketingets Udenrigs-<br />

udvalg (Danida 1999:36). Første trin i en evalueringsproces består i briefing af de<br />

involverede parter. Ved større evalueringer foregår dette ved, at EK udarbejder et<br />

såkaldt ”approach paper” 38 . Heri foreslås et overordnet formål med den pågældende<br />

evaluering, hvilke temaer der skal dækkes, samt hvilken tids- og handlingsplan<br />

evalueringsprocessen kan foregå efter. Formålet med evalueringer er ifølge evalue-<br />

ringsretningslinierne dobbelt, idet de både skal bidrage til erfaringsopsamling<br />

(læring) og dokumentation af bistandens effekter (kontrol) (Danida 1999:7).<br />

7.1.3.2. Reviews<br />

Hvornår et projekt skal gennemgå et review er fastlagt fra projektets start og fremgår<br />

af projektplanen 39 . Man skelner i Danida mellem midtvejsreviews, hvis primære<br />

formål det er at foreslå justeringer for resten af den indeværende projektfase, og<br />

slutreviews, som sigter mod en vurdering af, om bevillingen skal forlænges med<br />

endnu en fase. Vægtningen af formålene erfaringsopsamling/læring og<br />

dokumentation/kontrol afhænger således af, hvornår i en projektfase reviewet er<br />

placeret. En Danida-medarbejder beskriver formålet således: ”Review er den der<br />

stock taking på basis af, hvad der er lavet, og så med et fremadrettet perspektiv”<br />

(<strong>OG</strong>). At reviews har en orientering mod en fremtidig indsats betyder, at de ofte<br />

foretages i sammenhæng med udarbejdelsen af fremadrettede projektdokumenter og<br />

handlingsplaner.<br />

7.1.3.3. Forskelle og fællestræk<br />

For både reviews og evalueringer gælder det, at Danida stort set er enerådende i<br />

forhold til at beslutte, hvorvidt og hvornår en vurdering af et mediebistandsprojekt<br />

skal sættes i gang. Principielt har interessenter i både modtagerlandet og Danmark<br />

mulighed for at komme med ønsker til den treårige evalueringsplan. EK har i et<br />

enkelt tilfælde været ude for, at Folketingets Udenrigsudvalg er fremkommet med et<br />

sådant ønske, men ellers er EK’s udkast til evalueringsprogrammer blevet godkendt<br />

uden ændringer. For reviews gælder det, at partnerne i princippet har indflydelse på<br />

38 Approach-papiret udsendes til information og kommentering hos de involverede regionskontorer i<br />

Danida, relevante ambassader samt modtagerorganisationer (Danida 1999:38). For særligt komplekse<br />

områder med mange involverede aktører kan der afholdes en workshop om de emner, approach-papiret<br />

omfatter, og der kan desuden nedsættes en referencegruppe bestående af interne eller eksterne<br />

ressourcepersoner, der følger evalueringsforløbet fra start til slut.<br />

39 Reviews kan dog også foretages på direkte foranledning af den bevilgende enhed eller et projekts<br />

styregruppe, hvis det vurderes hensigtsmæssigt (Danida 2003:40).<br />

74


projektplanerne og dermed på fastsættelsen af tidspunkter for reviews, ligesom der<br />

også foreligger en teoretisk mulighed for, at de beder om at få fremskyndet et review,<br />

hvis særlige forhold gør sig gældende. Vi er dog ikke bekendt med eksempler på, at<br />

en partner på denne måde har søgt indflydelse på initieringen af et review. Til<br />

gengæld har vi hørt om flere tilfælde, hvor partnerne har bedt om at få udskudt et<br />

review begrundet i et ønske om arbejdsro, uden at Danida dog har imødekommet<br />

dette ønske. Vi finder det derfor rimeligt at hævde, at Danida i realiteten er den<br />

eneste aktør, som har noget at skulle have sagt i initieringsfasen. Dette er en<br />

væsentlig pointe i forhold til diskussionen om kontrol versus læring, da der i<br />

initieringsfasen grundlægges et ejerskab til den pågældende bedømmelsesaktivitet,<br />

ligesom det signaleres, at det er Danida, der vurderer partnerne – ikke omvendt.<br />

7.1.4. Design<br />

Designfasen omfatter to trin: udarbejdelse af et kommissorium 40 samt udvælgelse af<br />

konsulenthold.<br />

7.1.4.1. Evalueringer<br />

EK er ansvarlig for at formulere et forslag til et kommissorium, der fungerer som<br />

oplæg til forhandling og diskussion mellem de involverede parter, det vil for<br />

eksempel sige bevilgende enheder, BFT, relevante partnerorganisationer,<br />

interessenter og eksterne konsulenter (Danida 1999:39). Målet er at give de berørte<br />

aktører mulighed for indflydelse i denne fase. Parallelt med udarbejdelsen af<br />

kommissoriet sammensættes evalueringsholdet, hvilket ligeledes sker i samarbejde<br />

med de involverede dele af Danida og de evaluerede aktører. Kriterier for udvælgelse<br />

af konsulenter til holdet er ”professional competence, impartiality, and experience in<br />

relation to the task” (Danida 1999:41) 41 . Man prioriterer således på baggrund af<br />

erfaring og faglighed, men også uafhængighed er afgørende, idet evaluatorerne ikke<br />

må have tilknytning til de undersøgte udviklingsaktiviteter (Danida 1999:8).<br />

7.1.4.2. Reviews<br />

I forbindelse med reviews står den bevilgende enhed for udvælgelsen af konsulenter.<br />

Som oftest sker dette i tæt samråd med BFT, da den ansvarlige medarbejder i den<br />

bevilgende enhed typisk har et begrænset kendskab til mediebistandsområdet som<br />

følge af Danidas rotationsordning. Denne ordning redegør vi for senere. Retnings-<br />

linierne for reviews stiller – som for evalueringer – krav om, at reviews skal foretages<br />

40 Både konsulenter, partnere og medarbejderne i Danida anvender den engelske term: ”Terms of<br />

Reference” eller i daglig tale blot ”terms”.<br />

41 Af en udredning af Danidas evalueringsfunktion, som er foretaget i 2003, fremgår det, at 95 % af<br />

Danidas evalueringsopgaver udbydes i licitation, og at 40 % af opgaverne udføres af udenlandske<br />

konsulentfirmaer (Danida 2003A:11).<br />

75


af eksterne konsulenter 42 . Imidlertid er der eksempler på, at Danidas egne ansatte<br />

udfører reviews 43 . Den bevilgende enhed udarbejder endvidere et udkast til<br />

kommissorium, som runder BFT, hvorefter den bevilgende enhed godkender de<br />

eventuelle ændringer, BFT måtte foreslå. Dernæst får det udpegede konsulenthold og<br />

de evaluerede aktører mulighed for at kommentere på indholdet, og på baggrund<br />

heraf foretages eventuelle justeringer.<br />

7.1.4.3. Forskelle og fællestræk<br />

Et fællestræk mellem evalueringer og reviews er, at Danida i designfasen arbejder ud<br />

fra et ideal om, at flest mulige interessenter skal inddrages i forløbet. Man kan sige,<br />

at Danida dermed søger at rette op på den ejerskabsskævhed, som grundlægges i<br />

initieringsfasen. Hvorvidt og under hvilke omstændigheder, det lykkes Danida at<br />

inddrage og engagere Danidas partnere og andre aktører, behandler vi i afsnit<br />

12.1.3.1.<br />

7.1.5. Udførelse<br />

Udførelsen af reviews og evalueringer varetages af de valgte konsulenter og består<br />

typisk af tre dele: (A) et dokumentstudium, og (B) et feltstudium, hvor konsulent-<br />

teamet besøger det pågældende projekt eller program 44 . Afslutningsvist foregår der<br />

(C) en afrapportering, der omfatter en såkaldt debriefing til de involverede aktører<br />

samt udfærdigelse af den endelige rapport. Retningslinierne for henholdsvis reviews<br />

og evalueringer udspecificerer ikke, hvordan dokumentstudium, feltstudium og<br />

afrapportering skal foregå. Det varierer fra undersøgelse til undersøgelse og afhænger<br />

i nogen grad af kommissoriet samt i høj grad af de konsulenter, som udfører evalue-<br />

ringen. Vores dokumentanalyse viser, at Danida kun i ganske få tilfælde opstiller<br />

krav til metode i kommissorierne. Af de otte analyserede kommissorier indeholder<br />

kun ét deciderede metodiske anvisninger (MISA 01/02), tre kommissorier angiver<br />

ingen krav til metode (NSJ 02, MISA 02 & Zambia 02), mens metodeanvisningerne i<br />

de resterende fire kommissorier må betegnes som uspecifikke. Et eksempel på en<br />

sådan uspecifik metodeanvisning er denne formulering: “It consists of a desk study<br />

and possibly a field study.” (Danida 2000A:52, vus). Årsagen til de manglende eller<br />

vage metodeanvisninger er et bevidst valg fra Danidas side:<br />

Vi gør i vores Terms of Reference ikke ret meget ud af metodeovervejelser.<br />

(…) Andre donorer går meget langt med at eksplicitere metoderne, og så er det<br />

42 Internationale trends tyder på, at kravet om anvendelse af eksterne konsulenter i forbindelse med<br />

reviews bliver mere dominerende. I hvert fald er det for nylig besluttet, at alle reviews udført under FNorganisationer<br />

som eksempelvis UNDP og UNESCO skal varetages af eksterne konsulenter.<br />

43 I tre ud af de i alt fem reviewrapporter, som indgår i vores empiri, deltager en Danidaansat på<br />

reviewmissionen. I reviewet af MISA i 2004 varetog den Danida-ansatte konsulent funktionen som<br />

reviewer (evaluator) i samarbejde med en ekstern konsulent. I reviewene af mediestøtten til Bangladesh<br />

i 2002 og til støtten til NSJ 2003 deltog den deltagende Danida-ansatte ikke i selve den retrospektive<br />

vurderingsdel af reviewarbejdet, men i en tilknyttet fremadrettet formulering af fremtidige<br />

støttemuligheder (en såkaldt ”formulation” eller ”appraisal”).<br />

44 Feltstudiet kan udelades, hvilket evalueringen af MISA fra 2002 er et eksempel på (bilag 7).<br />

76


i sidste ende i et spørgsmål om at finde kvalificerede folk. Vi vil godt have<br />

deres inputs til, hvordan kan de løse opgaven. Vi giver nogle gange vejledning<br />

til metodevalg, hvad vi gerne ser, men ikke i detaljer. (<strong>OG</strong>)<br />

Konsekvensen er, at anvendelsen af metoder i høj grad afhænger af de enkelte<br />

konsulenter og disses fagligheder og præferencer, samt at der er stor variation mellem<br />

de enkelte reviews og evalueringer. Vi vil derfor ikke som i de foregående<br />

underafsnit skelne mellem evalueringer og reviews, men i stedet beskrive typiske<br />

forhold, som gør sig gældende i forbindelse med de tre dele af udførelsen.<br />

7.1.5.1. Dokumentstudier<br />

I dokumentstudiet sætter konsulenterne sig ind i den eksisterende projekt-<br />

rapportering. Der er ofte tale om ganske mange typer dokumenter, som vi kort vil<br />

beskrive her. Vi henviser til bilag 5 for en uddybning. Danida stiller i sine retnings-<br />

linier for projektledelse krav til omfang, antal og karakter af den dokumentation, som<br />

skal udarbejdes i en projektcyklus. Danida inddeler projektcyklussen i tre faser:<br />

forberedelse, implementering og afslutning (Danida 2003B:11), og de obligatoriske<br />

dokumenter, som skal udarbejdes i hver fase af enten projektorganisationen, ambas-<br />

saden eller EK fremgår af denne model 45 :<br />

Forberedelse<br />

Identification/Preparation<br />

report<br />

Vurdering af muligheder<br />

Implementering<br />

Arbejdsplan/budget<br />

Afrapportering fra projekt<br />

til ambassade<br />

Afslutning<br />

Project Completion<br />

Report<br />

D. bev. enheds rapport<br />

Figur 7c<br />

Appraisal<br />

Teknisk-faglig<br />

vurdering<br />

Project Progress<br />

Report<br />

Opfyldelse af mål<br />

Evaluering<br />

(ikke obligatorisk)<br />

Project Document<br />

Mål, strategier,<br />

metoder<br />

Review<br />

Den bevilgende enhed har det overordnede dokumentationsansvar i forbindelse med<br />

mediebistandsprojekter, idet denne skal tilse udarbejdelsen af alle tre forberedelses-<br />

dokumenter, reviewet og den afsluttende Project Completion Report, som opsamles<br />

og arkiveres centralt i Danida hos EK. Den løbende projektrapportering, hvilket vil<br />

sige arbejdsplaner/budgetter, Project Progress Reports og Process Action Plans skal<br />

udarbejdes af projektorganisationen på baggrund af formater fastlagt i Danidas ret-<br />

45 Figuren illustrerer udelukkende de obligatoriske dokumenter i en projektcyklus - plus evalueringer.<br />

Dertil kommer en række andre dokumenter, som kan udarbejdes afhængig af projektets størrelse eller<br />

hvis særlige omstændigheder gør sig gældende (Danida 2003B:11f.).<br />

Process Action Plan<br />

Opfølgningsdokument<br />

77


ningslinier for projektledelse (Danida 200B3:35ff.). Figuren illustrerer, at der i de<br />

dokumentstudier, der foretages som en del af et review, indgår minimum fem<br />

dokumenttyper. I evalueringers dokumentstudiedel skal der som et minimum<br />

inddrages hele otte dokumenttyper, hvilket udgør en del af forklaringen på, at denne<br />

del af review-/evalueringsudførelsen ofte kræver mere tid end planlagt. Denne pointe<br />

vender vi tilbage til i kapitel 11.<br />

7.1.5.2. Feltstudier<br />

Den praktiske koordinering af feltstudiet og kontakt til interviewpersoner sker i et<br />

samarbejde mellem konsulentholdet og den projektansvarlige ambassade, der forud<br />

for konsulenternes ankomst indgår interviewaftaler og sørger for indlogering og<br />

transport. Et feltstudieprogram kan eksempelvis omfatte enkeltinterviews,<br />

observationer, besøg på projekter, workshops og møder med målgruppen og andre<br />

interessenter. I kapitel 10 behandler vi indgående de forhandlinger, som finder sted<br />

under feltstudierne mellem konsulenter, de evaluerede aktører og ambassa-<br />

den/Danida.<br />

7.1.5.3. Afrapportering<br />

Afrapportering består af tre trin: Inden konsulenternes afrejse fra felten afholdes en<br />

debriefing. En sådan debriefing kan foregå mundtligt som en diskussion mellem<br />

konsulenterne, de evaluerede aktører og repræsentanter for ambassaden. Den kan<br />

også foregå skriftligt – det vil sige, ved at konsulenterne sender en foreløbig oversigt<br />

over konklusioner til de implicerede parter. Konsulenterne udarbejder dernæst udkast<br />

til rapporten, som igen bliver distribueret til de involverede aktører, der har mulighed<br />

for at kommentere for sidste gang. Herefter udarbejdes den endelige rapport, som<br />

distribueres af den bevilgende enhed eller af EK til interne og/eller eksterne målgrup-<br />

per, afhængigt af om der er tale om et review eller en evaluering.<br />

7.1.6. Opfølgning<br />

7.1.6.1. Evalueringer<br />

EK har ansvaret for, at Danida følger op på de gennemførte evalueringer. Det sker<br />

ved, at EK tilser, at de involverede enheder i Danida samt Danidas partnere<br />

udarbejder et opfølgningspapir, der opstiller de konkrete tiltag, Danida vil tage for at<br />

følge op på rapportens konklusioner og anbefalinger (Danida 1999:46). EK under-<br />

søger herefter løbende, om planen følges, og at evalueringen dermed bidrager til<br />

kvalitetssikring af Danidas bistandsaktiviteter. Det er ligeledes EK, som formidler<br />

evalueringsresultaterne til interne og eksterne målgrupper.<br />

7.1.6.2. Reviews<br />

For reviews gælder det, at den bevilgende enhed er ansvarlig for distribution af<br />

rapporten til de evaluerede aktører og til BFT, og endvidere bliver den via det interne<br />

78


netværk gjort tilgængelig for alle medarbejdere i Danida. Den bevilgende enhed har<br />

ligeledes ansvaret for, at der bliver lavet et opfølgningsnotat (Process Action Plan, jf.<br />

figur 7c), hvor man forholder sig til rapporten, samt til hvorledes anbefalingerne kan<br />

imødekommes.<br />

7.1.6.3. Forskelle og fællestræk<br />

Den vigtigste forskel mellem procedurerne i forbindelse med opfølgning på reviews<br />

og evalueringer er, at evalueringsopfølgningen er forankret i EK, som er en<br />

organisatorisk enhed uden for rotationsordningen. Det vil sige, at medarbejderstaben<br />

er relativt stabil og har mulighed for at følge evalueringen og opfølgningen over<br />

længere tid. Modsat er ansvaret for opfølgning af reviews placeret i de bevilgende<br />

enheder, hvor medarbejderne er under rotation. Vi beskriver rotationsordningen og<br />

dens konsekvenser i redegørelsen for Danida som praksisfællesskab i afsnit 7.2.<br />

7.1.7. Forskelle og ligheder mellem reviews og evalueringer<br />

Vi har nu redegjort for de organisatoriske rammer og formelle procedurer, som<br />

gælder for reviews og evalueringer i Danida, og har i den forbindelse peget på en<br />

række forskelle og ligheder, hvoraf nogle synes væsentligere end andre. Først og<br />

fremmest adskiller evalueringer sig fra reviews ved at være offentlige dokumenter<br />

med en symbolsk funktion i forhold til at varetage forholdet mellem Danida og<br />

organisationens omverden. Desuden spiller det en vigtig rolle, at reviews er forankret<br />

i bevilgende enheder, som er underlagt rotationsordningen, mens ansvaret for<br />

evalueringer er placeret i EK. En sidste forskel er, at retningslinierne for evalueringer<br />

er langt mere udbyggede og præcise end for reviews. Dette betyder i praksis, at<br />

evalueringsretningslinierne – eksempelvis i forhold til anvendelse af bestemte<br />

evalueringskriterier, håndhævelse af uafhængighedskriteriet i udvælgelsen af<br />

konsulenter med mere – forplanter sig nedad i dokumenthierarkiet og således også<br />

anvendes i forbindelse med reviews. Derfor minder reviews ofte om evalueringer,<br />

både hvad angår anvendte metoder, form og indhold:<br />

... en gang i mellem så er det sådan lidt semantik, altså et godt og grundigt<br />

reviewstudie kan være lige så værdifuldt som en evaluering. Så man skal ikke<br />

sådan sige, at det ene er bedre end det andet, men de opfylder forskellige<br />

målsætninger. (<strong>OG</strong>)<br />

Præcis hvilke ”forskellige målsætninger”, der er tale om, fremgår dog ikke klart –<br />

hverken af Danidas retningslinier eller af de interviewede Danidamedarbejderes<br />

udsagn. Eksempelvis har flere medarbejdere udtrykt, at det læringsformål,<br />

henholdsvis reviews og evalueringer har, ikke er det samme – eksempelvis sigter<br />

evalueringernes læringsdimension primært mod Danidas organisation, og reviews’<br />

ditto mod projektorganisationerne, mener en medarbejder. En anden mener<br />

imidlertid, at forskellen består i, at det læringsmæssige udbytte af evalueringer er<br />

forholdsvist begrænset, de tjener i højere grad til en bagudrettet kontrol af Danidas<br />

79


indsats i en region eller sektor, mens reviews har læring som det fremmeste mål, og<br />

kontrollen er sekundær. Vi vil tillade os at se den interne uenighed, der er skitseret<br />

her, som udtryk for, at der ikke eksisterer en fælles holdning til, hvori den eksakte<br />

forskel mellem formålene med reviews og evalueringer består, samt at forskellene er<br />

så små, at man ikke kan argumentere for at opretholde et så skarpt analytisk skel<br />

mellem reviews og evalueringer, sådan som Danidas medarbejdere ellers har<br />

opfordret os til. I vores udredning af samspillet mellem læring og kontrol vil vi derfor<br />

– med ovenstående forskelle in mente – behandle reviews og evalueringer under et,<br />

hvor intet andet er nævnt.<br />

7.2. Danida, konsulenter og partnere – tre<br />

praksisfællesskaber<br />

Fra at have karakteriseret grænseobjekterne, evalueringer og reviews, vender vi nu<br />

blikket mod de praksisfællesskaber, som interagerer igennem grænseobjekterne. Det<br />

drejer sig om Danida, de eksterne konsulenter og Danidas partnerorganisationer. Vi<br />

har tidligere skelnet mellem fire roller, der indgår i en evaluerings-/reviewproces (se<br />

afsnit 1.4.2.). Af skemaet neden for fremgår det, hvilke roller de tre nævnte<br />

praksisfællesskaber indtager i løbet af processen:<br />

Opdragsgiver<br />

Evaluator/reviewer<br />

Evalueret aktør<br />

Målgruppe<br />

Figur 7d<br />

Danida Eksterne konsulenter Danidas partnere<br />

X<br />

(X)<br />

X<br />

X<br />

Danidas rolle i evaluerings- og reviewsammenhæng er – som det fremgår af figuren –<br />

kompleks og sammensat, idet organisationen, eller rettere forskellige dele af<br />

organisationen, indtager alle funktioner undervejs i processen. I afsnit 7.1.<br />

underinddelte vi praksisfællesskabet Danida i en række mindre enheder – herunder<br />

EK, BFT og de bevilgende enheder. EK og de bevilgende enheder har rollen som<br />

opdragsgivere, og i visse tilfælde agerer BFT reviewere (interne konsulenter). De<br />

bevilgende enheders arbejde er desuden genstand for evaluering og review, hvorfor<br />

Danida også i mange tilfælde kan karakteriseres som en evalueret aktør. Endelig<br />

udgør Danida en af de interne målgrupper for både reviews og evalueringer. Det er<br />

imidlertid i rollen som opdragsgiver, Danida er mest interessant i forhold til den<br />

aktuelle problemstilling. I vores ordvalg tillader vi os derfor at reducere<br />

kompleksiteten ved at anvende betegnelsen opdragsgiver synonymt med Danida.<br />

De eksterne konsulenter agerer som evaluatorer/reviewere, og om disse aktører<br />

anvender vi betegnelserne: konsulent, evalueringshold og reviewhold.<br />

X<br />

(X)<br />

X<br />

X<br />

80


Danidas partnere er først og fremmest evaluerede aktører, hvorfor vi anvender de to<br />

betegnelser – partnere og evaluerede aktører – synonymt. Ydermere er de en del af<br />

målgruppen for både reviews og evalueringer, og i tilfælde, hvor man kan tale om<br />

’selvevaluering’, indtager partnerne også i rollen som evaluatorer/reviewere.<br />

På de følgende sider karakteriseres de tre aktørgrupper som praksisfællesskaber med<br />

hver deres arbejdsmetoder, fysiske rammer, organisationsstrukturer, aktiviteter samt<br />

interaktions- og kommunikationsformer. Fokus er lagt på særlige forhold, som har<br />

betydning for analysen af forhandlingerne i forbindelse med evalueringer og reviews.<br />

7.2.1. Opdragsgiveren: Danida<br />

7.2.1.1. Rotation<br />

Danida er først og fremmest præget af den såkaldte rotationsordning, som vi allerede<br />

har nævnt et par gange. Den består i, at Danidas medarbejdere hvert, hvert andet eller<br />

hvert tredje år skifter kontor og arbejdsområde. Eftersom en stor del af Udenrigsmini-<br />

steriets opgaver løses på repræsentationer i udlandet, så betyder rotationen, at<br />

medarbejderne med nogle års mellemrum bliver udstationeret for en periode. Når<br />

man i Udenrigsministeriet organiserer sig på denne måde, skyldes det frem for alt, at<br />

det er en nødvendighed for at kunne holde på de ansatte, fordi det af hensyn til<br />

familie og karriere ikke lader sig gøre for en stor del af medarbejderne at blive<br />

udstationeret i en længere årrække. Konsekvenserne af rotationen er imidlertid<br />

mange, og ikke mindst for et lille område som mediebistanden har det betydning, at<br />

der med en relativt høj frekvens er udskiftning blandt de ansvarlige medarbejdere.<br />

Rotationsordningen betyder, at de ansatte i de bevilgende enheder som hovedregel<br />

ikke har et forhåndskendskab til mediebistand, samt at de ikke når at oparbejde en<br />

grundig viden i løbet af deres relativt korte udstationering. BFT er et forsøg på at<br />

kompensere for rotationsordningens konsekvenser og sikre en faglig specialviden og<br />

kontinuitet:<br />

… grunden til, at, at det er BFT, som fagteknikere, der ved mest om<br />

programmerne, det er fordi de har normalt haft en større kontinuitet i huset.<br />

Hvor resten af huset har jo cirkuleret med rimelig høj hastighed, og det gør jo<br />

så, at folk, måske i Afrika-kontoret, der har siddet med NSJ eller MISA, har<br />

siddet med det i et halvt eller et helt år, måske op til to år, hvis de har været<br />

rigtig, rigtig heldige. Og det er altså sjældent set.<br />

Den faglige viden og det store overblik befinder sig således i København, mens det er<br />

medarbejderen på ambassaden, der har kendskab til projekternes fremdrift, aktuelle<br />

problemer og samfundsmæssige kontekst. Rotationsordningen udgør en stor<br />

udfordring i forhold til at realisere Danida som ’en lærende organisation’ (jf. afsnit<br />

4.3), idet der er risiko for, at mange pointer og erfaringer går tabt. Vi vender i<br />

81


analysen tilbage til denne problematik, når vi i afsnit 12.2.2. ser nærmere på de<br />

konkrete konsekvenser af rotationsordningen.<br />

7.2.1.2. Travlhed<br />

Et andet kendetegn ved Danidas organisation er den travlhed, der præger de fleste<br />

medarbejderes hverdag, og som er blevet skærpet i forbindelse med en række<br />

nedskæringer i medarbejderstaben, der har fundet sted i løbet af de seneste tre til fire<br />

år. Travlheden giver sig udslag i, at der ikke er én medarbejder i Danida, som blot<br />

beskæftiger sig med mediebistand. Området varetages af en person i BFT, som<br />

desuden er ansvarlig for aktiviteter, der vedrører køns- og ligestillingsaspekter samt<br />

oprindelige folks rettigheder.<br />

7.2.2. Evaluatorerne: Eksterne konsulenter<br />

Blandt andet for at kompensere for travlheden og den manglende fagspecifikke viden<br />

i Danida, benytter organisationen sig i vidt omfang af ekstern konsulentbistand.<br />

Samlet set køber Danida sig således årligt til eksterne konsulentydelser for lidt over<br />

600 mio. kr. (Katîc 2004). På medieområdet er der primært tale om to former for<br />

konsulentydelser: dels såkaldte ’rådgivningsopgaver’, hvor en ekstern konsulent<br />

hyres til at rådgive et bestemt mediebistandsprojekt eller -program i kortere eller<br />

længere tid, dels opgaver i forbindelse med udarbejdelse af reviews, evalueringer<br />

eller en af de andre dokumentationsopgaver, vi redegjorde for i afsnit 7.1.5.1.<br />

7.2.2.1. Økonomisk afhængighed af Danida<br />

Mediebistand er et lille felt. For det første fylder det ikke meget på Danidas budget,<br />

for det andet er der ikke mange donorer/opdragsgivere på feltet, og for det tredje er<br />

der ganske få konsulenter, som er specialiserede inden for netop medier, demokrati<br />

og udvikling. Det betyder, at der er mange gengangere blandt de eksterne<br />

konsulenter, som Danida benytter sig af, og at disse gengangere følgelig er<br />

økonomisk afhængige af at få opgaver fra Danida. Graden af økonomisk<br />

afhængighed varierer, alt efter om der er tale om fuldtidskonsulenter eller om<br />

eksempelvis forskere og undervisere ved højere læreanstalter, som har en anden<br />

primærindkomst. Den samlede gruppe af mediekyndige konsulenter, som anvendes af<br />

Danida, betegnes i daglig tale ’ressourcebasen’.<br />

7.2.2.2. Engagement<br />

Et vigtigt kendetegn ved de eksterne konsulenter, som Danida gør brug af på<br />

medieområdet, er, at de typisk har et stort fagligt og idealistisk engagement i<br />

mediebistand. Det kommer til udtryk i tilstedeværelsen af subjektive<br />

holdningstilkendegivelser i rapporterne. Nedenstående citat er et eksempel på en<br />

tilkendegivelse, idet forfatteren ved brug af modalverbet ”should” markerer sine<br />

personlige normer for både køns- og mediepolitik:<br />

82


Media workers should also be intellectual activists, political thinkers and<br />

knowledgeable commentators on art and culture, science and philosophy, on<br />

history (her story) governance and human rights. (MISA 04:25)<br />

Desuden udtrykkes engagementet i de interviews, vi har gennemført, hvor der tegner<br />

sig et billede af, at konsulenterne nærer et stort ønske om at kunne bidrage til<br />

videreudvikling og forbedring af mediebistanden. Dette ønske udmønter sig blandt<br />

andet i en frustration over ikke at kunne følge et review eller en evaluering til dørs,<br />

idet man som ekstern konsulent slipper processen, når den endelige rapport<br />

godkendes af Danida. Konsulenterne har derfor ingen indflydelse på evalueringens/<br />

reviewets videre skæbne eller på, hvilke konsekvenser partnerne og Danida drager af<br />

konklusionerne. Dette oplever samtlige af de interviewede konsulenter som<br />

frustrerende:<br />

Det synes jeg nemlig er et meget stort problem: at man afleverer sin rapport, og<br />

så er man ude af det projekt. Og så har man ikke nogen… altså så skal man<br />

jo… (P1). Man har ikke nogen ret til ligesom… at få at vide, hvad det er, der<br />

sket. Så skal du altså rende rundt selv og skaffe de der oplysninger, ikke, og<br />

irritere folk med at spørge og spørge, ikke? Altså, det synes jeg er et stort<br />

problem, det er den manglende kontinuitet. Det er… det er det værste ved at<br />

arbejde som konsulent, synes jeg. At du… Du arbejder og er totalt engageret i<br />

et projekt i øh… altså sådan en reviewproces tager jo over en måned, ikke, når<br />

du tager forbehold… nok seks uger… seks uger til to måneder, ikke? (…)<br />

Totalt engageret i det der, ikke? Og så øh... afleverer du en rapport, og så…<br />

hører du ikke mere. (P3). (KS)<br />

Som denne konsulent forklarer, skyldes frustrationen det bratte skift fra at have det<br />

fulde ansvar og være ”totalt engageret” til ikke alene at miste berøringen med<br />

processen, men også at miste retten til ”at få at vide, hvad det er, der er sket”. Vi<br />

behandler konsulenternes engagement i mediebistanden og deres økonomiske<br />

afhængighed af Danida mere indgående i kapitel 10.<br />

7.2.3. De evaluerede aktører: Danidas partnere<br />

Som det fremgik af begrebsafklaringen i afsnit 1.4.1. anvender vi betegnelsen<br />

’Danidas partnere’ om projektorganisationer og eksterne implementerende<br />

organisationer (IO).<br />

7.2.3.1. Projektorganisationer<br />

Projektorganisationer er ansvarlige for driften af et medieprojekt, eksempelvis en<br />

journalistisk efteruddannelsesinstitution, et medieinstitut, en lokalradio eller<br />

lignende, og har i udgangspunktet hjemsted i Danidas programsamarbejdslande i<br />

Afrika, Asien og Latinamerika. Dog er der inden for mediebistanden enkelte<br />

eksempler på projektorganisationer med base i Danmark. Fælles for dem alle er, at de<br />

opererer med usikre fremtidshorisonter, idet støtten fra Danida typisk bevilges i faser<br />

af to til tre års varighed. Hvorvidt støtten forlænges, afhænger blandt andet af<br />

konklusionerne på reviews og/eller evalueringer, men også andre faktorer som for<br />

83


eksempel skiftende danske regeringers forskellige politiske prioriteringer kan være<br />

udslaggivende herfor.<br />

Den kompetente projektorganisation<br />

En anseelig del af kommunikationen mellem Danida og projektorganisationerne sker<br />

i form af dokumentation og løbende rapportering, hvoraf de periodiske reviews samt<br />

eventuelle evalueringer udgør en mindre del. Som nævnt er der en række formelle<br />

krav og procedurer, der gør sig gældende i forbindelse med udarbejdelsen af<br />

projektrapportering – krav og procedurer, som er fastsat af Danida. Således foregår<br />

kommunikationen mellem projekterne og donoren i vidt omfang på sidstnævntes<br />

præmisser, hvorfor det er væsentligt for en projektorganisation at besidde en række<br />

kompetencer i form af et bestemt sæt arbejdsmetoder og en bestemt sprogbrug, som<br />

er gængse inden for donorverdenen. Hvorvidt en projektorganisation besidder disse<br />

kompetencer afhænger af tre faktorer. Først og fremmest spiller det en rolle, hvor<br />

længe organisationen har indgået i partnerskabet med Danida, idet den med tiden vil<br />

tilegne sig erfaringer og viden om de vilkår, praksisfællesskabet fungerer under<br />

(Bowker & Star 1999:299). For det andet har medarbejdernes uddannelsesniveau<br />

betydning, idet projektrapportering og andre bedømmelsesaktiviteter i høj grad<br />

kræver tekniske og akademiske forudsætninger. Endelig spiller geografien ind. Jo<br />

længere væk – både fysisk og kulturelt – en projektorganisation befinder sig fra<br />

Asiatisk Plads i København, desto vanskeligere kan det være at forstå Danidas<br />

struktur og kultur. Med henblik på at øge en projektorganisations kompetencer kan<br />

det derfor være en fordel for organisationen (og Danida) at have tilknyttet en<br />

rådgiver.<br />

Rådgiverrollen<br />

En rådgiver kan enten være en fuldtidsansat, udstationeret person, der fungerer som<br />

daglig leder af et mediebistandsprojekt, eller en deltidsansat rådgiver, som jævnligt<br />

besøger et projekt, men ellers er bosat i Danmark. Det er projektets karakter og<br />

størrelse, der afgør hvilken rådgivertype, man ansætter: Jo større projektet er, jo<br />

større vurderes behovet for at ansætte en udstationeret rådgiver.<br />

7.2.3.2. Eksterne implementerende organisationer<br />

En IO er mellemled mellem Danida og projektorganisationen, og den er således<br />

forpligtet over for begge parter. Over for donor er IO ansvarlig for at implementere<br />

og dokumentere projektet og skal desuden foretage opfølgning på reviews og<br />

evalueringer. Sideløbende med disse forpligtelser over for donor indgår IO som en<br />

uadskillelig del af projektorganisationen og er ofte involveret i den daglige drift. En<br />

IO varetager således i mange tilfælde udarbejdelse af arbejdsplaner og budgetter,<br />

ansættelse af medarbejdere samt sparring med projektorganisationens ledelse. Når et<br />

84


projekt evalueres eller reviewes, er en IO’s indsats også under lup, hvorfor vi<br />

betragter IO’erne som en del af gruppen evaluerede aktører.<br />

I forhold til besvarelse af vores problemstilling er projektorganisationerne den mest<br />

interessante gruppe blandt de evaluerede aktører, da de er mest afhængige af<br />

bistandsmidlerne og derfor mest følsomme i forhold til evalueringers og reviews<br />

kontrolaspekt. Når både rådgivere og IO har fået relativt megen omtale i dette afsnit,<br />

skyldes det, at disse indgår i specialets empiri som repræsentanter for de evaluerede<br />

aktører. Grunden er som nævnt, at det af metodiske årsager ikke har været muligt for<br />

os at gennemføre interviews med projektaktører i et større omfang.<br />

Vi har valgt at udelade en opsummering efter dette redegørende kapitel, idet de<br />

fremstillede pointer enten taler for sig selv eller fungerer som et oplæg til en senere<br />

analyse. Vi vil derfor straks bevæge os videre til en analyse af de tre<br />

praksisfællesskabers forskellige forståelser af kontrol og læring.<br />

85


8. Forskellige forståelser af læring og kontrol<br />

Af Danidas retningslinier fremgår det, at organisationen gennemfører evaluering med<br />

et dobbelt formål: erfaringsopsamling og dokumentation.<br />

(1) Accumulation of Experience. Evaluations shall contribute to the<br />

improvement of aid by the collation, analysis and dissemination of experience<br />

from current and completed aid activities. Evaluations shall seek the causes and<br />

explanations as to why activities succeed or fail to succeed and produce<br />

information that helps make future activities more relevant and effective.<br />

(2) Documentation. Evaluations shall provide political decision makers and<br />

the general public with professional documentation as to the use and results of<br />

aid resources and also contribute to a better understanding of development aid,<br />

its potential and limitations as an instrument for economic and social change.<br />

(Danida 1999:7)<br />

Danida taler altså ikke om kontrol og læring, men anvender de mere neutrale<br />

betegnelser ”dokumentation” og ”erfaringsopsamling”. De evaluerede aktører<br />

forbinder imidlertid kontrolformålet med en negativ oplevelse af at skulle ”tjekkes”.<br />

Samtidig ønsker de en større grad af ”nytteværdi” og ”deltagelse”. Blandt de eksterne<br />

konsulenter behæftes evalueringers og reviews’ kontrolfunktion med associationer<br />

som ”straf”, ’eksamen’ og ’dom’, mens læringsformålet omtales i mere positive<br />

vendinger såsom ”dialog”, ”participation” og ”fælles proces”.<br />

Disse forskellige ordvalg indikerer, at de tre praksisfællesskaber – Danida, Danidas<br />

partnere og de eksterne konsulenter – har forskellige forståelser af, hvad de to formål<br />

betyder i praksis, samt hvordan de bidrager til at forme Danidas evalueringspraksis.<br />

Det er disse forskellige forståelser, vi stiller skarpt på i nærværende kapitel. Den<br />

teoretiske ramme omkring analysen er Foucaults diskursbegreb (Foucault 1978 &<br />

1991). Vi beskrev i kapitel 2 evalueringer og reviews som diskursive praktikker, i<br />

udførelsen af hvilke de involverede aktører trækker på de videnshorisonter og<br />

subjektpositioner, som stilles til rådighed inden for bestemte diskurser. Aktørernes<br />

handlinger og forståelser er ikke udtryk for individuelle, intentionelle valg, men<br />

afspejler de strukturer og styrkeforhold, som manifesterer sig i den konkrete<br />

diskursive praktik. En analyse af Danidas, partnernes og konsulenternes ordvalg og<br />

forståelser af kontrol og læring er således en nøgle til analyse af de magtrelationer,<br />

som præger evaluering og review af dansk mediebistand.<br />

Kapitlet er inddelt i fire afsnit. Indledningsvist undersøges i afsnit 8.1. de to<br />

kontrolforståelser, som kommer til udtryk i vores interviewmateriale: Henholdsvis<br />

legitim kontrol og inspektion. Afsnit 8.2. omhandler de to læringsforståelser:<br />

Konsensusbaseret læring og participatorisk læring. Hvorvidt de tre<br />

praksisfællesskaber anser lærings- og kontrolformålene for at være gensidigt<br />

86


understøttende eller i modstrid med hinanden behandler vi i afsnit 8.3., mens 8.4.<br />

opsamler kapitlets hovedpointer.<br />

8.1. Kontrol<br />

I den korte præsentation af Danidas, partnernes og konsulenternes ordvalg blev det<br />

antydet, at der er to overordnede opfattelser af kontrol på spil i Danidas review- og<br />

evalueringspraksis. Den ene er positivt ladet og trækker på den evalueringsteoretiske<br />

kontroldiskurs’ perspektiv på kontrol som en demokratisk legitim foranstaltning.<br />

Denne forståelse, som vi benævner legitim kontrol, fremføres hovedsageligt af<br />

Danida og bliver præsenteret nærmere i afsnit 8.1.1. Den anden opfattelse hæfter<br />

negative konnotationer på kontrolbegrebet og trækker dermed på den kritik af<br />

evalueringer som kontrolredskab, der fremføres af fortalere for den participatoriske<br />

læringsmodel. Den negative oplevelse af kontrol som en ubehagelig inspektion<br />

kommer særligt til udtryk i interviews med partnere og konsulenter og introduceres i<br />

afsnit 8.1.2.<br />

8.1.1. Legitim kontrol<br />

Under fremstillingen af den evalueringsteoretiske kontroldiskurs i kapitel 4<br />

præsenterede vi begrebet ansvarliggørelse – et krav til den offentlige forvaltning om<br />

at fremvise resultater og stå til regnskab overfor politikerne og vælgerne. Kravet, som<br />

de Danidaansatte har oplevet i stigende grad gennem de seneste 10-15 år, giver sig<br />

blandt andet udslag i indførelsen af resultatbaseret ledelse og et større fokus på<br />

evalueringer og reviews:<br />

… når der er kommet mere politisk fokus på evaluering, så er det nok et<br />

spørgsmål om resultatorientering, målbare resultater. Kravet fra politisk hold<br />

om, at vi skal vise, hvad der kommer ud af pengene (...). Det er kommet op<br />

gennem 90’erne. Value for money. Hvad får vi ud af det? (<strong>OG</strong>)<br />

I Danida er medarbejderne på den ene side irriterede over tendensen til resultat-<br />

orientering: ”Alt skal sgu måles og rapporteres. Og det synes jeg, at det er en… det er<br />

ved at gå for vidt” (<strong>OG</strong>), som en af dem udtrykker det. På den anden side opleves det<br />

som positivt, at man i organisationen får lejlighed til at dokumentere pengenes<br />

anvendelse, da det giver håndfaste modargumenter, eksempelvis når der i medierne<br />

berettes om, hvordan statskassen yder støtte til mislykkede projekter:<br />

... vi bliver nødt til at blive bedre til at dokumentere det fantastiske arbejde<br />

(griner), vi synes, vi laver. Jamen, det er møgirriterende, at en eller enkelt<br />

artikel i en dansk avis om misbrug for to millioner skal gå ind og ligesom ryste<br />

hele systemet, fordi vi har… altså om året bruger vi 10 milliarder, så det er jo<br />

også… (<strong>OG</strong>)<br />

At kontrolelementet indgår i både reviews og evalueringer kan således ses som følge<br />

af både et eksternt pres for dokumentation af bistandens resultater og en intern<br />

motivation for at bevise nytten af organisationens aktiviteter og imødegå tendensen<br />

87


til bistandstræthed i befolkningen. I og med at evalueringer offentliggøres, mens<br />

reviews er interne arbejdsdokumenter, sker kommunikationen til offentligheden mest<br />

direkte igennem evalueringerne. Men skønt reviews er internt rettet, vurderer vi, at<br />

denne bedømmelsesaktivitet tillige har en betydelig symbolsk funktion (Dahler-<br />

Larsen 2004:31), som hviler – ikke på resultaterne deraf – men på selve udførelsen:<br />

Ved at gennemføre reviews signalerer Danida nemlig, at organisationen løbende<br />

monitorerer sig selv. Både reviews og evalueringer bidrager således til, at Danida<br />

over for offentligheden kan hævde at have fokus rettet mod kvalitetssikring og<br />

opnåelse af resultater.<br />

I Danidas dokumenter og i interviews med organisationens ansatte refereres der til<br />

offentligheden, medierne og politikerne både som målgruppe for og årsag til<br />

evalueringernes og reviewenes kontrolfunktion. Relationen mellem Danida som<br />

kontrollant og partnerne som de kontrollerede tematiseres ikke. Den væsentlige<br />

relation i forståelsen af kontrollen som demokratisk legitim er således offentligheden<br />

versus udviklingsbistanden, hvor sidstnævnte omfatter både Danida og Danidas<br />

partnere, der antages at have en fælles interesse i at ’dokumentere’ og ’kvalitetssikre’<br />

deres fælles arbejde (Danida 1999:7).<br />

8.1.2. Inspektion<br />

Dette positive fællesskab, som ifølge Danida eksisterer mellem organisationens<br />

partnere og den selv, opleves ikke på samme måde af partnerne og konsulenterne,<br />

som i højere grad problematiserer det ulige styrkeforhold mellem Danida og Danidas<br />

partnere i kontrolsituationen. Både konsulenter og partnere udtrykker ganske vist<br />

forståelse for Danidas behov for at legitimere sig og leve op til kravet om<br />

ansvarliggørelse:<br />

… vor herre bevares, de systemer har også brug for deres dokumentation for, at<br />

det de gør, er rigtigt. (PO)<br />

Men som det fremgår, så føler den citerede partner sig ikke som en del af ”de<br />

systemer”, der har en andel og interesse i kontrollen – tværtimod oplever både<br />

partnere og konsulenter, at de bliver taget som gidsler i Danidas dokumentations-<br />

bestræbelser. Denne påstand vil vi uddybe i det følgende ved først at se på den<br />

betydning, som de økonomiske rammer omkring mediebistanden spiller for<br />

partnernes oplevelse af at blive udsat for inspektion, og dernæst ved at undersøge<br />

samspillet mellem konsulenter og evaluerede aktører i løbet af review- og<br />

evalueringsprocessen.<br />

8.1.2.1. Utryghed<br />

Partnerne betragter reviews og evalueringer som en obligatorisk forudsætning for<br />

fortsat støtte, og i den forstand er der i partnernes kontrolforståelse – samt ikke<br />

mindst i deres motivation for at deltage i kontrollen – et underliggende spørgsmål om<br />

88


økonomi. Med andre ord er det et uomtvisteligt vilkår, eller rettere: et nødvendigt<br />

onde, for projektet at udsætte sig for kontrol. I kraft af fasestrukturen lever Danidas<br />

partnere en økonomisk usikker tilværelse, og denne usikkerhed skærpes i forbindelse<br />

med gennemførelsen af reviews og evalueringer:<br />

… vi har ikke kunnet få at vide, hvad der skulle ske, og vores projekter, vores<br />

institutter, lider under det, fordi der er jo for så vidt aftaler om… altså der er toårs<br />

kontrakter, hvor man kun ved, hvad der skal ske to år frem. (…) Og<br />

[reviewet] bekymrer os selvfølgelig lidt, fordi det betyder, at der kommer<br />

mindst et års forsinkelse. Så vi søger bridging til nogle af de her, for at holde<br />

institutterne kørende. Øh… men altså, vi er selvfølgelig også lidt bekymrede<br />

over kontinuiteten i det, fordi gad vide hvem der bliver hyret som konsulenter<br />

til at sige, hvad de mener, der er behov for dernede. (PO)<br />

At partnerne er særdeles bevidste om sammenhængen mellem en positiv bedømmelse<br />

og fortsat støtte fra Danida, underbygges af de to følgende citater, hvor forskellige<br />

partnere udtaler sig om deres oplevelse af at blive henholdsvis reviewet og evalueret:<br />

It can therefore be stated that if the conclusion was that the success criteria had<br />

been achieved, this would be evidence to support the fact that Danish foreign<br />

aid was being used effectively and usefully. Such a conclusion was<br />

furthermore, necessary to guarantee further support from Denmark (PO, vus.)<br />

... det var blandt andet derfor [pga. en positiv evaluering] vi også fik penge<br />

igen. At vi så gerne ville have haft nogle flere (…) – det er så en anden ting.<br />

Men… Så på den måde var det jo dejligt. (PO:14)<br />

Magten til at bedømme mediebistandsprojekterne, og dermed magten til – i hvert fald<br />

i nogen udstrækning – at afgøre deres fremtid, er delegeret til de eksterne<br />

konsulenter. Denne kontrollantrolle opfattes som ubehagelig af samtlige af de<br />

konsulenter, vi har talt med, hvilket de blandt andet giver udtryk for ved at beskrive<br />

kontrolprocessen med ord som ’dom’, ’straf’ og her ’eksamen’:<br />

… man kommer ud og behandler projektet eller programmet eller<br />

samarbejdsorganisationen, kan du sige, som objektet, ikke. Så at nu skal vi ud<br />

og eksaminere jer. (KS)<br />

8.1.2.2. Manglende indflydelse<br />

Et andet forhold, der bidrager til partnernes negative oplevelse af kontrol som<br />

inspektion, er deres manglende mulighed for at påvirke bedømmelsesprocessen. Som<br />

beskrevet i det foregående kapitel, er det reelt kun Danida, der har indflydelse på<br />

initieringen af evalueringer og reviews, og vi vil senere argumentere for, at<br />

partnernes muligheder for at påvirke designet af undersøgelserne i praksis er<br />

begrænset, trods Danidas gode intentioner. Tilbage står partnernes mulighed for at<br />

påvirke udførelsen af og opfølgningen på evalueringer og reviews. Hvorvidt en<br />

partnerorganisation er i stand til at udnytte denne mulighed afhænger imidlertid dels<br />

af dens grad af ’kompetence’, det vil sige dens evner til at interagere med donor på<br />

dennes præmisser, og dels har det betydning, hvilken metodisk tilgang konsulenterne<br />

har valgt.<br />

89


I kapitel 9 og 10 redegør vi nærmere for de anvendte metoder i de analyserede<br />

review- og evalueringsforløb og for partnernes forskellige oplevelser heraf, men her<br />

bør det nævnes, at partnerne generelt giver udtryk for frustration over, at de er<br />

overladt til ukendte konsulenters nåde. Partnerne må finde sig i at blive<br />

dobbelttjekket, når der eksempelvis er: “obvious and clear instances of occasions<br />

when the team needed to verify certain statements” (PO), eller når konsulenterne ”...<br />

var mere optaget af… af, det de hørte fra dem, vi arbejder med, end vores egen<br />

forståelse af, hvad det var vi gjorde” (PO). Konsulenternes distance, som vokser ud<br />

af den evalueringsteoretiske kontroldiskurs’ forskrifter om objektivitet, opleves af<br />

partnerne som et udtryk for mistillid og manglende respekt:<br />

Fordi man må også respektere ligesom, at man arbejder med en organisation,<br />

som selvom den er støttet af Danida, så er den en enhed, der har sin egen<br />

vision, og sine egne visioner om, hvad man vil, ikke. Ledelsen og<br />

medarbejderne har deres egne idéer om, hvad de, hvorfor de er der, og hvad de<br />

gerne vil. Og det kan man jo ikke bare sådan… lege med som legoklodser og<br />

sige, jamen nu har I lavet det, og nu skal I lave det. Og det er den der respekt i<br />

det, den manglede noget, syntes jeg. (PO)<br />

Partnerens fremstilling af reviewprocessen som en ’leg med legoklodser’ under-<br />

streger, i hvor høj grad vedkommende har følt sig behandlet som en genstand for<br />

inspektion. I stedet efterspørger partnerne respekt – en efterspørgsel, der blandt andet<br />

udmønter sig i ønsket om at blive inddraget og få medindflydelse på evaluerings- og<br />

reviewprocessen.<br />

8.2. Læring<br />

Hvor de tre praksisfællesskabers kontrolopfattelser let lader sig placere på en positiv-<br />

negativ-akse, er deres læringsforståelser mindre håndgribelige. Dette skyldes givetvis<br />

læringsbegrebets slagordsagtige status, der blev beskrevet i afsnit 4.3., for ”hvem er<br />

imod læring?”, som Dahler-Larsen retorisk spørger (Dahler-Larsen 1998:33). Dét er<br />

hverken Danida, de eksterne konsulenter eller Danidas partnere. Men ved nærmere<br />

eftersyn adskiller aktørgruppernes forståelse af og krav til en god læringsproces sig<br />

fra hinanden. Mens partnerne og konsulenterne stiller krav om inddragelse, indflydel-<br />

se og myndiggørelse og dermed trækker på en participatorisk læringsdiskurs, er den<br />

forståelse, som kommer til udtryk i Danidas dokumenter og interviews med organisa-<br />

tionens medarbejdere, mere ukonkret.<br />

8.2.1. Konsensusbaseret læring<br />

Når vi beskriver Danidas læringsbegreb som ukonkret, skyldes det, at det af såvel<br />

Danidamedarbejdernes udtalelser som i organisationens publikationer fremgår, at det<br />

vigtigste formål med evalueringer og reviews er at opsamle erfaringer. Men præcis<br />

hvilke erfaringer, der skal opsamles, hvordan de skal formidles til hvem, og hvem der<br />

har det konkrete ansvar for, at erfaringerne omsættes til en forbedring af indsatsen,<br />

har vi ikke kunnet få klare bud på. Det citat om evalueringers læringsmålsætning,<br />

90


som indledte kapitlet, er netop et eksempel på de ukonkrete og entusiastiske<br />

formuleringer, som omgærder Danidas læringsforståelse:<br />

Evaluations shall contribute to the improvement of aid by the collation,<br />

analysis and dissemination of experience from current and completed aid<br />

activities. (Danida 1999:7, vus.)<br />

Heraf fremgår det tydeligt, at Danida sætter lighedstegn mellem erfaringsopsamling<br />

og forbedring af udviklingsbistanden. Læring er altså per definition en god ting.<br />

8.2.1.1. Hologrammetaforen<br />

At Danidas læringsforståelse ligger i umiddelbar forlængelse af organisationens<br />

kontrolforståelse kommer til udtryk ved, at de i mediebistanden involverede aktører<br />

beskrives som en enhed med fælles interesse i at opsamle erfaringer. De interviewede<br />

Danidamedarbejdere skelner således ikke mellem, om det er projektorganisationerne,<br />

IO’erne eller Danida selv, som har læringsudbytte af evalueringer og reviews. I stedet<br />

anvender de betegnelser som ”man” og ”vi”, hvilket nedenstående uddrag er et<br />

eksempel på:<br />

... reviewene er jo netop, i og med at de er fremadrettede og er med som<br />

justerende elementer i processen, de er jo også med til at tillade, at man kan<br />

tage nogen chancer, at man kan prøve noget af, og sådan noget. Og så kan man<br />

så take stock efter et år eller halvandet år, og så sige, jamen, giver det her<br />

bonus eller giver det ikke bonus? Jamen, det gør det åbenbart ikke alligevel,<br />

jamen så justerer vi på en anden måde. (<strong>OG</strong>, vus)<br />

Den erfaringsopsamling, som reviews og evalueringer danner rammen omkring,<br />

anses således for at være til gavn for den samlede mediebistand.<br />

I interviewene beskrives den enkelte Danidamedarbejders udvikling og læring som<br />

en integreret del af den organisatoriske læringsproces, hvilket indikerer, at<br />

medarbejderne trækker på det læringsbegreb, vi tidligere har beskrevet ved hjælp af<br />

Morgans hologrammetafor (jf. afsnit 4.3.1). Ligesom den enkelte del af hologrammet<br />

afspejler helheden, antages hver enkelt medarbejder at afspejle den fælles<br />

organisatoriske vision om kvalitetssikring og læring.<br />

... det er så fedt at have besøg af et, et rigtig godt, engageret review-team. Øh,<br />

både fordi man bliver begejstret igen, men også fordi at man så, hvis man…<br />

Det er legitimt, at man bruger tre fjerdedele af sin tid på det her i en hel uge.<br />

(...) Fordi man så også får gjort den der selvrefleksion, ikke. (<strong>OG</strong>)<br />

Når medarbejderne udspørges om, hvori læringen i forbindelse med reviews og<br />

evalueringer består, giver de som denne medarbejder udtryk for, at bedømmelses-<br />

aktiviteterne udgør velkomne anledninger til ”selvrefleksion” i en travl hverdag.<br />

Netop forestillingen om en direkte kausal sammenhæng mellem den enkelte<br />

medarbejders læring og forbedringen af mediebistanden gør ifølge Dahler-Larsen<br />

opskriften på den lærende organisation attraktiv for både individer og organisationer:<br />

91


Opskriften sælges nemlig med løfte om, at den individuelle medarbejders<br />

faglige og personlige udvikling er en forudsætning for og en integreret del af<br />

de organisatoriske transformationsprocesser, som en lærende organisation<br />

gennemløber. På den måde kommer ”den lærende organisation” til at lyde<br />

tiltalende for både individ og organisation. (Dahler-Larsen 2000:33-34)<br />

8.2.1.2. Danida har styringen<br />

For at sikre at den erfaringsopsamling og ”selvrefleksion”, som evalueringer og<br />

reviews skal facilitere, er i overensstemmelse med Danidas relevanskriterier og<br />

værdier, ønsker EK og de bevilgende enheder at bevare en vis styring med<br />

processerne. I nedenstående citat udtaler en Danidamedarbejder sig om de<br />

overvejelser, der gøres i forbindelse med inddragelse af partnerne i design og<br />

udførelse af evalueringer. På den ene side ønsker Danida en høj grad af inddragelse,<br />

men samtidig vil man ikke indføre deciderede participatoriske læringsevalueringer,<br />

da man dermed ville miste styringen med, hvad partnerne lærer:<br />

Så det er ikke en participatory evaluering – det er ikke det ord, jeg vil bruge –<br />

men de, der skal bruge evalueringen er involveret i processen fra start til slut.<br />

For at få stillet de spørgsmål, som de har behov for at få svar på. Men så sidder<br />

vi jo så her i Danida og siger: ’Jamen øh, der er altså også nogle spørgsmål her,<br />

som I ikke stiller, som vi føler, er væsentlige’, som vi så tager med ind. (<strong>OG</strong>)<br />

Citatet illustrerer, at læringen i sidste ende foregår på Danidas præmisser. Så længe<br />

der er konsensus mellem opdragsgiver og de evaluerede aktører om, hvad der er<br />

relevant, bliver sidstnævnte inddraget og hørt. Men i det øjeblik, konsensus ophører,<br />

sætter Danida den endelige dagsorden.<br />

Den læringsforståelse, som primært kommer til syne i Danidas publikationer og i<br />

interviews med medarbejderne, trækker således i høj grad på det læringsbegreb, vi i<br />

afsnit 4.3.1. omtalte som konsensusbaseret læring.<br />

8.2.2. Participatorisk læring<br />

De interviewede konsulenter og partnerrepræsentanter giver den ovenfor citerede<br />

Danidamedarbejder ret i, at inddragelse af partnerne i evaluerings- og review-<br />

processerne er en forudsætning for partnerorganisationens læringsudbytte heraf. Et af<br />

de ønsker, partnerne har til processen, er at kunne bruge den som en ”anledning til at<br />

reflektere”:<br />

... vi har jo for lidt refleksion over, hvad vi egentlig går og gør. Altså, vi har for<br />

travlt med at lave tingene, men vi kunne garanteret få meget mere ud af de<br />

erfaringer, vi har, hvis vi blev tvunget til og fik anledning til at reflektere over:<br />

’Jamen, hvorfor fungerer det, det du gør? Og hvad er det egentlig, du gør?’<br />

ikke også. (PO)<br />

Når man befinder sig i projektets faste stab bliver man ”meget opfanget af praksis,”<br />

beretter en partner, og ”logikken [bliver] helt anderledes”, end når man står uden for.<br />

92


Derfor har man ”brug for hjælp til at eksplicitere tingene” gennem en participatorisk<br />

og ’interaktiv proces’, hvor der er plads til samtale og diskussion medarbejderne<br />

imellem. Læringen skal altså komme fra partnerne selv: De besidder selv den viden,<br />

som kan bringe dem videre, men skal blot hjælpes til at bruge den.<br />

Tager man personsammenfaldet mellem de to grupper i betragtning, er det ikke<br />

overraskende, at konsulenterne deler partnernes opfattelse af og ønsker til review- og<br />

evalueringsprocessen. I forlængelse heraf er deres mål at agere som facilitatorer for<br />

en participatorisk læringsproces frem for at spille rollen som eksperter og<br />

kontrollanter:<br />

’Jamen, det er jo ikke mig, der ved noget om jeres verden. Det er jer, der ved<br />

det. Men jeg kan lave en ramme, der gør, at I finder ud af med hinanden, hvad<br />

det er, I egentlig laver, og hvad der virker og hvad der ikke virker.’ (KS)<br />

Konsulenterne og partnerne er således enige med Danida om, at inddragelse er en<br />

god ting, men de lægger op til en langt mere omfattende inddragelse i tråd med<br />

forskrifterne inden for den participatoriske læringsdiskurs. De ønsker at gennemføre<br />

reviews og evalueringer som participatoriske processer, hvor kontrolaspektet helt<br />

udelades eller lades så meget i baggrunden, at kontroldiskursens krav om eksempel-<br />

vis uafhængighed og objektivitet bliver irrelevante:<br />

Ideelt set synes jeg, en review skal foregå i et meget, meget tæt samarbejde<br />

med den organisation, som du reviewer. Og dybest set så bør de også være med<br />

i alle interviewene, fordi det er ikke en kontrol; det er et stykke… hvad skal jeg<br />

sige… arbejde, som man laver for at komme videre i projektet. Og al den<br />

information vi får, som vi ofte får uden at der er nogen af organisationen til<br />

stede… eller fra organisationen til stede, den sidder jo inde i vores hjerner, for<br />

det er jo ikke alt vi kan skrive ned på papir, og det bør vi jo heller ikke. Altså,<br />

vi skriver jo kun konklusionerne ned. Og det vil være enormt givtigt for dem at<br />

være med i sådan en proces hele vejen rundt. (KS)<br />

Efter konsulenternes opfattelse begrænser Danidas hensigter med et review eller en<br />

evaluering sig stort set til produktet: en rapport med klare konklusioner og<br />

anbefalinger. Selv anser konsulenterne imidlertid den færdige rapport som et<br />

biprodukt af selve processen, som i deres øjne er det absolut væsentligste: Her finder<br />

den reelle læring nemlig sted, mener de, og for at sikre at den evaluerede organisation<br />

tager del heri, bør dens medarbejdere tildeles en rolle, hvor de indgår i styringen af<br />

reviewforløbet og derigennem bliver i stand til at tage ejerskab for dens konklusioner<br />

og anbefalinger. Sker det, vil reviewet være præget af langt større åbenhed, og<br />

dermed kan det fungere som ”eye-opener” og en konfliktløsende instans for<br />

organisationen (KS). Dette underbygges af en repræsentant for en af Danidas<br />

partnerorganisationer, som har oplevet at blive reviewet og evalueret efter både en<br />

kontrolmodel og en participatorisk læringsmodel. Vedkommende beskriver sin<br />

oplevelse af forskellene således:<br />

93


Over the years, we have had many evaluations and many reviews. Some<br />

external, some internal. I must say, that most of them were reviews where the<br />

consultants would come in and look at what we are doing, interview some<br />

people and write the report. The last one, the one that we just done, was not the<br />

same, where we had two consultants, come together with us and went through<br />

the review in terms of other indicators, how, why, and other questions like that.<br />

(…) I think it was, as I said, it was different from the ones we had before<br />

(utydeligt), so it was a very good process. (PO)<br />

Her skildrer interviewpersonen sin oplevelse af de forskellige roller, som potentielt<br />

tildeles partnerorganisationen afhængig af hvilken metode, konsulenterne anvender.<br />

Tidligere reviews og evalueringer af denne organisation er foregået ved, at<br />

konsulenterne har studeret de ansattes eller aktives gøren og laden, interviewet et par<br />

mennesker og afslutningsvist skrevet en rapport. Anderledes forholdt det sig med det<br />

seneste review, hvor konsulenterne lod partnerne vurdere deres egen indsats ved at<br />

stille åbne spørgsmål som ’hvordan’ og ’hvorfor’. Dette oplevede den citerede<br />

partner som ’en rigtig god proces’.<br />

8.2.2.1. Et spørgsmål om myndiggørelse<br />

I ovenstående citat slås endnu et tema an i forhandlingerne mellem Danida og<br />

partnere/konsulenter om, hvordan læringsmålsætningen skal forstås og omsættes i<br />

praksis. Det drejer sig om magtrelationerne i bedømmelsesprocessen, om partnernes<br />

myndiggørelse. At omfanget af inddragelse har særdeles stor betydning for<br />

partnernes oplevelse af processen, kommer indirekte til udtryk ved, at de reagerer<br />

med vrede mod de eksterne konsulenter, når de føler sig behandlet som ’legoklodser’.<br />

Eksempelvis blev en interviewet partner efter eget udsagn ”stiktosset” på de<br />

evaluatorer, som stod bag en ikke-participatorisk vurdering af vedkommendes<br />

organisation. Ikke fordi evalueringen var negativ – tværtimod – men fordi interview-<br />

personen ikke følte, at partnerorganisationen kunne bruge evalueringen ”til en skid<br />

(...) fordi det vokser ikke ud af den... vores egen forståelse af det vi gør”. Det skarpe<br />

ordvalg er ét ud af flere eksempler på, at distancerede evalueringer og reviews<br />

afføder en følelse af afmagt og frustration hos partnerne.<br />

I vore interviews med konsulenter og partnere kommer der således to vægtige<br />

argumenter for participatorisk og mod konsensusbaseret læring frem: For det første<br />

bidrager den participatoriske læring positivt til partnernes fornemmelse af, at<br />

processen har nytteværdi, og for det andet indebærer denne læringsform myndig-<br />

gørelse af partnerne, bringer dem på lige fod med Danida og understøtter derved det<br />

ligeværdige donor-modtagerforhold, som foreskrives inden for den kritiske<br />

udviklingsdiskurs. Således ser konsulenter og partnerorganisationer participatoriske<br />

læringsevalueringer som en mulighed for at genforhandle og forandre relationen<br />

mellem Danida og partnerne.<br />

94


8.3. Kontrol og/eller læring?<br />

Vi har nu redegjort for de forskellige forståelser af læring og kontrol, som Danida,<br />

partnere og konsulenter giver udtryk for. Det har vist sig, at Danida betragter kontrol<br />

som en demokratisk legitim foranstaltning, mens læring anskues som en samlende,<br />

konsensusbaseret proces. Disse forståelser falder i tråd med den evalueringsteoretiske<br />

kontroldiskurs. Anderledes forholder det sig med konsulenter og partnere, der begge<br />

trækker på den participatoriske læringsdiskurs. Vi finder her forklaringen på de<br />

forskellige praksisfællesskabers påstande om, hvorvidt læring og kontrol kan gå hånd<br />

i hånd eller nødvendigvis må adskilles.<br />

8.3.1. Danida: Både-og<br />

De to formål de hænger sammen, de kan ikke skilles ad. Det er kunstigt at gøre<br />

det. (<strong>OG</strong>)<br />

Altså kontrollen er, eller dokumentationen, det synes jeg er bedre måske, end<br />

kontrollen, øh er jo, synes jeg er en forudsætning for det andet. For hvordan<br />

fanden kan du lave erfaringsopsamling uden det andet? Det forstår jeg ikke.<br />

(<strong>OG</strong>)<br />

Så derfor så synes jeg, det er sådan en lidt underlig... Altså, der er jeg i hvert<br />

fald ikke sådan lige, i den praksis, jeg kender, synes jeg ikke lige, at man kan<br />

lave den der øh, den der skelnen, ligesom. (…) Altså på den måde, så er det<br />

noget, noget, undskyld, noget akademisk øh, kunstigt at skille dem op på den<br />

måde, tror jeg. (<strong>OG</strong>)<br />

Hvor partnere og konsulenter i deres skarpe skelnen mellem læring og kontrol er på<br />

linie med de gængse anbefalinger inden for evalueringsteorien, så ser Danida ikke<br />

nogen uoverensstemmelse mellem de to formål. Det giver de ovenfor citerede<br />

Danidamedarbejdere tydeligt udtryk for, og deres holdninger underbygges af<br />

formuleringerne i Danidas evalueringsretningslinier 46 samt af EK’s særlige organisa-<br />

toriske placering. Det organigram, som blev gengivet i kapitel 7, beskriver EK som<br />

en intern specialenhed, der på den ene side er uafhængig af de bevilgende,<br />

rådgivende og besluttende enheder i Danida, og som på den anden side er en<br />

organisationsintern instans. Dermed forsøger EK at imødekomme både kontrol-<br />

diskursens krav om uafhængighed og distance, og den participatoriske lærings-<br />

diskurs’ forskrifter om relevans og nærhed mellem evaluatorer og evaluerede aktører<br />

(Danida 2003A:18).<br />

Danidas sammenkobling af læring og kontrol afspejler praksis i de fleste andre<br />

offentlige institutioner i Danmark, og man kan ifølge den danske evalueringsforsker<br />

46 I Danidas evalueringsretningslinier skelnes der skarpere mellem erfaringsopsamling og<br />

dokumentation, end tilfældet er i praksis (Udenrigsministeriet 1999). Det forklarer en ansat i Danida<br />

således: ”Vi begik nok en fejl, da vi lavede vores evalueringspolitik i 1997, som så resulterede i vores<br />

guidelines i 1999, at vi forsøgte at skille de to ting sådan rimeligt skarp ad (...). [D]et viste sig jo<br />

lynhurtigt, at det var en kunstig skelnen - du kan ikke gøre det ene uden det andet. Du kan ikke begynde<br />

at uddrage erfaringer, uden at du forsøger at måle resultaterne.”<br />

95


Hanne Foss Hansen betegner forholdet mellem udviklingen inden for henholdsvis<br />

evalueringsteori og -praksis som paradoksalt:<br />

I litteraturen lægges således op til heterogenitet og differentiering i<br />

konstruerede standarder over opgave og tid. Modsat synes en del politikområder<br />

karakteriseret ved stærke pres for homogenisering af standarder. (Hansen<br />

2001:117)<br />

Forklaringen på paradokset mener vi skal findes i de to forskellige evaluerings-<br />

diskurser, som er på banen i både teori og praksis. Forståelsen af læring som en<br />

konsensusbaseret proces stemmer overens med opfattelsen af kontrol som en<br />

demokratisk legitim foranstaltning. Begge disse fortolkninger af evalueringers rolle<br />

har vi betegnet som hørende inden for en evalueringsteoretisk kontroldiskurs, der i<br />

kraft af sin tendens til topstyring og sit positivistisk inspirerede objektivitetsideal<br />

trækker på samme hammel som den udviklingsteoretiske moderniseringsdiskurs. Ved<br />

at definere kontrol og læring som gensidigt understøttende aspekter baseret på<br />

konsensus og legitimitet nedtoner og retfærdiggør Danida på en og samme tid den<br />

dominerende position, som organisationen indtager overfor partnere og konsulenter i<br />

kraft af sin status som opdragsgiver og donor. Danida kan derfor siges at have en<br />

væsentlig interesse i at genetablere den evalueringsteoretiske kontroldiskurs.<br />

8.3.2. Partnere og konsulenter: Enten-eller<br />

Det modsatte gælder for partnerne, som ønsker at udfordre Danidas dominans ved at<br />

tilkæmpe sig en så høj grad af medbestemmelse som muligt. De plæderer derfor<br />

sammen med konsulenterne for participation og myndiggørelse og ser<br />

kontrolformålet som værende en barriere herfor:<br />

… man skal skille de der ting ad, altså. Du kan ikke komme ud den ene dag<br />

med kontrollantkasketten på, og så næste dag være den faglige<br />

sparringspartner, det kan man ikke. Det kan den menneskelige hjerne<br />

simpelthen ikke skille ad. (KS)<br />

... altså du kan ikke begge dele. Enten må du sætte dig på den ene stol, eller<br />

også må du sætte dig på den anden stol. Og den kontrolfaktor synes jeg godt,<br />

andre kan overtage. (KS)<br />

Hvem der skal overtage ’kontrolfaktoren’ er der imidlertid ingen enighed om.<br />

Interessant nok viser det sig nemlig, at mens der blandt de konsulenter, som primært<br />

udfører reviews, kan identificeres en holdning om, at kontrollen skal varetages af<br />

evalueringer, så mener en konsulent, som har været inddraget i evalueringsopgaver,<br />

at det må være reviews, der løfter kontrolfunktionen:<br />

… når man har noget der hedder et review, som er et spørgsmål om at justere<br />

på… altså, det er dybest set et spørgsmål om at justere på projektet, ikke? Øh…<br />

videre fremover. Så bør man holde sig til det, og så forbeholde øh… så lave<br />

evalueringerne, hvis man ønsker en kontrolfunktion. (P2). Altså, man kan ikke<br />

sammenblande det efter min mening. Det… det er jeg helt, helt overbevist om,<br />

at man ikke kan. (konsulent på reviews)<br />

96


Ja, altså det var tydeligt at… hvad man kan sige… for hele<br />

[evaluerings]opgaven, for alle de ni teams i virkeligheden, der var det tydeligt,<br />

at det gjaldt om at finde læringspunkter og erfaringsopsamling. ( konsulent på<br />

evaluering)<br />

Partneres og konsulenters modvilje mod Danidas krav om kontrol kommer også til<br />

udtryk ved, at de i de konkrete review- og evalueringsprocesser forsøger at påvirke<br />

både designet og udførelsen sådan, at læringsformålet træder i forgrunden. Vort<br />

empiriske materiale rummer således eksempler på, at konsulenterne forsøger at<br />

omdefinere kommissorier, der efter deres mening lægger for stor vægt på kontrol.<br />

Dette gør de ved at trække på deres status som fagligt dygtigere og mere erfarne end<br />

’skrivebordspersonerne’ i Danida:<br />

Så der, hvor hele opgaven bliver defineret, det er, sådan er min erfaring i hvert<br />

fald for det, at det er enormt vigtigt at tage mange af de der diskussioner<br />

allerede deroppe. Og også, ikke nødvendigvis bare æde et eller andet sæt terms,<br />

du får inde fra Danida. Stukket ud af en eller anden deskperson (KS)<br />

I citatet udtrykker konsulenten en manglende faglig respekt for Danidas<br />

kommissorieudkast, der beskrives som tilfældige dokumenter udarbejdet af en<br />

tilfældig, uvidende person: ”et eller andet sæt terms (…) Stukket ud af en eller anden<br />

deskperson”. I modsætning hertil betragter konsulenterne sig som ”faglige folk”, der<br />

griber evaluerings- eller reviewopgaven an som et ”fagligt job”. Forsøgene på at<br />

påvirke kommissorierne er dog ikke altid succesfulde, idet de Danidaansatte i nogle<br />

tilfælde afviser konsulenternes indblanding som utidig og ukvalificeret:<br />

Ja, (P2) jo, men det er det der med… at det der med at i den første fase så gå<br />

ind og sige, jamen jeg vil gerne bruge den tilgang og den metode, for at få det<br />

ud af det, det opleves nogen gange som truende, overfor de programme<br />

officers, der sidder med det. (...) Øh, det har jeg ofte, altså det har jeg oplevet<br />

flere gange, at det oplever de som øh… altså at det så i virkeligheden ikke<br />

bliver en forhandling om en faglig tilgang, men at det bliver en forhandling om<br />

øh, at det bliver et magtspil ikke? Nu er det mig, der er boss, det er mig, der har<br />

defineret det, så skal du ikke komme og sige, at du vil, og sådan noget, ikke.<br />

Og øh, der synes jeg tit, at der har manglet den der forståelse for, ja for læring,<br />

for processer, ikke. I forskellige måder at bruge konsulenthold på, altså, den er<br />

måske lidt begrænset eller lidt stiv, og det er måske så måske ministeriets<br />

kultur, i det hele taget, ikke. Altså forståelse for læreprocesser, hvordan man<br />

bedst designer det, eller hvordan man bedst får… altså skille den der<br />

kontrolfunktion ad fra læringsfunktionen. (KS)<br />

I nogle tilfælde, hvor det ikke er lykkedes for konsulenter eller partnere at overbevise<br />

opdragsgiveren om at fokusere på læring frem for kontrol, ses der eksempler på, at de<br />

to praksisfællesskaber sammen omdefinerer kommissoriet, efter at dette er lagt fast.<br />

8.4. Forskellige forståelser – forskellige interesser<br />

Vi har nu set, hvordan Danidas forståelse af kontrol og læring understøtter<br />

organisationens position som det af de tre praksisfællesskaber med den stærkeste<br />

97


position i forbindelse med evaluering og review af mediebistand. Som donor kan<br />

Danida insistere på, at modtagerne af mediebistanden indvilger i at blive vurderet, og<br />

som opdragsgiver har Danida magt til definere formål og fokus for bedømmel-<br />

sesaktiviteterne. Groft sagt er det ingen sag at hævde konsensus og legitimitet, når<br />

man er den stærkeste.<br />

Omvendt trækker partnerne i deres fortolkning af kontrol- og læringsbegreberne på<br />

den participatoriske læringsdiskurs, som med værdier om myndiggørelse og<br />

magtkritik har mange lighedspunkter med den kritiske udviklingsdiskurs. For<br />

partnerne er der betydelige økonomiske interesser forbundet med at insistere på at få<br />

indflydelse på evalueringer og reviews – både i forhold til at præge den konkrete<br />

vurdering og i forhold til at anvende bedømmelsesaktiviteterne som anledninger til at<br />

styrke deres medindflydelse på mediebistanden generelt. Umiddelbart har Danidas<br />

partnere ikke samme mulighed som Danida for at definere forhandlingerne i<br />

evaluerings- og reviewsammenhæng, men de har til gengæld en vigtig allieret –<br />

konsulenterne – som deler deres forståelser af kontrol og læring.<br />

Med analysen af de tre praksisfællesskabers forskellige forståelser og interesser er<br />

udgangspunktet for interaktionen mellem dem ridset op. Hvordan den konkret<br />

udspiller sig, og hvordan evalueringsdiskurserne manifesterer sig i rapporter og<br />

forløb, fokuserer de kommende kapitler på.<br />

98


9. Evalueringer og reviews som grænseobjekter<br />

Vi har i det foregående kapitel set, at de praksisfællesskaber, som er involveret i<br />

Danidas reviews og evalueringer af mediebistandsprojekter, har forskellige<br />

forståelser af, hvad kontrol og læring er og bør være. Disse forståelser er knyttet til de<br />

positioner og interesser, de pågældende aktører har i forhold til evalueringer og<br />

reviews. I præsentationen af specialets teoretiske afsæt beskrev vi Stars påstand om,<br />

at et praksisfællesskab translaterer et grænseobjekt – og dermed sin interaktion med<br />

andre aktører – i overensstemmelse med fællesskabets forståelsesrammer og måder at<br />

gøre ting på. Praksisfællesskaberne fortolker altså grænseobjektet, det vil sige et<br />

review eller en evaluering, på egne præmisser i det omfang, objektets robusthed til-<br />

lader det. Konsekvensen af disse translationsprocesser er, at de enkelte review- og<br />

evalueringsforløb opfattes forskelligt af de involverede aktører, samt at processerne<br />

forløber uforudsigeligt og sjældent ender med at opfylde de målsætninger, som er<br />

fastlagt i kommissorierne.<br />

Ved at anskue evalueringer og reviews som grænseobjekter mister evaluerings-<br />

teoriens skarpe skelnen mellem lærings- og kontrolevalueringer sin berettigelse.<br />

Denne skelnen baserer sig nemlig på en antagelse om, at evalueringer er som<br />

”legetøjstog”, der følger ”de skinner, der på forhånd er lagt ud” (Dahler-Larsen<br />

2004:11). I modsætning hertil mener vi, der er empirisk belæg for at hævde, at<br />

evaluerings- og reviewforløb minder ”mere om en tur i radiobilerne end en tur med et<br />

legetøjstog (…). Når evalueringer minder om kørsel i radiobiler, kører de forskellige<br />

deltagere ikke på en fælles rute, som tilfældet var i skinnetoget. Nogen vil blive kørt<br />

mere ned end andre. De forskellige deltagere vil opleve turen forskelligt” (Dahler-<br />

Larsen 2004:13).<br />

Når vi tilslutter os dette perspektiv, kan vi ikke meningsfuldt karakterisere en<br />

evaluering eller et review som enten en læringsproces eller en kontrolforanstaltning.<br />

For de eksempler på review- og evalueringsforløb, vi i dette kapitel vil redegøre for,<br />

gælder det da også, at de alle rummer elementer af begge dele. Dette dog i forskellig<br />

udstrækning, hvorfor vi vil placere de cases, som indgår i vores empiri, på et<br />

kontinuum, hvor kontrol udgør den ene yderpol og læring den anden.<br />

9.1. Kontrol og læring i otte evaluerings- og reviewforløb<br />

Vores empiri omfatter i alt fem reviewrapporter og tre evalueringsrapporter (se afsnit<br />

6.1.1.). Disse dokumenter har vi analyseret blandt andet med henblik på at undersøge,<br />

hvordan formålene kontrol og læring manifesterer sig i den endelige rapport.<br />

Metodisk har vi grebet analysen an ved i første omgang at vurdere rapporterne på<br />

fem parametre, der hver især indikerer, hvorvidt en given rapport er orienteret mod<br />

99


henholdsvis et kontrol- eller læringsformål eller begge dele. Dette uddyber vi i afsnit<br />

9.1.1. Derefter følger i afsnit 9.1.2. en præsentation af den analyse af de otte<br />

rapporter, som vi har foretaget på baggrund af de opstillede parametre, og denne<br />

præsentation leder over i afsnit 9.2., der rummer en fremstilling af udvalgte<br />

evaluerings- og reviewforløb.<br />

9.1.1. Kontrol- og læringskomponenter i rapporterne<br />

Inden for hvert af de fem parametre skelner vi mellem tekstkomponenter, som peger i<br />

retning af enten kontrol eller læring. De i alt ti lærings- og kontrolkomponenter, som<br />

vi har identificeret på baggrund af dokumentanalyserne, og som danner afsæt for<br />

vores kategorisering af projekterne, ser på skemaform således ud:<br />

Kontrolkomponenter<br />

Målopfyldelse, effektvurdering<br />

Konsulentens/(donors)<br />

vurdering<br />

Bevillingen er eksplicit til<br />

genovervejelse<br />

Enkeltinterviews, observation og<br />

dokumentanalyse<br />

Skriftlig<br />

Figur 9a<br />

Fem parametre Læringskomponenter<br />

Hvordan vurderes<br />

genstanden?<br />

Hvis værdier ligger til grund<br />

for vurderingen?<br />

Er bevillingen til<br />

genovervejelse?<br />

Anvendte metoder<br />

Debriefing<br />

Erfaringsopsamling, anbefalinger<br />

Partnerens vurdering<br />

Partnerne gives en eksplicit<br />

’tryghedsgaranti’<br />

Participatoriske metoder:<br />

workshops, debatter, mm.<br />

Mundtlig<br />

I det følgende vil vi uddybe komponenterne parvist, det vil sige med afsæt i de fem<br />

parametre, i den hensigt at synliggøre forskellen mellem de enkelte lærings- og<br />

kontrolkomponenter.<br />

9.1.1.1. Målopfyldelse og erfaringsopsamling<br />

Vi skelner i ovenstående figur mellem målopfyldelse og effektmåling på den ene side<br />

og opsamling af erfaringer og anbefalinger på den anden. Der er tale om<br />

målopfyldelse og effektvurdering i det øjeblik, en evalueringsrapport vurderer sin<br />

genstand retrospektivt ud fra på forhånd fastsatte kriterier. I Danida opererer man<br />

med fem evalueringskriterier, som bliver præsenteret nærmere i kapitel 11. Disse<br />

kriterier danner afsæt for en vurdering af, hvorvidt de aktualiserede resultater af<br />

indsatsen står mål med hensigterne bag mediebistanden, og man kan derfor betragte<br />

forekomsten af effektmåling i en rapport som et kontrolelement. Når projektet<br />

vurderes med henblik på at opsamle generelle erfaringer, som kan overføres til andre<br />

100


lignende projekter, eller konsulenterne fremkommer med anbefalinger til en<br />

fremtidig justering af indsatsen, kan man tale om, at rapporten indeholder et<br />

læringselement. Samme rapport kan rumme såvel målopfyldelse/effektmåling som<br />

erfaringsopsamling/anbefalinger.<br />

9.1.1.2. Konsulentens eller partnerens vurdering?<br />

Enhver bedømmelse finder sted på baggrund af et sæt im- eller eksplicitte værdier,<br />

som evalueringsgenstanden vurderes i forhold til (Dahler-Larsen 1998:86f). Disse<br />

værdier kommer konkret til udtryk i de kriterier, som anvendes i det pågældende<br />

review/evaluering. I forhold til vægtningen af kontrol og læring i reviews og<br />

evalueringer er det interessant at undersøge, hvorvidt det er donor, konsulentholdet<br />

eller de evaluerede aktører selv, der definerer de kriterier og dermed de værdier, som<br />

ligger til grund for vurderingen. I og med at Danida opererer med et sæt forud-<br />

definerede evalueringskriterier, vil der i alle tilfælde være tale om, at opdragsgiverens<br />

værdier er grundlæggende for bedømmelsen. Men i evaluerings-/reviewforløb, hvor<br />

partneren får mulighed for selv at vurdere sin egen indsats og definere succes-<br />

kriterier, rummer forløbet et element af selvrefleksion. Vi betragter det derfor som en<br />

læringskomponent, når partneren kommer indirekte eller direkte til orde i rapporten.<br />

Derimod gøres Danidas partnere til genstand for kontrol, når konsulenten vurderer<br />

genstanden enten på baggrund af de af donor opstillede mål for indsatsen eller på<br />

baggrund af ’objektive’ fakta, som udspringer af analysen.<br />

Vi har søgt at omsætte denne problemstilling til et tekstanalytisk værktøj ved at<br />

undersøge de afsenderidentiteter, som kommer til udtryk i rapporterne. Her har vi<br />

identificeret syv forskellige afsenderidentiteter, hvoraf fire er særligt interessante i<br />

nærværende sammenhæng. Disse er:<br />

Den nøgterne konsulentrolle<br />

Denne afsenderidentitet kommer til udtryk, når konsulenterne benytter sig af et<br />

konstaterende sprog til at beskrive genstanden så neutralt og ’objektivt’ som muligt.<br />

Det vil sige uden brug af værdiladede tillægsord, understregende biord, konjunktive/<br />

imperative verber eller andre tekstelementer, som angiver forfatterens tilslutning og<br />

holdning. Den nøgterne konsulentrolle anvendes eksempelvis i denne sætning:<br />

… it is a fact that over the 10 years of the NSJ’s existence, the media<br />

environment in the Southern part of Africa has improved. (NSJ 03:7, vus.)<br />

Anvendelse af den nøgterne afsenderidentitet indikerer, at forfatteren mener at have<br />

kendskab til en objektiv virkelighed, som vedkommende kan vurdere det reviewede/<br />

evaluerede projekt i forhold til.<br />

Den opsummerende konsulentrolle<br />

Den opsummerende konsulentrolle kommer til udtryk i disse to eksempler, hvor<br />

forfatterne underbygger deres konklusioner ved at referere til den indsamlede empiri:<br />

101


It is quite evident from a number of interviews conducted for this review…<br />

(NSJ 03:4, vus.)<br />

From these scenarios it is clear that the development of the media cannot be<br />

left to governments alone. (NSJ 02:40, vus.)<br />

Ved at referere til datamaterialet tilfører konsulenterne deres konklusioner en vægt,<br />

der gør, at de i højere grad fremstår som indiskutable sandheder, end hvis de var<br />

fremsat uden dokumentation. Som tilfældet er i forbindelse med den nøgterne<br />

konsulentrolle, signalerer konsulenten ved brug af en opsummerende forfatterrolle, at<br />

vedkommende kender ’virkeligheden’ – på baggrund af data.<br />

Den faciliterende konsulent<br />

Denne rolle kommer til udtryk, når konsulenterne lader de evaluerede aktører komme<br />

indirekte til orde ved at gengive deres holdninger og oplevelser:<br />

The participants in the review/evaluation process considered these… (MISA<br />

01/02:3, vus.)<br />

During the email-debate it emerged that most participants felt… (MISA<br />

01/02:51, vus.)<br />

Vi betragter anvendelsen af en faciliterende afsenderidentitet som et udtryk for, at<br />

rapporten indeholder et element af participatorisk læring, idet grundlaget for<br />

bedømmelsen i nogen grad er defineret af de evaluerede aktører selv.<br />

De evaluerede aktører som afsendere<br />

I forbindelse med anvendelsen af den faciliterende konsulentrolle kommer de<br />

evaluerede aktører kun indirekte til orde i rapporten – gennem konsulentens<br />

fortolkning. I vores analyse er der to eksempler på, at de evaluerede aktører også<br />

kommer direkte til orde og dermed har rollen som medforfattere af rapporten (NSJ<br />

03:55-56 & MISA 04:appendix). Vi betragter denne og den foregående afsender-<br />

identitet som indikatorer på, at rapporterne tilstræber at bidrage til læring.<br />

Til disse fire afsenderidentiteter kommer tre øvrige, som vil blive behandlet senere i<br />

analysen. Disse tre har vi kaldt den uafhængige konsulent, den vurderende konsulent<br />

samt den forretningsdrivende konsulent. I samtlige rapporter varieres der mellem<br />

forskellige afsenderidentiteter. I de otte undersøgte rapporter skriver forfatteren<br />

således ud fra i alt tre til fem forskellige roller. Den nøgterne og den opsummerende<br />

konsulentrolle anvendes i seks af de i alt otte rapporter, mens den faciliterende<br />

konsulentrolle anvendes i tre. Endelig optræder de evaluerede aktører som afsendere i<br />

to rapporter (se bilag 4I og figur 9d).<br />

102


9.1.1.3. En bevilling på spil<br />

En af evalueringernes og reviewenes vigtigste kontrolfunktioner er at fungere som<br />

grundlag for donors beslutning om at forlænge bevillingen til de evaluerede<br />

projekter. Der er dog forskel på, i hvilket omfang de enkelte reviews og evalueringer<br />

gennemføres specifikt med formålet at genoverveje bevillingen. Det afhænger såvel<br />

af donors prioriteringer som af tidspunktet for bedømmelsesaktiviteten. I to af de<br />

analyserede rapporter har vi set eksempler på, at bevillingen eksplicit er til<br />

genovervejelse, hvilket nedenstående uddrag fra reviewet af Zambia i 2002<br />

illustrerer:<br />

A Phase III is contingent, however, upon a positive outcome of the review. A<br />

positive outcome of the review involves that the review sees a continued basis<br />

for Danish support to the media sector in Zambia. (Zambia 03:45)<br />

I to andre rapporter gives der allerede i kommissorierne eksplicitte ’trygheds-<br />

garantier’ til projekterne, idet det erklæres, at bevillingen ikke står på spil. Formålet<br />

med bedømmelsen er således mere lærings- end kontrolorienteret. Af kommissoriet<br />

til reviewet af MISA i 2004 fremgår det eksempelvis, at den næste fase ikke står til<br />

diskussion, og at dialogen mellem MISA og donorerne antages at fortsætte – uanset<br />

udfaldet af vurderingen:<br />

Further to this, it is viewed as an important mechanism for dialogue within<br />

MISA and between MISA and its strategic partners. This review will form the<br />

basis of MISA’s next phase of its operations. (MISA 04:45)<br />

Af de resterende fire rapporter fremgår det ikke eksplicit, hvorvidt de forholder sig til<br />

bevillingen.<br />

9.1.1.4. Anvendte metoder<br />

Det fjerde parameter, som indgår i vurderingen af lærings- og kontrolkomponenterne<br />

i de undersøgte rapporter, er de anvendte undersøgelsesmetoder under dokument- og<br />

feltstudierne. I de tilfælde, hvor konsulenterne kun anvender enkeltinterviews og<br />

dokumentanalyse, betragter vi dette som et udtryk for, at kontrolelementet er<br />

fremherskende. Modsat anser vi det for et læringselement, når konsulenterne<br />

supplerer dokumentanalyse og enkeltinterviews med anvendelse af participatoriske<br />

metoder som eksempelvis workshops, emaildebatter og lignende. Forklaringen herpå<br />

findes i de to forskellige evaluatorroller, som realiseres under brug af henholdsvis<br />

participatoriske og såkaldte ’distancerede metoder’ (Patton 1986:102). Patton<br />

illustrerer den vidensudveksling som finder sted i kontrolevaluering og i<br />

participatorisk læringsevaluering således:<br />

103


Participant Participant<br />

Evaluator<br />

Participant Participant<br />

Pilene betegner det ”knowledge flow” (Patton 1986:156), som finder sted i en<br />

evalueringsproces, og med den sammenkædning af begreberne viden og magt, som<br />

Foucault foretager, kan pilene også ses som et forsøg på at skitsere magtpositionerne<br />

mellem evaluator og evaluerede aktører. I figur 9b illustreres det, hvordan<br />

evaluatoren i en kontrolevaluering opsamler og vurderer informationer fra de<br />

evaluerede aktører. Evaluator bliver i dette tilfælde centrum for den indsamlede<br />

evalueringsviden og har derved magten til at vurdere genstanden egenhændigt. Figur<br />

9b illustrerer en participatorisk læringsevaluering, hvor den primære videns-<br />

udveksling finder sted mellem de evaluerede aktører og den sekundære mellem<br />

evaluator og de evaluerede aktører. I denne model distribueres informationerne<br />

mellem alle involverede aktører, og man kan derfor ikke i samme grad betegne<br />

evaluator som videns- og magtcentrum.<br />

9.1.1.5. Afrapportering<br />

Et femte og sidste parameter, vi har analyseret rapporterne ud fra, er måden, hvorpå<br />

debriefingen er foregået. Hvor debriefingen finder sted som en mundtlig diskussion<br />

mellem konsulenterne og de evaluerede aktører, gives sidstnævnte mulighed for at<br />

påvirke og kommentere evalueringsresultatet. En mundtlig debriefing ser vi som et<br />

forsøg på at inddrage partneren aktivt i opfølgningen af evalueringen/reviewet og<br />

dermed søge at omsætte den indsamlede viden til egentlig organisatorisk læring.<br />

Aflægges debriefingen derimod som en skriftlig rapport, betragter vi dette som en<br />

mere passiv feedback, hvor konsulenterne orienterer de evaluerede aktører om,<br />

hvordan vurderingen er faldet ud – uden at give dem samme mulighed for at<br />

diskutere og forholde sig til konklusionerne.<br />

Participant Participant<br />

Evaluator<br />

Participant Participant<br />

Figur 9b: Kontrolevaluering Figur 9c: Participatorisk evaluering<br />

Vi har nu gennemgået de i alt fem parametre, som vi har anvendt i vores analyse af<br />

vægtningen af kontrol og læring i evaluerings- og reviewrapporterne. Parametrene<br />

skal på ingen måde betragtes som udtømmende, idet man også kan pege på<br />

forekomster af andre elementer i rapporterne, som peger på enten kontrol eller<br />

læring. For ikke at komplicere analysen unødigt har vi udvalgt de fem spørgsmål,<br />

som vi finder mest væsentlige, og vi foretager en forsimpling ved at sideordne de fem<br />

parametre. Man kunne eksempelvis argumentere for, at det er mere væsentligt for en<br />

104


edømmelses kontrolsigte, om der står en bevilling på spil eller ej, end om<br />

debriefingen er foregået skriftligt eller mundtligt. Denne diskussion går vi med vilje<br />

ikke nærmere ind i, da formålet med analysen alene er at danne et overblik over<br />

forekomsten af lærings- og kontrolkomponenter i rapporterne og dermed empirisk<br />

underbygge påstanden om, at ingen evaluering / intet review har enten et lærings-<br />

eller et kontrolsigte, men at alle forløb rummer begge komponenter.<br />

9.1.2. Oversigt over de analyserede rapporter<br />

På skemaform ser en oversigt over forekomsten af lærings- og kontrolkomponenter i<br />

de otte rapporter således ud:<br />

Målopfyldelse,<br />

effektvurdering<br />

Kontrolkomponenter<br />

Afsender: nøgtern/<br />

opsummerende kons.<br />

Bevillingen er eksplicit til<br />

genovervejelse<br />

Metoder: Interviews,<br />

dokumenter, observation<br />

Skriftlig debriefing<br />

Erfaringsopsamling,<br />

anbefalinger<br />

Læringskomponenter<br />

Afsender: Faciliterende<br />

kons./evaluerede aktører<br />

Partnerne gives en eksplicit<br />

’tryghedsgaranti’<br />

Participatoriske metoder:<br />

workshops, debat, mm.<br />

X X X X NSJ 02 X<br />

X X X X MISA 02<br />

Generel<br />

X<br />

X X<br />

X<br />

medieeval. 99/00 X<br />

X<br />

X MISA 01/02 X X X X X<br />

X X X X Bangladesh 01/02 X<br />

X X X X Zambia 02 X X X<br />

X X X X X NSJ 03 X<br />

X MISA 04 X X X X X<br />

Figur 9d 47<br />

Figuren viser, at alle rapporter både rummer kontrol- og læringskomponenter.<br />

Eksempelvis er der i samtlige otte rapporter både en målopfyldelses-/effektvurdering<br />

og erfaringsopsamlinger/anbefalinger. Samtidig illustrerer figuren også, at<br />

rapporterne vægter kontrol- og læringskomponenterne forskelligt. Dette har vi søgt at<br />

uddybe yderligere ved at placere de otte rapporter på et kontinuum, hvor kontrol<br />

udgør det ene yderpunkt og læring det andet. Den metode, vi har anvendt hertil, er at<br />

opgøre antallet af kontrolkomponenter, som er repræsenteret i den enkelte rapport, og<br />

fratrække antallet af læringskomponenter – jo højere en værdi dette regnestykke<br />

giver, desto højere grad af kontrol. Eksempelvis rummer evalueringen af NSJ fra<br />

2002 i alt fire kontrolkomponenter og en læringskomponent. Når læringskomponen-<br />

terne trækkes fra antallet af kontrolkomponenter, får evalueringen værdien +3.<br />

47 I bilag 4 findes samtlige registranter udarbejdet under analysen: NSJ 02 i bilag 4A; MISA 02 i bilag<br />

4B; Den generelle medieevaluering i bilag 4C; MISA 01/02 i bilag 4D; Bangladesh 01/02 i bilag 4E;<br />

Zambia 02 i bilag 4F; NSJ 03 i bilag 4G og MISA 04 i bilag 4H.<br />

Mundtlig debriefing<br />

105


Maksimalt kan en rapport opnå en værdi på +5/-5, hvorfor nedenstående skala spæn-<br />

der over netop disse værdier:<br />

Læring<br />

-5<br />

Figur 9e<br />

-4<br />

MISA 01/02<br />

MISA 04<br />

-3<br />

-2<br />

-1<br />

0<br />

Generel<br />

medieevaluering<br />

99/00<br />

+1<br />

Zambia 02<br />

+2<br />

+3<br />

NSJ 02<br />

MISA 02<br />

Bangladesh 02<br />

+4<br />

NSJ 03<br />

På baggrund af de otte rapporters fordeling på kontrol-lærings-kontinuumet inddeler<br />

vi dem i tre hovedgrupper:<br />

Længst til højre på kontinuumet med værdier på +3 og +4 befinder der sig fire<br />

rapporter: evalueringerne af NSJ og MISA fra 2002 samt reviewene af<br />

Bangladesh 01/02 og NSJ fra 2003, som alle vægter kontrolaspektet højere end<br />

læring. I afsnit 9.2.1. præsenterer vi de to reviewforløb af NSJ og mediestøtten til<br />

Bangladesh som eksempler på, hvordan kontrolformålet opleves af de<br />

involverede parter og kommer til udtryk i rapporterne.<br />

Længst til venstre på skalaen med værdien -4 er de to reviews af MISA 01/02 og<br />

MISA 04. I begge disse rapporter vægtes læringsaspektet højere end kontrol, og<br />

vi vil gennemgå de to forløb i 9.2.2. som afsæt for en senere diskussion af<br />

muligheden for at gennemføre participatoriske læringsevalueringer i Danidaregi.<br />

I midten af kontinuumet ses to evalueringer med værdier på hhv. +1 og -1. Det<br />

drejer sig om den generelle medieevaluering 99/00 (Danida 2000A) samt et<br />

review af mediestøtten til Zambia foretaget i 2002. Begge disse rapporter vægter<br />

kontrol- og læringsaspekterne nogenlunde lige højt – dog med den væsentlige<br />

forskel, som ikke fremgår tydeligt af ovenstående opgørelse, at hvor reviewet af<br />

Zambia kan karakteriseres som en kombination af kontrol og læring, har den<br />

generelle medieevaluering snarere karakter af et hverken-eller. Dette forhold<br />

gennemgår vi i afsnit 9.3.1., hvor de to forløb præsenteres nærmere.<br />

9.2. Præsentation af evaluerings- og reviewforløb<br />

I dette afsnit præsenteres de seks evaluerings- og reviewforløb, som vi har viden om<br />

fra rapporter samt fra interviews med evaluerede aktører, konsulenter og opdrags-<br />

giverrepræsentanter. Præsentationen vil blive ganske kort, idet den blot danner<br />

grundlaget for en videre diskussion af de temaer og problemstillinger, som rejser sig i<br />

de enkelte cases. Formålet med præsentationen her er således at introducere læseren<br />

for den viden, vi har om evaluerings- og reviewforløb og dermed give denne<br />

mulighed for at kigge os i kortene og løbende vurdere analyseresultaternes gyldighed.<br />

+5<br />

106<br />

Kontrol


9.2.1. To ’kontrolreviews’: Bangladesh og NSJ 03<br />

9.2.1.1. Review af Nordic-SADC School of Journalism (NSJ) i 2003 48<br />

Danida har siden 1993 støttet NSJ – en journalistisk efteruddannelsesinstitution, som<br />

servicerer hele det sydlige Afrika. Støtten til NSJ er blevet doneret i faser, og det<br />

review, der blev foretaget i foråret 2003, var et slutreview, som dels havde til formål<br />

at opsamle erfaringer fra støttefasen 2000-2003: ”The review will, in addition, focus<br />

on the lessons learnt and main problems encountered during the implementation.”<br />

(NSJ 03:32). Dels skulle reviewet vurdere basis for at forlænge bevillingen: ”based<br />

on a positive review…” (NSJ 03:31), og endelig lægges der i kommissoriet op til, at<br />

reviewholdet kommer med anbefalinger til en eventuel ny fase (ibid.). Fra opdrags-<br />

givers side var der således lagt op til, at reviewet både skulle bidrage til kontrol og<br />

læring – dog med vægt på kontrol.<br />

Reviewholdet bestod af en dansk og en sydafrikansk konsulent 49 , som hver blev<br />

aflønnet for fire arbejdsuger, det vil sige tyve dage. Feltstudiet varede i sig selv tyve<br />

dage, og heraf bestod de fjorten af tæt pakkede dagsprogrammer på op til tolv timer<br />

dagligt, hvor reviewholdet indsamlede datamateriale. Blandt andet gennemførte de<br />

interviews med i alt 52 personer. De resterende seks dage var afsat til rapport-<br />

skrivning og interne diskussioner konsulenterne imellem. Rapporten fokuserer på<br />

organisatoriske og implementeringsmæssige vanskeligheder i NSJ og forholder sig<br />

meget kritisk – særligt i forhold til NSJ’s ledelse. Kritikken kommer til udtryk blandt<br />

andet i form af bagudrettede reprimander og en eksplicit placering af ansvar – både<br />

hos projektorganisationen og de implementerende enheder:<br />

The review team finds that this process should have deserved much more<br />

ongoing and systematic attention and intervention from all involved parties –<br />

RDE, Advisors, and in particular the NSJ Board and Executive Director. (NSJ<br />

03:23, vus.)<br />

Trods kommissoriets eksplicitte kontrolsigte, hvor det fremhæves, at bevillingen er til<br />

genovervejelse, munder kritikken ikke ud i en anbefaling om nedlæggelse af<br />

projektet, men konsulenterne tilkendegiver med brug af understregende biord og<br />

modalverbet ’will’, at kritikken bør få konsekvenser: “it will be necessary for the NSJ<br />

to carefully consider its future” (NSJ 03:5, vus.). Vi inddrager casen NSJ 03 i kapitel<br />

13 som afsæt for en diskussion af, hvorvidt Danida reelt genovervejer bevillinger<br />

som en følge af kritiske reviews og evalueringer.<br />

48 Registrant: bilag 4G, rapport: bilag 11.<br />

49 På missionen deltog endvidere en medarbejder fra Danida, hvis opgave var at undersøge basis for et<br />

styrket donorsamarbejde i forbindelse med en ny bevillingsstruktur. Danidamedarbejderen deltog<br />

således ikke i selve reviewarbejdet.<br />

107


9.2.1.2. Review af mediebistanden til Bangladesh 01/02 50<br />

Danida har støttet den lokale mediesektor i Bangladesh siden 1999 som en del af et<br />

større program til fremme af menneskerettigheder og god regeringsførelse i landet.<br />

Fase to af bevillingen løb fra 2000 til 2003 og undergik et midtvejsreview i vinteren<br />

2001/2002. Kommissoriet for reviewet er det mest omfattende (ti sider) i vores<br />

empiri og stiller krav om en særdeles grundig effektmåling samt en vurdering af<br />

muligheder for en kommende støttefase. Hvor bredt og ambitiøst formuleret<br />

kommissoriet er, illustreres i dette eksempel, som angiver et lille udpluk af de temaer,<br />

reviewholdet forventes at forholde sig til:<br />

…assess the relevance and, if applicable, formulate proposals on support for:<br />

legal assistance and health insurance for journalists, law reform work, the Press<br />

Council, media monitoring, the relationship between the media sector and the<br />

civic society, environmental journalism, journalist associations, editor/owners’<br />

associations, press clubs, regional networks and initiatives. (Bangladesh 02:31)<br />

De fem eksterne konsulenter, som indgik på holdet, fik samlet løn for 25 ugers<br />

arbejde, hvilket gør Bangladesh-reviewet til det ressourcemæssigt mest omfangsrige<br />

studie, som indgår i vores empiri. Holdet havde således flere ressourcer til rådighed<br />

end eksempelvis den generelle medieevaluering (Danida 2000A). Dokumentstudiet<br />

omfattede i alt 183 dokumenter herunder projektdokumentation, avisartikler og<br />

tekstanalyse af projekternes publikationer. I løbet af deres forstudier i Danmark og<br />

det tolv dage lange feltstudium mødtes konsulenterne med i alt 193 personer og<br />

foretog blandt andet observationer af kurser, lavede en lille receptionsanalyse og<br />

besøgte en række af de støttede projekter. På baggrund af dette særdeles omfattende<br />

datamateriale udarbejdede reviewholdet en rapport, som adskiller sig fra de øvrige<br />

syv rapporter, på den måde at det er lykkedes holdet at leve op til det meget<br />

ambitiøse kommissorium og rent faktisk levere en vurdering af mediebistandens<br />

effekter på alle ønskede niveauer. At rapporten er kogt ned til 25 sider betyder, at der<br />

ikke er en indgående vurdering af de enkelte projekter, hvorfor rapporten – trods dens<br />

kontrolkarakter i form af et kraftigt fokus på effektmåling – ikke kontrollerer de<br />

evaluerede aktører i form af ansvarsplacering og revurdering af de enkelte projekters<br />

bevilling. Alligevel gav reviewprocessen anledning til en stærk oplevelse af utryghed<br />

og utilfredshed blandt de evaluerede aktører, som vi vil beskæftige os mere<br />

indgående med senere i analysedelen, hvor vi inddrager denne case som et eksempel<br />

på, at partnernes oplevelse af forløbet afhænger af andre faktorer end den skrevne<br />

rapport.<br />

9.2.2. Den generelle medieevaluering og Zambia 02: Både/og eller<br />

hverken-eller?<br />

De to rapporter, der har værdien -1 og +1 på skalaen i figur 9e, er som nævnt meget<br />

forskellige. Hvor den generelle medieevaluering hverken kan karakteriseres som en<br />

50 Registrant: bilag 4E, rapport: bilag 9.<br />

108


lærings- eller en kontrolevaluering, rummer reviewet af mediestøtten til Zambia<br />

elementer af begge dimensioner.<br />

9.2.2.1. Den generelle medieevaluering 51<br />

Læser man kommissoriet, fremgår det, at formålet med evalueringen af Danidas<br />

mediebistand i årene 1990-1998 er ikke bare læring, men ’selvkritisk læring’:<br />

As this is a ”lessons learnt” evaluation, the emphasis is on accumulation of<br />

experience and self-critical learning, rather than on accountability. (Danida<br />

2000A:54)<br />

Kommissoriet opstiller en lang række emner, som evalueringsholdet skal forholde sig<br />

til – lige fra graden af kontekstfølsomhed i indsatsen over donorkoordination til<br />

mediebistandens effekter på demokrati og menneskerettigheder. Af hensyn til kravet<br />

om uafhængighed var konsulentholdet sammensat således, at ingen af deltagerne<br />

tidligere havde været involveret i dansk mediebistand. I kombination med det<br />

forhold, at Danida savnede et overblik over aktiviteterne på området, betød<br />

konsulenternes manglende forhåndskendskab, at holdet brugte stort set al tiden på at<br />

danne sig et indtryk af problemstillingerne på mediefeltet samt et overblik over<br />

Danidas mediebistandsaktiviteter. Resultatet blev, at rapporten kun i ringe omfang<br />

fremdrager læringspunkter og i stedet fokuserer på opgørelser over aktiviteter og en<br />

fremstilling af normative teorier om mediernes rolle i demokratiet. Man kan således<br />

ikke tale om, at evalueringsrapporten i sig selv rummer væsentlige kontrol- eller<br />

læringselementer.<br />

Dette affødte skuffelse hos både konsulenterne, opdragsgiveren og de evaluerede<br />

aktører, som alle havde forventet en ’selvkritisk’ læringsproces. En ansat i Danida<br />

omtaler evalueringen således:<br />

Man kan sige at den der generelle [evaluering], der blev lavet på<br />

menneskerettigheder og demokratisering, hvor medier var en del af det, da<br />

syntes jeg jo, at de var meget venlige, vil jeg sige. Der synes jeg jo nok, at hvis<br />

jeg selv skulle have lavet den, så kunne jeg være kommet med nogle flere<br />

kritiske kommentarer, for når man sidder med det selv, så kan man jo som<br />

regel se flere nuancer, end hvis man kommer fuldstændigt udefra og skal sætte<br />

dig ind i sådan et nyt område og sådan tænker, ’nå, men det går da nok meget<br />

godt det hele’. (<strong>OG</strong>)<br />

Den citerede Danidaansatte kæder manglen på kritik og læring sammen med<br />

konsulenternes manglende forhåndskendskab til mediebistandsfeltet. Omvendt giver<br />

en af konsulenterne Danidas ”system” skylden for det skuffende resultat:<br />

Der ligger altså et eller andet i det der system (griner), som gør, at man skal<br />

noget bestemt. Jeg synes, at vi endte med at skrive en enormt kedelig rapport,<br />

som ikke endte med at sige noget som helst. Og det… Jeg syntes, det var meget<br />

frustrerende. Jeg ærgrer mig. (KS)<br />

51 Registrant: bilag 4C, rapport: Danida 2000A.<br />

109


Vi inddrager den generelle medieevaluering (Danida 2000A) til at belyse de forhold<br />

ved ’systemet’ og ved konsulenterne, som udgør barrierer for gennemførelsen af<br />

kritiske evalueringer i Danida – herunder konsulenternes uafhængighed og Danidas<br />

tendens til at udarbejde meget ambitiøse evalueringskommissorier (se kapitel 11).<br />

9.1.2.2. Zambia 02 52<br />

I modsætning til den generelle medieevaluerings kommissorium lægger<br />

kommissoriet for reviewet af Danidas mediebistand til Zambia op til en høj grad af<br />

kontrol. Eksempelvis fremgår det eksplicit, at såvel den samlede bevilling som<br />

bevillingerne til hvert enkelt af de støttede projekter er til genovervejelse (Zambia<br />

02:45 & 48). Reviewholdet bestod af i alt fire eksterne konsulenter: tre danske og en<br />

zambisk, og de fik i alt løn for tyve arbejdsuger. I løbet af dokument- og feltstudierne<br />

indsamlede og analyserede reviewholdet 90 dokumenter og interviews med i alt 57<br />

personer. På baggrund af dette relativt omfattende datamateriale foretog<br />

konsulenterne en analyse af mediebistandens omfang og kvalitet med særlig fokus på<br />

implementeringsvanskeligheder. Både Danida og Danidas partnere kritiseres i<br />

rapporten, som især problematiserer forholdet mellem en ekstern IO og en af<br />

projektorganisationerne.<br />

Man kunne forvente, at kombinationen af et eksplicit kontrolsigte og kritik af<br />

navngivne organisationer ville afføde en oplevelse af utryghed blandt de evaluerede<br />

aktører. Dette er imidlertid ikke tilfældet – tværtimod beskriver en repræsentant for<br />

en af de kritiserede partnerorganisationer reviewforløbet som konstruktivt:<br />

… vi blev så hørt, efter de havde været dernede, med de ting de havde fundet<br />

ud af dernede og vores holdninger og vores meninger om det og vores<br />

reaktioner, vores synspunkter, og så videre. Så der var vi meget involveret,<br />

også fordi at den review, den… hvad skal man sige… den øh… den afdækkede<br />

og… hvad skal vi kalde det… den bragte nogle problemer i projektimplementeringen<br />

frem, vil jeg sige. (…) Og vi blev også meget involveret i en<br />

diskussion af: ’Jamen, hvad kunne så være en bærbar vej frem for en justering<br />

af projektet?’ (PO)<br />

Citatet viser, hvor vigtig inddragelsen af de evaluerede aktører er for disses oplevelse<br />

af processen og for deres accept af en eventuel kritik. En af konsulenterne fra<br />

reviewholdet forklarer her den valgte formidlingsstrategis betydning for, hvorvidt et<br />

reviews konklusioner omsættes til organisatorisk læring:<br />

… jeg tror, at selve processen også giver noget for organisationen, ikke? Jeg<br />

mener altså… du… Når du gennemfører det, så har du det, der hedder en øh…<br />

en briefing eller debriefing, hvor du sætter dig ned sammen med både<br />

donorerne og med samarbejdspartnerne og gennemgår det, du ligesom… de der<br />

anbefalinger og konklusioner, du er kommet frem til, og diskuterer det med<br />

dem. (KS)<br />

110


Ved at debriefe mundtligt til både ambassaden, projektorganisationerne, den eksterne<br />

IO og BFT, formåede konsulenterne at kombinere kontrol med læring i en og samme<br />

reviewproces. I kapitel 10 behandler vi med afsæt i reviewet af mediestøtten til<br />

Zambia, hvordan interaktionen mellem konsulenter, de evaluerede aktører og<br />

opdragsgiveren foregår under feltstudierne, og vi inddrager desuden casen i kapitel<br />

12 i forbindelse med en diskussion af partnernes motivation for at følge op på<br />

rapportens konklusioner.<br />

9.2.3. To reviews af MISA – eksempler på læringsprocesser<br />

Vi er nu fremme ved de to sidste cases, vi vil præsentere i dette afsnit. Det drejer sig<br />

om to reviews af organisationen MISA (Media Institute of Southern Africa), som har<br />

eksisteret siden 1992. Det ene review er gennemført i 2001 og udgivet i 2002 (MISA<br />

01/02), og det andet er gennemført i sommeren 2004 (MISA 04). Begge reviews er<br />

designet efter en participatorisk læringsmodel, hvor konsulenterne i alle faser har<br />

tilstræbt en høj grad af inddragelse af de reviewede aktører.<br />

9.2.3.1. MISA 01/02 53<br />

Reviewet af MISA fra 2001/2002 er gennemført i samarbejde mellem Danida, Sida<br />

og Hivos. Kommissoriet til reviewet er ganske omfattende – ni sider – og det eneste<br />

eksempel i vores empiri på, at kommissoriet indeholder specifikke metode-<br />

anvisninger som denne:<br />

A participatory evaluation shall be used as a method to allow a process which<br />

invites all identified stakeholders to articulate and present their needs, interests,<br />

and expectations. (MISA 01/02:8)<br />

Reviewet blev udført af i alt fem eksterne konsulenter 54 . som i forlængelse af<br />

kommissoriets krav anvendte ”a highly participatory methodology” (MISA 01/02:vi)<br />

og gennemførte en række workshops med de evaluerede aktører. På baggrund af<br />

diskussionerne her identificerede konsulentholdet nogle problemfelter, som blev<br />

diskuteret af de involverede aktører per e-mail i en måned. Syntesen af emaildebatten<br />

blev fremlagt på endnu en workshop og diskuteret på et opfølgningsmøde mellem<br />

donorer og partnere, hvor konsulenterne ikke var til stede. Rapporten afspejler i høj<br />

grad de evaluerede aktørers synspunkter enten i form af direkte citater eller indirekte<br />

henvisninger (bilag 4D: afsnit 2.3.2.).<br />

MISA er et af Danidas flagskibe på mediebistandsområdet, og denne status nyder<br />

organisationen også hos de fleste andre donorer. Organisationen står således ikke i<br />

reel fare for lukning. Skulle projektorganisationens medlemmer alligevel være i tvivl,<br />

53 Registrant: bilag 4D. Rapport: bilag 8.<br />

54 Evalueringsholdets leder er ekstern i den forstand, at vedkommende på daværende tidspunkt havde sit<br />

eget konsulentfirma. Men vedkommende har tidligere været rådgiver for MISA (KS) og opfyldte<br />

dermed ikke kravet om ikke at have været involveret i implementeringen af det reviewede/evaluerede<br />

projekt.<br />

111


søger konsulenterne at aflive en eventuel utryghed i forhold til reviewets<br />

konsekvenser allerede på rapportens tredje side, hvor de dels tilkendegiver deres<br />

sympati med projektet og garanterer projektets fremtid: ”Good luck to MISA in its<br />

continued effort to promote free and pluralistic media in Southern Africa” (MISA<br />

01/02).<br />

Af rapporten fremgår det, at konsulenterne har oplevet den participatoriske proces<br />

som konstruktiv og ærlig: ”The depth of the analysis is very much a result of the<br />

open and frank discussions conducted” (MISA 01/02:3, vus.). Det underbygges af en<br />

interviewperson, der beskriver forløbet som en ”interaktiv proces” (KS).<br />

9.2.3.2. MISA 04 55<br />

Efter reviewet/evalueringen i 2001/2002 blev det besluttet, at MISA skulle reviewes<br />

årligt. Reviewet fra 2004 er det andet af disse årlige reviews, og det er initieret og<br />

designet i et samarbejde mellem de fire donorer, som bevilger penge til MISA,<br />

herunder Danida 56 . Evalueringsholdet bestod af to konsulenter, hvoraf den ene – en<br />

konsulent fra Zimbabwe – var udpeget af MISA og havde deltaget på reviewholdet<br />

året før. Den anden konsulent er ansat i Danidas BFT og er således et sjældent set<br />

eksempel på, at man fra donorernes side ser stort på kriteriet om uafhængighed og<br />

hyrer en intern konsulent til at foretage et review.<br />

Kommissoriet lægger ikke specielt op til anvendelse af participatoriske metoder, men<br />

beskriver blot, at konsulenternes vurdering af MISA’s grad af målopfyldelse ønskes.<br />

Af kommissoriet fremgår det endvidere eksplicit, at bevillingen ikke står på spil (se<br />

afsnit 9.1.1.3.). Feltstudiet blev designet som en flerdages workshop, hvor<br />

konsulenterne lagde vægt på at facilitere menings- og erfaringsudveksling internt<br />

mellem projektorganisationens medlemmer, som det er illustreret i figur 9c. At<br />

målene med de anvendte metoder i vidt omfang er blevet indfriet, fremgår blandt<br />

andet af deltagernes evaluering af reviewprocessen, der er vedlagt som bilag til<br />

reviewrapporten (MISA 04, annex 5). Forløbet får særdeles gode skudsmål af de<br />

evaluerede aktører, der blandt andet bruger vendinger som: ”Educative and very<br />

enlightening”, ”interactive and reflective”, ”very inspiring”, “useful and<br />

empowering” og ”participatory” (MISA 04:76). Alle disse betegnelser rammer ind i<br />

en participatorisk læringsdiskurs, i fremstillingen af hvilken vi blandt andet<br />

præsenterede begreber som myndiggørelse, refleksion og participation. At det er<br />

lykkedes for reviewholdet at facilitere en åben og ærlig dialog, underbygges af disse<br />

deltagerudsagn: ”I feel there was HONESTY and willingness to look into our<br />

problems”, ”a level of honesty that is very unlike MISA” (MISA 04:76). Dette er<br />

interessant, især i betragtning af, at den ene af konsulenterne direkte repræsenterede<br />

55 Registrant: Bilag 4H. Rapport: Bilag 12.<br />

56 Norad (Norge), Sida (Sverige), Hivos (hollandsk NGO), Danida (Danmark).<br />

112


donorsiden. Omstændighederne omkring reviewet kunne man umiddelbart tro ville<br />

have affødt utryghed og mistillid.<br />

Vi vender senere til de to reviews af MISA med henblik på at undersøge hvilke<br />

betingelser, der synes at skulle være opfyldt, for at participatorisk læring kan<br />

gennemføres i Danidaregi. Vi vil desuden nuancere billedet af den læring, som har<br />

fundet sted i forbindelse med de to reviewprocesser.<br />

9.3. Opsamling<br />

Med ovenstående dokumentanalyse og fremstilling af de seks review- og<br />

evalueringsforløb har vi søgt at vise, at alle forløb rummer elementer af både læring<br />

og kontrol – om end i forskellig grad. Dette har vi illustreret ved at placere de otte<br />

analyserede rapporter på et lærings-kontrol-kontinuum afhængig af, i hvilken grad de<br />

rummer fremstillingsmæssige og/eller metodiske komponenter, som peger på enten<br />

kontrol eller læring. Gennemgangen af de seks forløb viser desuden, at radiobils-<br />

metaforen (Dahler-Larsen 2004:13) lader til at være dækkende for evaluerings- og<br />

reviewprocesserne, idet disse ikke forløber forudsigeligt i overensstemmelse med det<br />

formål, der er fastlagt i kommissorierne. En pointe, som særligt den generelle medie-<br />

evaluering (afsnit 9.2.2.1.) illustrerer. At de involverede aktører ofte oplever det<br />

samme forløb forskelligt, og at deres oplevelser afhænger af mange andre faktorer<br />

end ordlyden i den skrevne rapport, fremgår eksempelvis af reviewene af Bangladesh<br />

(afsnit 9.2.1.2.) og Zambia (afsnit 9.2.3.2.).<br />

Dette kapitel har – i lighed med de to foregående – haft til formål at præsentere vores<br />

datamateriale og introducere de forskellige manifestationer af kontrol- og lærings-<br />

forståelser i interviews og dokumenter. Vi har dermed søgt at lægge grunden for en<br />

mere problematiserende og diskuterende analyse af de forhandlinger, som lærings- og<br />

kontrolformålene er genstand for. Dette drejer de følgende kapitler sig om.<br />

113


10. Konsulenten som stødpude mellem donor og<br />

modtager<br />

Vi har nu præsenteret empirien og redegjort for evalueringer og reviews som grænse-<br />

objekter, der er til forhandling mellem forskellige praksisfællesskabers forståelser og<br />

interesser. I dette og de kommende kapitler undersøger vi evalueringer og reviews<br />

rolle som knudepunkt for forhandlinger om relationerne mellem Danida og Danidas<br />

partnere på mediebistandsområdet. Det forholder sig imidlertid sådan, at disse to<br />

praksisfællesskaber sjældent interagerer direkte i udførelsen af evalueringer og<br />

reviews. I stedet kommunikerer de gennem konsulenterne, hvis identitet som følge<br />

heraf bliver en genstand for og en afspejling af de ofte komplekse forhandlinger<br />

mellem donor og modtager. Ved at fokusere på konsulentidentiteten og særligt på de<br />

punkter, hvor den viser sig problematisk og ustabil, søger vi at indkredse konflikt-<br />

fyldte aspekter af donor-modtager-relationen.<br />

10.1. Den uafhængige, upartiske konsulent<br />

Under gennemgangen af den evalueringsteoretiske kontroldiskurs redegjorde vi for,<br />

hvorfor uafhængighedsprincippet er en forudsætning for, at evalueringer kan bidrage<br />

til at øge Danidas demokratiske legitimitet. I en udredning af Danidas evaluerings-<br />

funktion er sammenhængen mellem uafhængighed, troværdighed og legitimitet<br />

beskrevet således:<br />

Evalueringer spiller en helt særlig rolle som informationskilde, fordi de er<br />

udarbejdet af uafhængige konsulenter efter internationalt anerkendte principper<br />

og standarder. Som i mange andre lande afhænger den danske befolknings<br />

villighed til at bruge penge til bistand i stadig stigende grad af Danidas evne til<br />

at dokumentere bistandens resultater og nyttevirkning. (Danida 2003A:14)<br />

Principper om objektivet, troværdighed og uafhængighed står således centralt i<br />

Danidas evalueringsretningslinier (Danida 1999:2f. og 84f.) og er styrende for valg af<br />

konsulenter i forbindelse med både reviews og evalueringer. Også blandt<br />

konsulenterne selv trives idealet om objektivitet og uafhængighed, hvilket blandt<br />

andet kommer til udtryk i en udbredt anvendelse af den nøgterne og opsummerende<br />

afsenderidentitet samt i hyppigt forekommende ’uafhængighedserklæringer’ som<br />

denne:<br />

It should be noted that this report contains the views of the review team, which<br />

do not necessarily correspond to the views of the Government of Denmark or<br />

the Government of Bangladesh. (Bangladesh 02:i)<br />

Antager man, at konsulenterne faktisk spiller en upartisk og neutral rolle i<br />

forhandlingerne mellem donor og modtager, er konsulentidentiteten uvæsentlig at<br />

fordybe sig i. Imidlertid er den uafhængige konsulentidentitet særdeles problematisk:<br />

For det første oplever partnerne i udgangspunktet konsulenterne som Danidas<br />

kontrollanter, for det andet ser konsulenterne selv deres rolle som modsætningsfyldt,<br />

114


og endelig kan man for det tredje stille spørgsmålstegn ved, om konsulenternes<br />

uafhængighed af Danida er reel. Disse tre faktorer vil vi belyse i det følgende med<br />

henblik på at vise, at uafhængighedsprincippet spiller en vigtig politisk rolle i<br />

forhandlingerne mellem donor og modtager. Afsættet tager vi i to fortællinger, som<br />

på hver sin måde problematiserer konsulenternes uafhængighed.<br />

10.2. To fortællinger om utryghed og uafhængighed<br />

Vi viderebringer her to fortællinger, hvoraf den første omhandler en partners<br />

oplevelse af at blive udsat for inspektion af et eksternt konsulenthold. Her<br />

tematiseres sammenhængen mellem partnernes utryghed og konsulenternes forsøg på<br />

at værne om deres uafhængighed af og distance til de evaluerede aktører. Den anden<br />

fortælling, som vi har kaldt ”høflighedssammensværgelsen”, handler om en af inter-<br />

viewpersonernes oplevelser som rådgiver/konsulent for et projekt, hvor vedkom-<br />

mende selv var genstand for projektaktørernes utryghed i kraft af sin tilknytning til<br />

donoren. ”Høflighedssammensværgelsen” problematiserer konsulenternes tvetydige<br />

identitet som dels donors forlængede arm og dels solidariske med partneren.<br />

10.2.1. ”… sådan en nørd der, jamen altså, det skal han sgu da<br />

ikke have lov til”<br />

- Hvordan var det? At blive review/<br />

Det var da skidesvært (griner)<br />

- Ja? (griner)<br />

De skulle da ikke komme dér og sige noget! (griner)<br />

- Hvordan foregik det? Kan du ikke prøve at fortælle lidt?<br />

Jeg syntes det var svært, fordi de havde en anden tilgang til review end jeg<br />

normalt har, ikke altså. Øh, og øh, og teamleaderens stil, som jeg oplevede den,<br />

var meget at holde kortene tæt til kroppen. Så jeg følte meget, at vi blev<br />

evalueret, eller… ja ikke evalueret, men jeg syntes det var meget svært at<br />

komme tæt på med at fortælle om, hvordan vi nu syntes. Øhm, og hvorfor vi nu<br />

havde foreslået det og det for den næste fase, og hvad overvejelserne i det var.<br />

Jeg syntes ikke, det var rart. Det syntes jeg ikke. Vi havde klart nogle<br />

sammenstød omkring det altså.<br />

- Lærte du noget om organisationen?<br />

Jeg lærte noget negativt, ikke? Jeg lærte, at sådan vil jeg fandeme ikke gøre<br />

det! Altså, det blev sådan/<br />

- Men ikke noget om dit eget arbejde?<br />

Nej. Det var lidt ærgerligt, altså.<br />

- Hvad så efter det review blev udfærdiget? Der kom vel et første udkast, som<br />

du så også fik? Eller hvordan?<br />

115


Altså, det var noget af det, der var svært. At de ikke ligesom respekterede mig<br />

som medspiller, så jeg spillede med at holde kortene tæt til kroppen, ikke. (…)<br />

Jeg kunne ikke engang få, ja de ville ikke engang sende mig deres debriefing<br />

note. Jeg blev nødt til at gå bagom, og ligesom gå hen til min egen konsulent,<br />

som jeg på den anden side ligesom var chef for. Og sige, at han skulle spionere<br />

og hente det der materiale for mig, for jeg ville fandeme have indflydelse, jeg<br />

ville have lov at kommentere, jeg ville have lov at komme til orde. Øh, og<br />

sådan var det hele vejen igennem. Og jeg syntes, det var pissegroft og pisseirriterende,<br />

altså. Og jeg blev ikke inviteret med, når de havde debriefing i Danida,<br />

der blev jeg, de orienterede mig ikke, vel. Der gik jeg selv bag om og gik ind<br />

og sagde til [[den ansatte i BFT]], ’Hvad fanden foregår der?’ ’Nå, men du<br />

skal da også med, selvfølgelig’. Så kom jeg derind, og så var jeg så kommet før<br />

de andre, så da teamleaderen der, han kom ind, da var han ved at gå i gulvet,<br />

for han havde absolut ikke forestillet sig, at jeg skulle sidde der, vel. Og sådan<br />

noget.<br />

- Hvorfor tror du egentlig, at de/<br />

Ja og hvorfor, jamen det har jeg ingen anelse om! Jeg syntes bare, det var så<br />

utilfredsstillende.<br />

- Mmm. Var der nogle særlige kritikpunkter på noget af dit arbejde eller på<br />

strategien eller?<br />

Øh, der er selvfølgelig altid synspunkter, men der var ikke sådan noget med<br />

altså, at der var noget, der var gået rivende galt, på den måde. Overhovedet<br />

ikke, altså. Og der var ikke nogen, der ikke anerkendte, at jeg havde spillet den<br />

rolle, jeg skulle, altså. (P2) Og der kan man jo sige, at for mig var det jo… altså<br />

hvad lærte jeg af det? Jamen, jeg lærte at sådan vil jeg ikke gøre det. Jeg lærte<br />

også, at hvis der kommer sådan en nørd der, jamen altså, det skal han sgu da<br />

ikke have lov til. Ikke? (PO)<br />

Af fortællingen fremgår det, at interviewpersonen oplevede reviewholdets distance<br />

som et udtryk for manglende respekt, hvilket affødte en frustration over og vrede<br />

mod holdets leder, der i fortællingen omtales nedsættende som ”en nørd”.<br />

Fortællingen understreger, at inddragelse er afgørende for partnernes oplevelse og<br />

udbytte af reviews og evalueringer. Processen lader således til at være langt vigtigere<br />

end rapportens konklusioner, der – som vi tidligere har nævnt og som det også<br />

fremgår af interviewpersonens eget udsagn – ikke var videre kritiske, og slet ikke<br />

overfor den pågældende persons indsats. Ved at udføre reviews og evalueringer efter<br />

kontroldiskursens forskrifter, skaber konsulenterne grobund for en følelse af afmagt<br />

og utryghed blandt partnerne, og derved bidrager de til at understrege modernise-<br />

ringsdiskursens asymmetriske donor-modtagerforhold. Uafhængighedsprincippet er<br />

således ikke et neutralt og apolitisk element i de identitetsforhandlinger, som<br />

evalueringer og reviews udgør rammen om. Det uddyber vi efter gengivelsen af<br />

fortællingen om ”høflighedssammensværgelsen”.<br />

10.2.2. Høflighedssammensværgelsen<br />

Det fremgår af ovenstående fortælling, at skønt den interviewede partner følte sig<br />

afmægtig, så var vedkommende det ikke, idet vedkommende via sin kontakt i BFT og<br />

116


ved at få sin konsulent til at ’spionere’ formåede at få medindflydelse på og indsigt i<br />

processen. I den kommende fortælling viser Danidas partnere en tilsvarende<br />

opfindsomhed i forhold til at præge deres interaktion med Danida og konsulenterne.<br />

Denne fortælling er som nævnt et uddrag fra et interview med en rådgiver/konsulent,<br />

som fortæller om sine erfaringer med at balancere mellem på den ene side at være<br />

”en støtte” og ”faglig sparringspartner” for projektorganisationerne, og på den anden<br />

side at have rollen som ambassadens forlængede arm, der varetog kontrol af<br />

projektet. Imens dette ansættelsesforhold stod på, havde interviewpersonen ”en stærk<br />

fornemmelse” af at agere og blive betragtet som uafhængig – en fornemmelse, som<br />

måtte justeres efter hjemkomsten til Danmark:<br />

… min stilling [var] defineret sådan, at jeg var den person, der sad mellem<br />

ambassaden og programmet, altså samarbejdspartneren, ikke. Og hvor en del af<br />

rationalet i stillingen, det var at ambassaden simpelthen ikke havde ressourcer<br />

nok til at lave den der løbende monitorering af, øh, hvad laver de, og laver de<br />

det, de får penge for, og hvad går pengene til, og alt det der, ikke. Og det vil<br />

sige, der lå sådan en kontrolfunktion i, ikke. Og på den anden side, den anden<br />

halvdel af stillingen, var jo ligesom defineret som at være en støtte til<br />

organisationerne.<br />

Det vil sige, det var jo små NGO’er, som havde lavet små projekter op til de<br />

der tre millioner. Som lige pludselig fik deres drøm opfyldt, ikke. De fik en<br />

masse penge, og nu skulle de så ud og ’ahhh’, og alt det, der ligesom skulle<br />

med der, organisatorisk og ledelsesmæssigt og alt muligt i forhold til at få de<br />

der ting i sving, det var klart, at der skulle ligesom sådan noget<br />

kapacitetsopbygning ind. Øh, hvor min rolle ikke var at lave det hele selv, men<br />

altså hjælpe dem med ligesom at prøve at få en forståelse af de processer, og<br />

hjælpe dem med at finde ud af, at nå, men så skal vi lære det, og så skal vi have<br />

nogen ind, der kan hjælpe os med det og så videre og så videre.<br />

Øh (P2), og der havde jeg nok, altså det er jo lidt sjovt at se det så bagefter, når<br />

man holder op, ikke. I selve forløbet, der var jeg egentlig, der havde jeg en<br />

stærk fornemmelse af, at det fungerede meget godt begge dele. At jeg syntes, at<br />

jeg… At jeg godt kunne… At de godt kunne abstrahere fra min<br />

kontrolfunktion, når vi lavede kurser i evaluering og monitorering og hvad det<br />

nu kunne være. Og vi havde alle de der… Der var også klart nogle områder,<br />

nogle sektioner i organisationerne, som tog meget til sig på læringsplanet, ikke.<br />

(P1) Det jeg så fandt ud af bagefter, da jeg holdt op, og sådan har haft lidt med<br />

dem at gøre eller sådan har hørt lidt og sådan noget, bagefter, at der kan jeg se,<br />

at noget af den (respons), jeg troede, jeg havde, har været lidt spil for galleriet<br />

fra deres side, fordi de spillede op til mig, fordi jeg var konsulent. Så noget af<br />

det, jeg mente dengang, at det havde de lært, og at det ville de kunne blive ved<br />

med at performe på det niveau, fordi de ligesom havde taget den der læring til<br />

sig, fordi de ligesom havde taget den der måde at arbejde med projekter og<br />

samarbejdspartnere (utydeligt), at de ligesom havde taget det til sig. Det viste<br />

sig så bagefter, at det havde de altså ikke. At det havde været sådan et spil for<br />

galleriet, fordi at øh, øh… Det er jo så min fortolkning af det, ikke, altså har set<br />

det som: Nåh men, det var så den måde, man ligesom blev nødt til at opføre sig<br />

på, og leve med og så videre, så længe der nu var udsendt sådan en hvid<br />

kontrollant (griner).<br />

Altså, og da jeg så ikke var der længere, så begyndte de så at gøre tingene på<br />

deres egen måde igen, ikke… Hvilket jo altså (utydeligt) (griner). Men jeg,<br />

117


altså, i virkeligheden, konklusionen på det er, og det, det tror jeg også er det,<br />

jeg har plæderet for siden, ja og måske også før, men jeg ved ikke, men det er<br />

simpelthen, at man skal skille de der ting ad, altså. Du kan ikke komme ud den<br />

ene dag med kontrollantkasketten på, og så næste dag være den faglige<br />

sparringspartner, det kan man ikke. Det kan den menneskelige hjerne<br />

simpelthen ikke skille ad. (KS)<br />

Efter at være kommet på afstand af projektet fik konsulenten den opfattelse, at<br />

partnerorganisationerne i vid udstrækning ”spillede op til mig, fordi jeg var<br />

konsulent”. Interviewpersonen oplever således at være blevet udsat for det, vi<br />

tidligere har beskrevet som en høflighedssammensværgelse (”a conspiracy of<br />

courtesy”, Mosse 1993:20) – trods sin opfattelse af sig selv som uafhængig. Hvor<br />

interviewpersonen selv føler, at vedkommende kan adskille sine to roller, så oplever<br />

projektorganisationerne konsulenten som værende overvejende på donors side – og<br />

altså ikke en uafhængig instans. Interviewpersonen problematiserer<br />

projektorganisationens høflighedssammensværgelse eller ”spil for galleriet” på flere<br />

måder. Det fremstilles dels som et implementeringsmæssigt problem, at partnerne<br />

ikke ændrede deres adfærd i den retning, som den daværende rådgiver ønskede:<br />

”Altså, og da jeg så ikke var der længere, så begyndte de så at gøre tingene på deres<br />

egen måde igen”. Dels skildres det som et fagligt og personligt problem for<br />

interviewpersonen, der under opholdet havde en oplevelse af samhørighed og<br />

gensidig forståelse af projektet:<br />

Øh (P2), og der havde jeg nok, altså det er jo lidt sjovt at se det så bagefter, når<br />

man holder op, ikke. I selve forløbet, der var jeg egentlig, der havde jeg en<br />

stærk fornemmelse af, at det fungerede meget godt begge dele. At jeg syntes, at<br />

jeg… At jeg godt kunne… At de godt kunne abstrahere fra min<br />

kontrolfunktion, når vi lavede kurser i evaluering og monitorering og hvad det<br />

nu kunne være. Og vi havde alle de der… (KS, vus.)<br />

I denne passage fra fortællingen ovenfor veksler den tidligere rådgiver mellem at tale<br />

om et ”jeg”, et ”de” og et ”vi”. Anvendelsen af ”vi” indikerer, at vedkommende i<br />

nogen udstrækning har følt sig som en del af projektorganisationen, hvilket<br />

understreges af en indirekte reference til fælles oplevelser: ”Og vi havde alle de<br />

der…”. På den anden side fremgår det også af citatet, at samhørigheden med<br />

projektorganisationen var betinget af, at både rådgiveren/konsulenten og projektaktø-<br />

rerne ”kunne abstrahere” fra førstnævntes kontrolforpligtelser overfor den danske<br />

ambassade.<br />

Det anvendte eksempel drejer sig kun indirekte om reviews og evalueringer, idet det<br />

beskriver en rådgiveransættelse, som ganske vist implicerede bedømmelsesaktiviteter<br />

– men ’kun’ på projektrapporteringsniveau. Når vi alligevel har valgt at give det så<br />

meget plads, skyldes det for det første, at den interviewede konsulent selv drager en<br />

parallel til konsulentrollen i forbindelse med reviews og evalueringer. For det andet<br />

illustrerer eksemplet et gennemgående tema i vores empiri: Konsulentens rolle som<br />

118


stødpude mellem donor og partner. Eller som den ovenfor citerede interviewperson<br />

beskriver sin placering: ”mellem ambassaden og programmet, altså samarbejds-<br />

partneren”.<br />

10.3. Kunden har altid ret…<br />

Den ene side af konsulentidentiteten udløber af den forretningsmæssige relation til<br />

Danida: Danida er opdragsgiveren, kunden, som konsulenten har forpligtet sig på at<br />

levere en tilfredsstillende vare til. Som følge heraf føler konsulenterne sig forpligtet<br />

til at imødekomme opdragsgiverens krav om at kontrollere partnerne, selvom de<br />

interviewede konsulenter gerne vil undgå dette, hvilket fremgår af ovenstående<br />

fortælling, hvor konsulenten plæderer for en adskillelse af kontrol- og lærings-<br />

funktionen. Konsulenternes tilknytning til og loyalitet overfor opdragsgiveren<br />

forstærkes af deres vidensmæssige og økonomiske afhængighed af Danida. Disse<br />

faktorer gennemgås i afsnit 10.3.1., 10.3.2. og 10.3.3., inden vi i afsnit 10.3.4.<br />

undersøger, hvad den tætte relation mellem konsulenter og Danida betyder for<br />

partnernes oplevelse af bedømmelsesprocessen.<br />

10.3.1. Viden er magt<br />

En sideeffekt af uafhængighedsprincippet er, at de eksterne konsulenter som<br />

hovedregel ikke har detailviden om de undersøgte projekter/programmer og i mange<br />

tilfælde heller ikke om det land, hvor projektet hører hjemme. Uafhængighed er<br />

derfor ofte lig uvidenhed. For at kunne skaffe sig den manglende viden, må<br />

konsulenterne ty til de informationer, som er at finde i dokumenter om projektet,<br />

blandt Danidas medarbejdere og hos Danidas partnere, hvilket udgør et potentielt<br />

problem i forhold til idealet om uafhængighed. Ideelt set burde review-/evaluerings-<br />

holdet være uafhængigt af både opdragsgiver og evaluerede aktører, men står valget<br />

mellem en af disse aktører, foretrækkes det inden for en evalueringsteoretisk kontrol-<br />

diskurs, at evaluatorerne skaffer sig informationer fra opdragsgiveren. Som vi<br />

gennemgik i kapitel 4, anses evaluatorens kontakt med de evaluerede aktører nemlig<br />

for at udgøre en større trussel mod evalueringens troværdighed, end en vis kontakt<br />

med opdragsgiveren gør. Det skyldes, at de evaluerede aktører menes at have en stør-<br />

re subjektiv interesse i at påvirke evalueringens konklusioner end opdragsgiveren,<br />

som i kraft af dennes interesse i at finde frem til ”den virkelige virkelighed” anses for<br />

at være en troværdig kilde:<br />

Men jeg vil, jeg vil jo også altid være interesseret i, at de får så godt et billede,<br />

som overhovedet muligt, af den virkelige virkelighed. Fordi, ellers bliver det<br />

ikke nogen hjælp for mig. I, altså i den justering, der skal være af programmet.<br />

(<strong>OG</strong>)<br />

I henhold til denne selvopfattelse, som i høj grad ligger i forlængelse af kontrol-<br />

diskursens objektivitetskriterium, anser Danidamedarbejderen ikke en tæt kontakt og<br />

vidensudveksling mellem Danida og konsulenterne for at være problematisk. I det<br />

119


følgende vil vi udfordre denne påstand ved at fremdrage eksempler på, at ’opdrags-<br />

giverens viden’ manifesterer sig som ’opdragsgiverens magt’ – og altså ikke er<br />

neutral.<br />

10.3.1.1. Fortrolighed<br />

Allerede i løbet af dokumentstudierne grundlægges et tæt samarbejde mellem<br />

konsulentholdet og Danida, idet konsulenterne ofte kontakter enten BFT eller en<br />

ambassademedarbejder for at få uddybende oplysninger om eller en udredning af<br />

uklarheder i dokumenterne. I disse samtaler har Danidamedarbejderne mulighed for<br />

at formidle ”inside informations” og dermed spore konsulenterne ind på problem-<br />

stillinger, som er væsentlige – set fra et donorsynspunkt:<br />

… når man har lavet det deskstudie, så har man efterhånden en vis<br />

fornemmelse af, hvordan det her projekt går. Og jeg vil også sige, at man jo<br />

altså også får nogle inside informations indimellem, nogle ret fortrolige<br />

informationer omkring hvordan projektet har kørt, og det er klart, at Danida<br />

formidler nogle ting til os, som de gerne vil have, at vi ligesom tager fat i. (KS)<br />

Kombinationen af Danidamedarbejdernes detailviden og deres status som opdrags-<br />

givere gør, at de på den ene side kan hjælpe konsulentholdet til en øget indsigt i<br />

projektet og på den anden side kan bede holdet om at fokusere på bestemte<br />

problemer.<br />

10.3.1.2. Ambassaden tilrettelægger feltstudieprogrammet<br />

Samarbejdet mellem Danida og konsulenterne fortsætter under feltstudierne, idet<br />

evalueringsholdets feltstudieprogram tilrettelægges af ambassaden. Det er således<br />

ambassademedarbejderne, som i vidt omfang beslutter, hvilke personer, projekter og<br />

interessenter holdet præsenteres for. Formelt set har de eksterne konsulenter ret til at<br />

ændre ambassadens oplæg, men da disse – som vi tidligere har nævnt – i kraft af<br />

uafhængighedskriteriet sjældent kender konteksten, har de i praksis vanskeligt ved at<br />

vurdere, om feltstudieprogrammet er dækkende og fornuftigt:<br />

… altså, der bliver det jo lagt meget i hænderne på ambassaderne, og de gør det<br />

jo selvfølgelig så godt de kan. Altså, det er jo ikke… Men der er for lidt<br />

egentlig dialog der om, hvad det var, vi gerne ville kigge efter – ved<br />

ambassaden, inden vi kom derned, ikke? (KS)<br />

Konsulenternes manglende viden om projektet og konteksten medfører således en<br />

afhængighed af ambassaden i forhold til udarbejdelse programmet for feltstudiet. En<br />

Danidamedarbejder siger kort og godt: ”Jeg kan ikke se, hvordan konsulenterne ville<br />

kunne forberede et ordentligt program, øh, uden ambassaden” (<strong>OG</strong>). At ambassaden<br />

agerer mellemled mellem konsulenter og partnerorganisationer betyder dels, at<br />

førstnævntes afhængighed af ambassademedarbejdernes viden og kontakter øges<br />

yderligere, og dels at partnerorganisationerne opfatter konsulentholdet som en del af<br />

det ”officielle Danmark” og altså ikke som en uafhængig instans:<br />

120


Vi kan godt, inden vi kommer ud – altså på baggrund af de desk studies, vi har<br />

lavet – forlange, at vi vil tale med den og den og den. Og det gør vi også, men<br />

det er ligesom dem [på ambassaden], der laver aftalerne, og det gør jo, at man<br />

meget ofte bliver knyttet… altså, at man bliver sat i samme båd med de folk,<br />

ikke? Med det mere officielle Danmark, når du går rundt og reviewer. (P1). Det<br />

er der ingen tvivl om. (KS)<br />

10.3.1.3. Uformel kontakt under feltstudierne<br />

Foruden det formelle samarbejde mellem konsulenthold og ambassade finder der som<br />

regel også en uformel kontakt sted, idet konsulenterne og ambassademedarbejderne i<br />

en række tilfælde også ses uden for det fastlagte program. I nedenstående citat<br />

beskriver en tidligere ambassademedarbejder, hvordan vedkommende og<br />

konsulenterne mødtes over en middag eller ”en sundowner”, hvor de sammen<br />

reflekterede over dagens indtryk, og hvor ambassademedarbejderen bidrog til at<br />

”afklare misforståelser”:<br />

Men hvor de så kom tilbage og sad, og snakkede først indbyrdes sammen om<br />

de indtryk, de havde fået i dagens løb, og så fik vi typisk en sundowner, eller<br />

spiste middag sammen eller et eller andet, og så snakkede om forskellige ting,<br />

hvor jeg så kunne supplere... (...) Altså, det er når et team, når et review<br />

fungerer godt. Ikke. Når et review fungerer mindre godt, så er der kun lige<br />

kontakt, når man henter dem i lufthavnen, og så når de debriefer til allersidst,<br />

ikke. Det øh, det synes jeg ikke, er særligt smart. Fordi så bliver der meget lidt<br />

mulighed for også at afklare misforståelser. (<strong>OG</strong>)<br />

Den tidligere ambassademedarbejder giver her tydeligt udtryk for, at et godt<br />

evaluerings-/reviewforløb er kendetegnet ved en tæt kontakt mellem konsulenter og<br />

ambassade, idet denne kontakt garanterer ambassademedarbejderne en vis indflydelse<br />

på konklusionerne – jævnfør vedkommendes målsætning om at undgå ”misforståel-<br />

ser”. Den citerede ambassademedarbejder ser ingen modsætning mellem kontrol-<br />

diskursens objektivitetskrav og så sin egen indflydelse på konsulenterne. Tværtimod<br />

betragter vedkommende sig selv som en kilde til objektiv viden, der kan bidrage til at<br />

kvalificere konsulentholdets undersøgelse.<br />

10.3.2. Økonomisk afhængighed<br />

Konsulenternes afhængighed af Danidamedarbejdernes viden understøttes og<br />

forstærkes af deres økonomiske afhængighed af Danida som opdragsgiver.<br />

Altså, man er – og det bør man ikke være – men øh… jeg tror, de fleste er en<br />

anelse afhængige af opdragsgiveren. (KS)<br />

Som vi redegjorde for i kapitel 7, er den samlede mængde evaluerings- og rådgiv-<br />

ningsopgaver inden for mediebistandsfeltet begrænset. Dette har betydning for den<br />

del af ressourcebasen, som er specialiseret inden for mediebistand, hvor<br />

konsulenterne i mange tilfælde står i et økonomisk afhængighedsforhold til Danida.<br />

Deres forretning kan simpelthen ikke overleve uden opgaver herfra. I det følgende vil<br />

vi opridse, hvilke konsekvenser denne afhængighed har for interaktionen mellem de<br />

tre praksisfællesskaber i feltstudiefasen.<br />

121


En udredning af Danidas evalueringsfunktion fra 2003 slog fast, at konsulenter, som<br />

udfører mange opgaver for Danida, skriver lige så kritiske rapporter, som de<br />

konsulenter, hvis projektportefølje er spredt ud på flere opdragsgivere (Danida<br />

2003A: appendix 3, 24ff.). I det omfang der er tale om, at de valgte evaluatorer er<br />

økonomisk afhængige af Danida, udgør det ifølge udredningen ikke noget problem<br />

for evalueringernes troværdighed.<br />

Vores analyse peger imidlertid i en anden retning. Flere interviewpersoner giver<br />

nemlig udtryk for, at konsulenternes økonomiske afhængighed af Danida betyder, at<br />

evalueringsholdene ofte er mere lydhøre over for opdragsgiverens synspunkter, end<br />

de måske ellers ville have været. Den økonomiske afhængighed gør det med andre<br />

ord nemmere for Danidas medarbejdere at overbevise konsulenterne om, at de har<br />

”misforstået” noget:<br />

Øh, det man så gør i de der evalueringer, vi selv laver, det er at sikre sig, at de<br />

folk, der bliver hyret til at løse opgaven, ikke har været involveret i de der<br />

projekter. Så man sikrer den der uafhængighed, ikke. Men selvfølgelig, i og<br />

med at de mennesker jo er konsulenter generelt, lever af at lave opgaver for os,<br />

og ved også alt andet lige, at de skal have nogen i fremtiden, så påvirker det jo<br />

nok også deres måde at kigge på os på. Forstår du, hvad jeg siger? (…) Så man<br />

kan aldrig udelukke, at der er noget påvirkningsgrad der, og i og med at processerne<br />

også bliver... Hvor man laver draft rapport, den bliver kommenteret,<br />

og så, så tager man konsulenter ind og siger, at ’I har fuldstændigt misforstået<br />

det her, det er sådan og sådan, det hænger sammen’. (<strong>OG</strong>)<br />

Fra opdragsgiverens side vil man således ikke udelukke, at konsulenternes interesse i<br />

at stå sig godt med Danida, understøtter deres villighed til at godtage de informa-<br />

tioner og holdninger, som Danidas medarbejdere giver udtryk for. På denne baggrund<br />

mener vi, at udredningen fra 2003 har været for hurtig til at aflive afhængigheds-<br />

problemet. Vi vil i stedet konkludere, at konsulenternes økonomiske afhængighed af<br />

Danida udgør en potentiel barriere for den kritiske distance, som både ifølge kontrol-<br />

diskursen og den participatoriske læringsdiskurs burde eksistere mellem konsulent og<br />

opdragsgiver. Denne problematik vokser i takt med opdragsgiverens ’genbrug’ af<br />

konsulenter, og som et lille felt er mediebistand derfor særlig udsat.<br />

10.3.3. Uafhængighed avler afhængighed<br />

Ironisk nok blokerer uafhængighedskriteriet for konsulenternes uafhængighed, i og<br />

med at de bliver afhængige af opdragsgiverens viden. De informationer, som<br />

udveksles mellem Danida og konsulenterne i løbet af dokument- og feltstudierne, er<br />

ikke så neutral og objektiv, som Danidamedarbejderne hævder. Imidlertid er det<br />

overordentligt vanskeligt at påvise, at opdragsgiveren påvirker konsulenterne til at<br />

konkludere på en anden måde, end de ellers ville have gjort, da en sådan bevisførelse<br />

ville kræve viden om den kontrafaktiske situation. Men vi har i det ovenstående vist,<br />

122


at omstændighederne herfor er til stede i kraft af den tætte formelle og uformelle<br />

kontakt mellem opdragsgiver og konsulent. At viden er lig magt, og at uvidenhed<br />

derfor afføder afhængighed, er muligvis en banal konklusion. Den udfordrer dog ikke<br />

desto mindre både Danidamedarbejdernes og konsulenternes selvopfattelse, som i høj<br />

grad afspejler uafhængigheds- og objektivitetskriterierne inden for den evaluerings-<br />

teoretiske kontroldiskurs. Vi har endvidere redegjort for, at konsulenterne i et vist<br />

omfang kan karakteriseres som økonomisk afhængige af Danida, hvilket understøtter<br />

og forstærker deres vidensmæssige afhængighed.<br />

10.3.4. Partnernes syn på konsulenterne<br />

Ovenstående analyse peger på, at partnernes tendens til at betragte konsulenterne som<br />

donorens forlængede arm snarere end som uafhængige aktører ikke er helt<br />

uberettiget:<br />

… det siger jo sig selv, ikke? At der kommer donoren, som organisationerne er<br />

dybt afhængige af, nedsætter det der hedder en review til at gå ned og se på<br />

projektet, ikke? Altså, det er jo… Man er jo ikke primært opfattet som<br />

solidarisk med projektet. Man er primært opfattet som solidarisk med donoren,<br />

for nu skal donoren se, hvordan det her går, sådan så vi kan se, om vi skal blive<br />

ved med at give penge til det her, ikke? Nogen vil måske sige: ’Det går rigtigt<br />

dårligt det her, så luk lortet.’ (KS)<br />

I dette udsagn beskriver en konsulent, at partnernes utryghed grundlægges allerede i<br />

initieringsfasen. Som vi beskrev i kapitel 7, er Danida reelt den eneste aktør, som har<br />

noget at skulle have sagt i forhold til igangsættelsen af reviews og evalueringer. Og<br />

denne initiering foretages ud fra et hensyn til de ansvarliggørelseskrav, Danida<br />

mødes med som en del af den danske statsadministration – det vil sige, at bevillingen,<br />

og dermed projektets fremtid, i princippet altid står på spil. Således er der en<br />

grundlæggende interessemodsætning mellem donoren på den ene side og på den<br />

anden side projektorganisationerne, der i citatet betegnes som ”dybt afhængige” af<br />

donoren. Donorens magt til at lukke projekterne er i evaluerings- og review-<br />

sammenhæng delegeret til konsulenten, som derfor – ifølge interviewpersonen<br />

ovenfor – typisk bliver opfattet som en partshaver, der i den økonomisk funderede<br />

interessekonflikt mellem donor og modtager antages at være ”solidarisk med<br />

donoren”.<br />

10.3.4.1. Høflighed som strategi<br />

Partnernes usikkerhed og sårbarhed overfor de eventuelle negative konsekvenser af<br />

en evaluering eller et review gør, at de forsøger at fremstille sig selv så positivt som<br />

muligt i interviewsituationen. Dette var fortællingen om høflighedssammensværgel-<br />

sen et eksempel på, og det underbygges endvidere af dette udsagn, som betegner<br />

partnernes adfærd som et resultat af ”en reel nok analyse”:<br />

Altså, de ser jo på en sådan, altså de er altid meget, meget venlige. (…) Altså<br />

fordi de jo selvfølgelig er bange for, at man siger noget grimt, ikke, og så<br />

sørger for, at pengene ryger ud, ikke. Og det kan man jo reelt også, altså det er<br />

123


jo en reel nok analyse, de laver, ikke. Hvis man kommer med en dårlig review,<br />

øh og siger, øh: ’jeg kan ikke bestemme, at pengene skal tages ud, for det er en<br />

politisk beslutning, men jeg kan anbefale, at øh, det er simpelthen bare<br />

håbløst’. Og så er det jo svært i systemet her at acceptere et review, der<br />

kommer med det, og så ikke tage pengene tilbage eller finde en eller anden<br />

udfasning. (<strong>OG</strong>)<br />

Konsekvensen af partnernes ’venlighed’ er, at det er vanskeligt for konsulenterne at<br />

få partnerne i tale om, hvad der reelt foregår på projektet. Der er simpelthen ikke<br />

noget incitament for partnerne til at spille med åbne kort – i hvert fald ikke, hvis de<br />

vurderer, at deres åbenhed kan give bagslag i form af kritik:<br />

Det har jeg tænkt meget over: Hvorfor er det egentlig så svært at finde ud af,<br />

hvad det er, der virkelig virker og ikke virker? Og noget af det, som jeg tror,<br />

det skyldes, det har noget med magt at gøre. Altså magtbalancen mellem dem,<br />

der giver, og dem der får, altså den er der jo, den er jo skævt fordelt. Så hvis du<br />

beslutter dig for, at du vil støtte et projekt et sted, og der så kommer nogle<br />

andre ud og spørger dem, der har fået penge: ’Virker det her?’, selvfølgelig<br />

siger de, det virker. Du kan jo ikke forvente, at de siger: ’Eej, det virker ikke’.<br />

De kan godt finde på at sige: ’Ejmen, det ville virke endnu bedre, hvis vi fik<br />

nogle flere penge’, altså. Det er også logisk. (KS)<br />

Vi ser således, at partnernes utryghed blokerer for deres ærlighed og åbenhed i<br />

dataindsamlingsprocessen, og derved spænder kontrolfunktionen ben for både<br />

indsamling af objektiv information – et af de centrale kriterier inden for den<br />

evalueringsteoretiske kontroldiskurs – og udgør desuden en barriere for realiseringen<br />

af participatoriske læringsevalueringer. Sidstnævnte forhold formuleres sådan af<br />

Dahler-Larsen:<br />

Der er også typisk tale om en helt anden mentalitet hos de involverede parter [i<br />

læringsevalueringer]. Hvor kontrolevalueringerne typisk leder til, at man viser<br />

sine bedste sider og skjuler sine dårlige, så godt man kan, forudsætter<br />

læringsevalueringer en åben og tillidsfuld fremlægning især af ens egne<br />

svageste sider, for det er her, at læringspotentialet er størst. (Dahler-Larsen<br />

2004:25)<br />

Ikke desto mindre fastholder Danida – og til en vis grad også konsulenterne – idealer<br />

om at anvende evalueringer og reviews til indsamling af objektiv information og som<br />

redskaber til læring. Vores ærinde er ikke at erklære det for umuligt at etablere et<br />

tillidsforhold mellem partnere og konsulenter eller at gennemføre participatoriske<br />

processer i forbindelse med evalueringer og reviews af Danidastøttede medie-<br />

bistandsprojekter. En sådan erklæring ville stride imod vores empiri, idet<br />

evaluerings- og reviewforløb indeholder såvel lærings- som kontrolaspekter, hvilket<br />

vi viste i kapitel 9. Derimod er vores ærinde at påpege problemer ved at antage, at<br />

fundamentale idealer inden for de to dominerende evalueringsteoretiske diskurser om<br />

henholdsvis objektivitet og participation uden videre lader sig realisere i en utryg<br />

bedømmelseskontekst. Til sidst i specialet vil vi derfor komme med en række<br />

anbefalinger til, hvordan partnernes utryghed kan imødekommes og undgås.<br />

124


10.4. Konsulenten som modtagerens advokat<br />

En anden side af konsulenternes identitet udløber af deres engagement i medie-<br />

bistandsfeltet. Flere af konsulenterne føler sig – om ikke som en del af projekt-<br />

organisationen (jf. fortællingen om høflighedssammensværgelsen) – så i hvert fald<br />

som solidariske med og ansvarlige overfor de evaluerede/reviewede projekter:<br />

Der er selvfølgelig den der utrolig store… det der ansvar, man har, når man<br />

kommer ud og… som en smart fyr med armbåndsur og jetsetter ind med store<br />

jernfugle og sætter sig ned og er dommer over noget, som nogle folk har gået<br />

og kæmpet med i årevis. (KS)<br />

Citatet fremstiller konsulenterne som udefrakommende ’smarte fyre’, der ”jetsetter<br />

ind med store jernfugle” og skal agere ’dommere’ over projektorganisationernes<br />

arbejde. En dom, som i sidste ende kan betyde, at man bidrager til at lukke projekter<br />

og dermed i nogle tilfælde at fratage projektmedarbejderne deres levegrundlag:<br />

Og der er altså det der, som konsulent, du kommer ud, du har magten, og det<br />

ved de jo, ikke. Fordi du har magten i forhold til at hvad skriver du af<br />

anbefalinger, hvad får du af indtryk, hvordan vurderer du… det er jo et<br />

kolossalt ansvar, og det er jo en reel magt i forhold til dem, i forhold til at… de<br />

der sætninger, du skriver, de kan rent faktisk betyde, om de får penge eller ej,<br />

ikke altså. (KS)<br />

Jeg har været med til at lukke projekter. (…) Men det gør da ondt, altså. Og der<br />

er en masse mennesker involveret, ikke. Steder hvor der jo ikke er noget at leve<br />

af, tit, så tager du deres brød fra dem (KS)<br />

Citaterne udtrykker en medfølelse og en solidaritet med modtagerne, der omtales som<br />

”mennesker”, som har ”kæmpet i årevis”, og hvis ”brød” man som kritisk konsulent<br />

risikerer at berøve dem. Sammenlignes dette billede af en menneskelig modtager,<br />

som står i en barsk virkelighed, med den ovenstående karakteristik af en konsulent<br />

som ”en smart fyr med armbåndsur” og med nedenstående omtale af ’skrivebords-<br />

personerne’ i Danida, fremstår det tydeligt, hvor konsulenternes sympati befinder sig:<br />

Så derfor, for mig, når jeg laver rapporten, jeg ved godt, den primære kunde,<br />

kan du sige, det er jo en eller anden desk… programme officer i Danida, ikke.<br />

(…) Men altså, i lige så høj grad at skrive til partnerne. Fordi det er jo dem, der<br />

skal tage det i hånden og gå ud og bruge det bagefter, det er ikke den der<br />

person, der sidder bag et skrivebord i Danida. Øh, for om et halvt år, så er det<br />

en anden person. Og den anden person læser ikke den rapport, vel? Så dem, der<br />

skal leve med på godt og ondt, hvad jeg nu synes, (griner) jeg kan udbrede mig<br />

om, det er jo partnerorganisationerne. (KS)<br />

Denne sympatitilkendegivelse hænger tæt sammen med konsulenternes ønske om at<br />

foretage participatoriske læringsevalueringer, hvor de evaluerede aktører sættes i<br />

centrum og gives magten til selv at vurdere deres egen situation. Jævnfør det partici-<br />

patoriske læringsideal solidariserer konsulenterne sig med modtagerne – ikke sådan<br />

at forstå, at de mener, at disse nødvendigvis har ret i alt, men på den måde at de gerne<br />

vil gøre evalueringen eller reviewet til et nyttigt redskab til videreudvikling af medie-<br />

bistandsprojekterne.<br />

125


10.4.1. Evnen til at stille de rigtige krav<br />

Samtidig med at partnerne er på vagt overfor konsulentens rolle som donorens<br />

forlængede arm, ønsker de selv at benytte evaluerings- og reviewholdene som<br />

’advokater’, der skal tage partnernes parti i en eventuel konflikt med Danida. I<br />

nedenstående citat forklarer en interviewet repræsentant for en projektorganisation,<br />

hvordan man som evalueret aktør kan spille på konsulenternes ønske om at bidrage<br />

positivt til projektet:<br />

Så det er selvfølgelig også organisationen, der skal forstå at stille de rigtige<br />

krav til dem, der evaluerer. Altså fordi evaluatorer og konsulenter de vil… på<br />

den ene side har de fået en kontrakt – de skal forholde sig kritisk – på den<br />

anden side vil de jo også gerne kunne bidrage, altså de vil også gerne have, at<br />

det har en eller anden nytteværdi, det de foretager sig. (PO)<br />

Det er imidlertid ikke nok for projektorganisationen blot at spille på konsulenternes<br />

solidaritets- og ansvarsfølelse: man skal kunne stille ”de rigtige krav”, der tager højde<br />

for evalueringsholdets selvforståelse som kritiske, uafhængige aktører og deres<br />

kontraktlige binding til opdragsgiveren. Dette giver ’kompetente’ projektorganisa-<br />

tioner et forspring frem for ’ikke-kompetente’, idet førstnævnte i højere grad formår<br />

at søge at påvirke konsulenterne på en subtil og elegant måde. Den ovenfor citerede<br />

repræsentant for en projektorganisation giver her et eksempel på, at organisationen i<br />

begyndelsen af en evalueringsproces appellerede til konsulenternes sympati- og<br />

ansvarsfølelse ved at give dem medansvar for en eventuel lukning af projektet:<br />

… der er ingen tvivl om, at vi ville have været følsomme overfor en negativ<br />

evaluering. Og det var noget af det første, vi sagde til konsulenterne, dengang<br />

de gik i gang med evalueringsprocessen: ’I skal vide, det har konsekvenser; det<br />

I siger i de her rapporter, får konsekvenser. Og det må I overveje fra starten af,<br />

at hvis I vælger at gå ind…’ (PO)<br />

10.5. Splittelsen<br />

Af ovenstående analyse fremgår det, at der rykkes i konsulenterne fra to sider: på den<br />

ene side oplever konsulenterne en moralsk tilskyndelse til at agere som modtagerens<br />

advokat i overensstemmelse med idealerne inden for den participatoriske lærings-<br />

diskurs og den kritiske udviklingsditto. På den anden side er evalueringsholdene i<br />

praksis både økonomisk og vidensmæssigt afhængige af Danida. Konsulentidenti-<br />

teten rummer således to dimensioner: en praktisk dikteret donororientering og en<br />

moralsk funderet modtagerorientering. Disse to dimensioner behøver ikke nødven-<br />

digvis stå i et modsætningsforhold til hinanden – det afhænger af graden af konflikt<br />

mellem donor og modtager. Hersker der enighed om mål og midler i mediebistands-<br />

indsatsen, er konsulentens dobbelte loyalitet uproblematisk, men i det øjeblik der<br />

opstår uenigheder mellem donor og modtager, oplever alle tre praksisfællesskaber<br />

konsulentidentiteten som flertydig og modsætningsfyldt. Det er på den baggrund, vi<br />

betragter konsulenten som en stødpude mellem donor og modtager.<br />

126


Midt i denne interessekonflikt mellem Danida og partnerne har konsulenten også sin<br />

faglige integritet og sine egne subjektive vurderinger at tage hensyn til. Konsulent-<br />

identiteten er således spændt ud mellem tre poler: Danida som opdragsgiver, Danidas<br />

partnere og konsulentens faglige og personlige integritet. I rapporterne kommer<br />

denne splittelse til udtryk ved, at konsulenterne anvender en mangfoldighed af<br />

afsenderidentiteter.<br />

10.5.1. De mange afsenderidentiteter<br />

I kapitel 9 (afsnit 9.1.1.2.) nævnte vi, at der i de analyserede rapporter figurerer i alt<br />

syv forskellige afsenderidentiteter, hvoraf én er de evaluerede aktører, som kommer<br />

direkte til orde i to rapporter (MISA 01/02 & MISA 04). De seks øvrige afsender-<br />

identiteter er forskellige ’stemmer’, som konsulenterne veksler mellem, og disse har<br />

vi kaldt: (1) den nøgterne, (2) den opsummerende, (3) den uafhængige, (4) den forret-<br />

ningsdrivende, (5) den faciliterende samt (6) den vurderende konsulent.<br />

Ad. 1-2) I anvendelsen af de to førstnævnte afsenderidentiteter agerer konsulenterne<br />

objektive, ræsonnerende analytikere, der gengiver virkeligheden, som den enten er<br />

(den nøgterne rolle) eller som den åbenbarer sig for vedkommende gennem de<br />

indsamlede data (den opsummerende konsulentrolle). Ved at skrive ud fra disse to<br />

positioner trækker konsulenterne på den distancerede, rationelle evaluatorfigur, som<br />

foreskrives inden for en evalueringsteoretisk kontroldiskurs (Chelimsky 1995:218, se<br />

afsnit 4.2.2.). Disse to afsenderidentiteter er fremtrædende i seks af de i alt otte<br />

rapporter (bilag 4I).<br />

Ad. 3) Den uafhængige konsulentrolle genskaber ligeledes den evalueringsteoretiske<br />

kontroldiskurs og kommer til udtryk gennem ’uafhængighedserklæringer’ 57 , som er at<br />

finde i halvdelen af rapporterne (bilag 4I).<br />

Ad. 4) I forlængelse af ovenstående diskussion om relationen mellem uafhængig-<br />

hedskriteriet og konsulenternes afhængighed af Danida, som blandt andet er af<br />

økonomisk karakter, er det interessant, at den uafhængige, nøgterne og opsumme-<br />

rende konsulentrolle suppleres af en afsenderidentitet, vi har kaldt ’den forretnings-<br />

drivende konsulent’. I anvendelsen af denne afsenderidentitet udtrykkes konsulen-<br />

ternes økonomiske interesse i at bruge evalueringen/reviewet i forretningsudvidelses-<br />

øjemed. Eksempelvis anbefales det i reviewet af MISA fra 2001/2002, at der<br />

bekostes konsulenttimer på ”specific guidance in finalising the programme<br />

document” (MISA 01/02:34.) Af MISA-reviewet fra 2004 fremgår det, at COWI,<br />

som netop stod bag reviewet fra 2001/2002, har fået tildelt den tidligere anbefalede<br />

konsulentopgave (MISA 04:42).<br />

57 Jf. afsnit 10.1.<br />

127


Ad. 5) Den faciliterende konsulentrolle indskriver sig som nævnt i kapitel 9 i en<br />

participatorisk læringsdiskurs, idet konsulenten her fremstiller sig selv som et neutralt<br />

talerør for de evaluerede aktørers egne vurderinger.<br />

Ad. 6) Den sjette og sidste afsenderidentitet – den vurderende konsulent – er i<br />

nærværende sammenhæng den mest interessante, idet konsulentrollens komplekse og<br />

splittede karakter tydeligt fremgår heraf. Vi vil i det følgende uddybe dette synspunkt<br />

yderligere.<br />

10.5.2. Den vurderende konsulent<br />

Når konsulenternes subjektive vurderinger af genstanden for reviewet/evalueringen<br />

kommer til udtryk, sker det hovedsageligt i en form, hvor afsenderen er utydelig. De<br />

grammatiske konstruktioner, som i den forbindelse er gennemgående i rapporterne, er<br />

dels passivkonstruktioner og dels nominalisering.<br />

I de tre nedenstående eksempler på rapportforfatternes anvendelse af passiv-<br />

konstruktioner fremgår konsulenternes tilslutning til udsagnene ved hjælp af værdi-<br />

ladede bi- og tillægsord, men i kraft af verbets passivform udgør genstanden for<br />

vurderingen sætningens grundled. Vurderingerne forbindes derfor ikke eksplicit med<br />

konsulentholdet, og læseren må selv gætte sig til, hvem der står bag bedømmelsen:<br />

The training, however, is not regarded as being impressive in comparison with<br />

the amount of funding they have received. (Danida 2000A:35)<br />

…it is seen as imperative (MISA 01/02:viii)<br />

The programme strategy (…) is found to be very well designed (NSJ 03:7)<br />

Tilsvarende slører den grammatiske konstruktion, nominalisering, hvem ophavet bag<br />

vurderingerne er. Nominalisering betegner en sætningskonstruktion, hvor grund-<br />

leddet er et upersonligt stedord – typisk ’der’ – eller et navneord, som ikke er en<br />

egentlig aktør (Fairclough 1992:179). Et eksempel på førstnævnte konstruktion er<br />

sætningen: “There is a need to refocus…” (MISA 01/02:vi), mens de to nedenstående<br />

rapportuddrag illustrerer sidstnævnte nominaliseringsform:<br />

The analysis of major trends in the media, democratisation and human rights<br />

highlighted two important characteristics of the context in which Danish<br />

support to Media needs to be evaluated. (Danida 2000A:2)<br />

The overall assessment indicates… (Zambia 02:10)<br />

I begge disse udsagn er grundleddet en ikke-aktør, nemlig ’analysen’/’vurderingen’.<br />

Frem for at skrive ’vores analyse viser…’ eller ’det er konsulentholdets vurdering,<br />

at…’, vælger konsulenterne et upersonligt grundled, med det resultat at der igen ikke<br />

fremstår en tydelig sammenhæng mellem konsulenterne og deres vurdering.<br />

128


Konsulenternes holdning kommer i ovenstående tekststykker indirekte til syne<br />

gennem brugen af verber. Hvor ”needs” i det første eksempel er et stærkt modal-<br />

verbum, udtrykker ”indicates” en mere forsigtig tilslutning til konklusionen.<br />

Foruden brug af passive verber og nominalisering optræder konsulenterne også<br />

anonymt, når de fremkommer med påstande uden afsender. At der er tale om<br />

subjektive vurderinger fremgår eksempelvis af understregende biord og værdiladede<br />

tillægsord, som tilfældet er i denne sætning:<br />

It was a notable and very encouraging achievement… (MISA 04:1, vus.)<br />

Der er dog også eksempler på, at konsulenterne anvender en mere klar afsender-<br />

identitet, typisk ved at ved at bruge termerne ”the review/evaluation team” eller ”the<br />

reviewers”.<br />

The reviewers are of the opinion that… (NSJ 03:13, vus.)<br />

The team found that to some extent central organising and controlling from<br />

Dhaka is still taking place. (Bangladesh 01:3, vus...)<br />

…the review team agrees with this recommendation (Zambia 02:26, vus.)<br />

I disse tre eksempler er der en klar sammenhæng mellem vurderingen og vurderin-<br />

gens ophavsmænd. Fremstillingen får dermed en mere subjektiv karakter, og dermed<br />

gøres konklusionerne i højere grad til genstand for diskussion, end i de foregående<br />

tilfælde hvor konsulenternes vurderinger fremstår som objektive, indiskutable sand-<br />

heder. Det er dog bemærkelsesværdigt, at konsulenterne med ordvalget ”the team” /<br />

”the reviewers” stadig søger at opretholde en vis distance og troværdighed. Distancen<br />

kommer til udtryk i form af brugen af tredje person – frem for første person: ’we’ –<br />

og troværdigheden ved at konsulenterne benytter flertalsform og dermed fremstår<br />

som et enigt kollektiv 58 .<br />

10.5.3. At antaste fra et uantasteligt grundlag<br />

Opsummerende om de afsenderidentiteter, som kommer til udtryk i rapporterne, kan<br />

man sige, at konsulenterne forsøger at mediere mellem deres splittede loyalitet og<br />

mange roller ved at holde sig til et upersonligt sprog. Hvad enten konsulenterne<br />

agerer som objektive, nøgterne analytikere, som neutrale talerør for de evaluerede<br />

aktører eller som uafhængige og subjektivt vurderende hold, søger de ved hjælp af<br />

ordvalg og grammatik at fremstille konklusionerne i en så objektiv og indiskutabel<br />

tone som muligt. Eller som en konsulent siger det: ”… under alle omstændigheder<br />

formulerer man sig meget objektivt i rapporter. Man forsøger jo at undgå alt hvad der<br />

58 Undtagelser herfra er, at konsulentholdet i en rapport henviser til sig selv som ”we” (kollektiv men<br />

første person): “By and large we agree with the approach adopted and the steps taken to strengthen the<br />

institution. However, we doubt whether the decision (…) was wise…” (NSJ 02:12, vus.). I et andet<br />

tilfælde beskriver forfatteren sig selv i ental tredje person: “the consultant”: “It is the firm belief of the<br />

consultant that...” (Zambia 02:40).<br />

129


er… altså alle subjektive ting”. Evaluerings- og reviewrapporterne placerer således<br />

ansvar hos de evaluerede aktører, men fremstiller ikke tydeligt, hvem der har ansvar<br />

for konklusionerne:<br />

Med andre ord er idealet i evaluering, at godt nok skal en bestemt praksis<br />

antastes, men det skal helst ske ud fra et uantasteligt grundlag. (Dahler-Larsen<br />

2004:20)<br />

Ved at fastholde et objektivitets- og uafhængighedsideal forsøger de eksterne<br />

konsulenter at håndtere deres funktion som stødpude mellem Danida og Danidas<br />

partnere. I stedet for at tage parti i konflikter mellem disse to praksisfællesskaber, kan<br />

konsulenterne påberåbe sig uafhængighed og henvise til en objektiv sandhed.<br />

10.6. Den afhængige, partiske konsulent<br />

Vi har i dette kapitel fokuseret på en særlig problemfyldt side af konsulentidentiteten<br />

– nemlig spørgsmålet om, hvorvidt konsulenten er og opleves som uafhængig af<br />

opdragsgiveren. Kapitlet indledtes med at fastslå, at uafhængighedskriteriet spiller en<br />

vigtig rolle i både Danidas og konsulenternes opfattelse af konsulentrollen, til trods<br />

for de problemer som er forbundet hermed.<br />

Det væsentligste problem ved at opretholde forestillingen om uafhængighed er, at<br />

denne ikke er reel, idet konsulenterne er afhængige af Danida på såvel et økonomisk<br />

som et vidensmæssigt plan. Dette forhold spiller sammen med den evaluerings-<br />

teoretiske kontroldiskurs på en selvmodsigende og kompleks måde, idet afhængig-<br />

heden på en og samme tid er både en funktion af uafhængighedskriteriet og i<br />

modstrid hermed. Konsekvensen af afhængighedsforholdet er, at Danida i praksis får<br />

mulighed for at påvirke konsulenternes fortolkninger – en magt, som de evaluerede<br />

aktører ikke har samme mulighed for at udøve. Dermed bidrager evaluerings- og<br />

reviewsituationen til at skærpe den asymmetri mellem modtager og donor, som er et<br />

grundvilkår inden for moderniseringsdiskursen. Imidlertid taler Danidas ansatte ikke<br />

om eksistensen af en egentlig påvirkning, da dette ville stride åbenlyst mod idealet<br />

om uafhængighed og udfordre såvel Danidas som konsulenternes selvforståelse. I<br />

stedet forstår og italesætter de deres såvel formelle som uformelle kontakt med<br />

evalueringsholdet som en neutral vidensudveksling.<br />

Denne oplevelse deles ikke af Danidas partnere, der i udgangspunktet opfatter<br />

konsulenterne som kontrollanter udsendt af Danida og dermed som partiske deltagere<br />

i en åbenlys interessekonflikt om bistandsmidler. Af den grund reagerer de med<br />

utryghed og afmagt i forhold til bedømmelsessituationen, og de søger – i bestræbel-<br />

serne på at sikre en positiv vurdering – at vinde konsulenternes sympati, blandt andet<br />

ved at være ’høflige’ og ved at fremstille sig selv i et positivt lys. Utrygheden<br />

blokerer dermed for både indsamling af objektiv information og participatorisk<br />

læring, hvilket betyder, at interaktionen mellem konsulenter, donor og modtagere i<br />

130


forbindelse med udførelsen af evalueringer og reviews primært trækker på de<br />

subjektpositioner, som stilles til rådighed inden for forståelsen af kontrol som inspek-<br />

tion. Utrygheden er imidlertid ikke et uomgængeligt vilkår, som vores fremstilling af<br />

case-forløbene viste, men det kræver opmærksomhed og en ekstra indsats fra både<br />

Danidas og konsulenternes side, hvis utrygheden skal imødegås. Dette behandler vi<br />

mere indgående i kapitel 13.<br />

Konsulenternes og Danidas opmærksomhed på partnernes utryghed svækkes af, at<br />

begge parter i praksis holder uafhængighedsidealet og påstanden om konsulenternes<br />

upartiskhed i hævd, hvilket blandt andet kommer til udtryk gennem anvendelsen af<br />

en distanceret og objektiv forfatteridentitet i rapporterne. At Danida og konsulenterne<br />

insisterer på uafhængighedskriteriet, trods interviewpersonernes samtidige erkendelse<br />

af konsulentidentiteten som konfliktfyldt og splittet, har konsekvenser for forhand-<br />

lingerne mellem donor og modtager. Påstanden om, at konsulenternes vurderinger<br />

repræsenterer en indiskutabel, ”virkelig virkelighed”, betyder, at interessemodsætnin-<br />

gerne mellem donor og modtager ikke får lov til at komme op til overfladen i evalue-<br />

rings- og reviewsituationen. Derved skabes et billede af konsensus mellem Danida og<br />

Danidas partnere, som i visse tilfælde kan være helt reelt og i andre tilfælde ikke.<br />

Under alle omstændigheder bidrager evalueringer og reviews på denne måde til at<br />

understøtte den forestilling om en konfliktfri relation donor og modtager imellem,<br />

som er en forudsætning for opretholdelsen af partnerskabstanken.<br />

131


11. Den gode mediebistandsindsats<br />

Fra det foregående kapitels fokus på konsulentidentiteten, vender vi nu blikket mod<br />

de evaluerede aktørers identitet og samspillet mellem denne og Danidas evaluerings-<br />

kriterier. Endvidere vil vi forholde os til, hvorledes konsulenternes arbejdsvilkår<br />

indvirker på dette samspil. Formålet med analysen er at belyse, hvordan evalueringer<br />

og reviews er med til at konstruere ’det gode mediebistandsprojekt’ og ’den gode<br />

partner’, hvorigennem de bidrager til at påvirke relationen mellem donor og<br />

modtager i mediebistanden.<br />

Kapitlet er inddelt i fire underafsnit, hvoraf det første, 11.1. præsenterer Danidas<br />

faste evalueringskriterier, og det følgende – afsnit 11.2. – omhandler de kriterier og<br />

indikatorer, der anvendes i de otte analyserede rapporter. Denne analyse danner<br />

baggrund for en besvarelse af problemformuleringens spørgsmål om, hvordan<br />

evalueringer og reviews bidrager til at konstruere ’det gode mediebistandsprojekt’.<br />

Det ser vi nærmere på i afsnit 11.3. Med henblik på at kunne stille forslag til en<br />

forbedring af Danidas metoder til evaluering af mediebistand, vil vi afsnit 11.4.<br />

belyse den gældende praksis og indkredse, hvorfor Danida og konsulenterne<br />

anvender netop de kriterier og indikatorer, vi identificerer i afsnit 11.1.<br />

11.1. Kriterier og indikatorer<br />

11.1.1. Danidas projektevalueringsmodel<br />

Det teoretiske udgangspunkt for at forstå sammenhængen mellem evaluerings-<br />

kriterier, indikatorer og mål er en forestilling om det politiske system som bestående<br />

af tre størrelser (Easton 1957, Vedung 1998): Input system output. Oversat til<br />

en mediebistandskontekst er den grundlæggende antagelse bag indsatsen, at man<br />

tilfører nogle bistandskroner og en arbejdsmetode (input), som tilsammen muliggør<br />

etableringen af et mediebistandsprojekt. Via dette projekt opnås en række udviklings-<br />

mål, og modellen ser således ud: Input mediebistandsprojekt opnåelse af<br />

udviklingsmål.<br />

Imidlertid er denne treleddede model for simpel til at indfange kompleksiteten i<br />

udviklingsbistanden, og Danida indskyder – i lighed med andre donororganisationer<br />

– tre effektniveauer i modellen, idet organisationen skelner mellem output, outcome<br />

og impact (Danida 1997:21) 59 . Danidas projektevalueringsmodel, som vi uddyber i<br />

59 Der hersker nogen begrebsforvirring i forhold til effektniveauer i evaluering af udviklingsbistand.<br />

Danida opererer med begreberne outputs, objectives (som vi kalder outcome, i overensstemmelse med<br />

gængs evalueringsteoretisk terminologi. Se fx Kjekshus 1991 og Binnendijk 2001) og impact, mens der i<br />

mange sammenhænge alene skelnes mellem outputs og impact (hvor sidstnævnte betegnelse både<br />

dækker outcome og impact) – se eksempelvis Berger 1991.<br />

132


det følgende, ser ud som følger 60 , hvor de grå kasser viser de forskellige effekt-<br />

niveauer:<br />

Effektniveauer og evalueringskriterier i Danida<br />

Input<br />

Figur 11a<br />

Efficiens<br />

I Danida beskriver man evaluering som:<br />

Output<br />

Effektivitet og<br />

bæredygtighed<br />

Virkning og<br />

Relevans<br />

Outcome<br />

Impact<br />

… an assessment, as systematic and objective as possible, of on-going or<br />

completed aid activities, their design, implementation and results. The aim is to<br />

determine the relevance and fulfilment of objectives, developmental efficiency,<br />

effectiveness, impact and sustainability. (Udenrigsministeriet 1999:3)<br />

Af citatet fremgår de fem evalueringskriterier, som er tilføjet modellen ovenfor:<br />

efficiens, effektivitet, virkning, relevans og bæredygtighed. Disse kriterier anbefales<br />

af OECD/DAC og følgelig nyder de stor udbredelse blandt større donoragenturer<br />

(Danida 1997:50). Kriterierne er defineret i Danidas retningslinier for evaluering<br />

(Danida 1997), men de forplanter sig ’nedad’ i evalueringshierarkiet, sådan at de<br />

også er gennemgående i projektdokumentation og reviews – dog for disse dokument-<br />

typers vedkommende med større fokus på output/efficiens 61 . I de følgende afsnit vil<br />

vi kort gennemgå indholdet i projektmodellens effektniveauer og evalueringskriterier.<br />

11.1.1.1. Output<br />

Output defineres i Danidas evalueringsretningslinier som et spørgsmål om, hvorvidt<br />

projektets umiddelbare formål er blevet opfyldt kvantitativt og inden for budget-<br />

rammen. Kriteriet til måling heraf er efficiens (effiency, Danida 1997:50ff.).<br />

60 Figuren er en udbygning af Danidas projektevalueringsmodel, som fremgår af Danida 1997:21. Ordet<br />

”outcome” erstatter Danidas ”achievement of objectives”.<br />

61 Projektrapportering og reviews skal dog også forholde sig til de øvrige evalueringskriterier, hvilket<br />

fremgår af Danida 2003B:40f.<br />

133


Efficiens er det snævreste effektperspektiv, man opererer med i Danida, og det<br />

anvendes til at vurdere indsatsen på et implementeringsmæssigt niveau. Den danske<br />

evaluator Henrik Schaumburg-Müller beskriver efficienskriteriet som et spørgsmål<br />

om, at ”forholde anvendelsen af ressourcer til det, der er kommet ud af aktiviteten, og<br />

se på om ressourcerne alternativt kunne være blevet anvendt bedre” (Schaumburg-<br />

Müller 2001:250). Skal man eksempelvis evaluere Danidas støtte til en lokalradio-<br />

station, vil man i et efficiensperspektiv interessere sig for, om radiostationens<br />

organisation kører fornuftigt, om der er orden i økonomien, og om stationen sender i<br />

det aftalte antal timer. Indikatorerne på efficiens vil typisk være fastlagt allerede<br />

inden projektet går i gang og fremgå af projektdokumentationen (Danida 1997:53).<br />

11.1.1.2. Outcome<br />

Outcome defineres som bistandens effekt på mellemlang sigt (Danida 1997:22).<br />

Denne effektdimension måles i Danidas evalueringer ved hjælp af to kriterier:<br />

effektivitet og bæredygtighed.<br />

Effektivitet (effectiveness). Dette effektperspektiv fokuserer på: ”i hvilket omfang de<br />

mål, der er stillet for aktiviteten, er blevet opfyldt” (Schaumburg-Müller 2001:251),<br />

og det forholder sig til outcomeniveauet ud fra et målgruppeperspektiv (Danida<br />

1997:50). En effektivitetsvurdering af det førnævnte eksempel med radiostationen vil<br />

således undersøge, om målgruppen lytter til radiostationen, og hvad de får ud af det.<br />

Man kan sige, at effektivitetskriteriet undersøger de langsigtede udviklingsmål på et<br />

målbart niveau (Danida 1997:54-55).<br />

Bæredygtigheden defineres som et spørgsmål om ”hvorledes de fordele, som<br />

bistandsaktiviteten har ført til, kan forventes opretholdt efter indsatsens afslutning”<br />

(Schaumburg-Müller 2001:251). De faktorer, der ifølge Danidas evaluerings-<br />

retningslinier påvirker bæredygtighed er af politisk, teknologisk, sociokulturel,<br />

institutionel og økonomisk karakter (Danida 1997:60f., 89). I lokalradioeksemplet<br />

ville en bæredygtighedsvurdering således se på, om radiostationen fortsat ville kunne<br />

eksistere efter Danida havde trukket sig ud: er projektaktørerne motiverede for at<br />

fortsætte? Er de økonomiske midler til rådighed? Er radiostationen i fare for at blive<br />

lukket af de lokale myndigheder?<br />

11.1.1.3. Impact<br />

På et impact-niveau søger man at vurdere de langsigtede og uforudsete projekt-<br />

virkninger. Af Danidas evalueringsretningslinier fremgår det, at det er væsentligt i en<br />

evaluering også at tage impacts i betragtning ud fra en læringsmålsætning: ”The<br />

reason for such a broad perspective in evaluations of projects is essentially the need<br />

to learn from experience and improve upon the design of similar projects in the<br />

134


future” (Danida 1997:22). Evalueringskriterierne, som ifølge retningslinierne skal<br />

indfange impactdimensionen er: virkning og relevans.<br />

Virkning er det bredeste effektperspektiv, ”der skal se på de mere langsigtede<br />

tilsigtede og utilsigtede forandringer, som bistandsaktiviteten fører til” (Schaumburg-<br />

Müller 2001:251). Virkningskriteriet vurderer indsatsen fra et overordnet samfunds-<br />

mæssigt synspunkt og inddrager andre målgrupper og interessenter end de umiddel-<br />

bart definerede. Hvor de øvrige effektniveauer efficiens og effektivitet begge kun<br />

fokuserer snævert på de tilsigtede og umiddelbare outputs og outcomes, inkluderer<br />

virkning både positive, negative, forudsete og uforudsete effekter (Danida 1997:56). I<br />

lokalradioevalueringen kunne en virkningsvurdering eksempelvis fokusere på, om<br />

udsendelserne har medvirket til at ændre lytternes holdning til menneskerettigheder,<br />

om radiostationen har favoriseret bestemte grupper på bekostning af andre, om<br />

indsatsen har bidraget til at give kvinder bedre vilkår og muligheder for at deltage i<br />

demokratiet og så videre.<br />

Relevans, der er et udtryk for, hvordan udviklingsaktiviteten forholder sig til såvel<br />

donorens som de lokales behov og prioriteringer, skal ifølge Danidas evaluerings-<br />

retningslinier også inddrages som evalueringskriterium i bedømmelsen på impact-<br />

niveau (Danida 1997:51). Eksempelvis vil en relevansvurdering forholde sig til,<br />

hvorvidt der er sket forskydninger i de lokale magtforhold og/eller mediestrukturer,<br />

sådan at det enkelte projekt mister sin relevans, eller om projektet har bevæget sig så<br />

langt fra målsætningen, at donor ikke længere finder det relevant at yde støtte til<br />

(Danida 1997:58f.).<br />

11.2. Analyse: Fokus på output, outcome og/eller impact i<br />

kommissorier og rapporter<br />

De fem kriterier optræder i forskellig grad i de enkelte reviews og evalueringer. Vi<br />

vil nu undersøge hvilke kriterier, de otte kommissorier fokuserer på, og sammenligne<br />

dette med de kriterier og indikatorer, som reelt anvendes i rapporterne. Formålet med<br />

analysen er at belyse, hvordan kommissorier og rapporter bidrager til at konstruere<br />

mediebistanden på et indholdsmæssigt og tidsligt niveau.<br />

135


11.2.1. Måling af output: Efficiens<br />

Input<br />

Efficiens<br />

Output<br />

Effektivitet og<br />

bæredygtighed<br />

Virkning og<br />

Relevans<br />

Outcome<br />

Impact<br />

I de analyserede kommissorier og rapporter optræder tre indikatorer på efficiens: (a)<br />

indsatsens målopfyldelse i forhold til projektdokumentet, (b) særlige problematikker i<br />

forbindelse med implementering samt (c) omkostningseffektivitet.<br />

Efficiensindikatorer Antal kommissorier<br />

indikatorerne optræder<br />

i<br />

Målopfyldelse 6 63<br />

Antal rapporter indikatorerne<br />

optræder i<br />

Relation 62<br />

8 +2<br />

Implementering generelt 6 6 0<br />

Omkostningseffektivitet 4 5 +1<br />

Figur 11b<br />

Spørgsmålet om, hvorvidt indsatsen opfylder de i projektdokumentet fastsatte mål,<br />

stilles i seks kommissorier og besvares i samtlige otte rapporter. Rapporternes<br />

vurderinger af graden af målopfyldelse er generelt utvetydige og forholder sig med<br />

en høj detaljeringsgrad til de oplysninger, som er fundet i projektdokumenterne,<br />

hvilket dette uddrag er et eksempel på:<br />

So far 19 of the 20 trainers (the Project Document benchmark) have been<br />

trained (the 20 th was included and planned for, but missed his course by his<br />

own fault). (NSJ 03:8)<br />

Implementeringsproblematikker behandles indgående i seks rapporter – på forskellig<br />

vis – afhængig af omfanget af problemer i projektorganisationen. Halvdelen af de<br />

analyserede kommissorier stiller krav om en analyse af den tredje efficiensindikator,<br />

omkostningseffektivitet:<br />

The review team will provide an opinion on whether the cost of MISA's work<br />

is reasonable for what it achieves. Would it be possible to achieve the same<br />

benefits at less cost? (MISA 04:47)<br />

62 Denne værdi angiver hvilket omfang rapporterne opfylder kommissoriernes krav. En positiv værdi,<br />

som i dette tilfælde, indikerer at de analyserede rapporter generelt overopfylder kommissorierne.<br />

63 Vi henviser generelt i dette afsnit til bilag 4.I. for en detaljeret gennemgang af, hvilke konkrete<br />

kommissorier og rapporter, der henvises til.<br />

136


Omkostningseffektivitet figurerer i fem af rapporterne, skønt denne indikator kun er<br />

’bestilt’ i 4 af kommissorierne. Som det fremgår af figur 11b, er der en tendens til, at<br />

rapporterne overopfylder kommissoriernes målsætninger, hvad angår vurdering af<br />

outputs. Forklaringerne herpå vender vi tilbage til senere.<br />

Opsummerende foretager alle otte rapporter målinger af outputs – reviews dog i<br />

højere grad end evalueringer (bilag 4I). Outputvurderingerne er generelt<br />

velunderbyggede, detaljerede og utvetydige.<br />

11.2.2. Måling af outcome: Effektivitet<br />

Input<br />

Efficiens<br />

Output<br />

Effektivitet og<br />

bæredygtighed<br />

Virkning og<br />

Relevans<br />

Outcome<br />

Impact<br />

Der er gennemgående to måder, hvorpå kommissorier og rapporter griber en<br />

effektivitetsmåling an: (a) vurdering af opfyldelse af udviklingsmålene på et taktisk<br />

niveau samt (b) målgruppens vurdering.<br />

Effektivitetsindikatorer Antal kommissorier<br />

indikatorerne optræder<br />

i<br />

Antal rapporter indikatorerne<br />

optræder i<br />

Relation<br />

Målopfyldelse 8 4 -4<br />

Målgruppens vurdering 4 4 0<br />

Figur 11c<br />

Samtlige kommissorier ønsker en vurdering af, hvorvidt den evaluerede/reviewede<br />

indsats lever op til de ønskede udviklingsmål på et taktisk niveau. Denne formulering<br />

er en kende ukonkret, hvilket skyldes, at der er tale om en ukonkret indikator.<br />

Eksempelvis stilles dette krav i et kommissorium:<br />

The evaluation/review will determine (…) whether MISA meets its broadly<br />

stated objectives (MISA 01/02:4)<br />

Og det besvares i rapporten på tilsvarende svævende vis:<br />

The organisation is broadly meeting its overall objectives. Nevertheless, it is<br />

equally clear that there is room for improvement (MISA 01/02:vi)<br />

137


Grundlaget for vurderingen er uklart, ligesom anvendelsen af ordet “broadly”<br />

bidrager til nogen forvirring. I kommissoriet er det udviklingsmålene, der er ’bredt’<br />

formuleret, mens det i rapporten er MISA’s indsats, som ’i et bredt perspektiv’ lever<br />

op til målene.<br />

En anden indikator på effektivitet er målgruppens vurdering. Reviewet af medie-<br />

bistanden til Bangladesh, der – som tidligere nævnt – skiller sig ud fra de øvrige ved<br />

at kombinere flere typer dataindsamlingsmetoder og basere sine konklusioner på et<br />

omfattende materiale, leverer det mest velunderbyggede bud på en målgruppe-<br />

vurdering. Det illustreres i disse to eksempler:<br />

The course participants interviewed found the methods and the fieldwork<br />

implemented during the course useful. (Bangladesh 02:6)<br />

Some of the recent newsletters were given by the team to a number of<br />

journalists and editors met in Noakhali and Patuakhali to have their assessment<br />

of the style and content. The response was that the newsletters are easy to read<br />

and understand. (Bangladesh 02:6)<br />

Alene det, at reviewholdet har gjort en indsats for at høre målgruppens vurdering, er<br />

ekstraordinært, men der er stadig tale om et ganske lille udpluk af målgruppen: De få<br />

adspurgte repræsenterer en begrænset og umiddelbart tilgængelig del af målgruppen<br />

frem for ’slutbrugerne’, eksempelvis læsere og lyttere af de journalistiske produkter.<br />

Det fremgår af figur 11c og bilag 4I, at alle kommissorier ønsker en effektivitets-<br />

vurdering, mens kun fire rapporter leverer en sådan. Som vi har set, udtaler<br />

konsulenterne sig langt fra med samme detaljeringsgrad og utvetydighed som<br />

tilfældet var i forbindelse med outputvurderingerne. Men hvad gør forfatterne til de<br />

rapporter, som ikke – eller kun i begrænset omfang – besvarer kommissoriernes krav<br />

om at analysere indikatorer på effektivitet?<br />

To strategier for at omgå eller helt undgå kravene i kommissorierne går igen i de otte<br />

rapporter. Først og fremmest beklager konsulenterne, at de ikke har haft de fornødne<br />

data og metoder til rådighed til at foretage de nødvendige effektivitetsanalyser. En<br />

sådan forklaring gives i fem af de otte rapporter, og lyder eksempelvis således:<br />

It is difficult to assess accurately what MISA achieved in one year (…) Ideally<br />

what one should be looking for are protracted public debates, activities and<br />

engagement instead of short terms activities. Nevertheless, this section<br />

summarizes MISA’s achievements during the year under review even if those<br />

achievements are, in some cases, limited to activities and outputs and not<br />

outcomes. (MISA 04:35)<br />

Som det beskrives her, ser rapportens forfattere sig nødt til at fortolke outcome-<br />

kriterierne på et outputniveau af ressource- og tidsmæssige årsager. En anden<br />

strategi, som ligeledes optræder i fem rapporter, er at fremsætte forsigtige<br />

138


vurderinger og/eller udokumenterede påstande om indsatsens effektivitet. Dette kom<br />

til udtryk i den ovenstående formulering om, at MISA ’i et bredt perspektiv’ levede<br />

op til de fastsatte udviklingsmål, og det ses også i dette uddrag et review, hvor<br />

forfatternes tilslutning til konklusionerne fremstår mere forsigtig i kraft af brugen af<br />

verberne ’seem’ og ’may’:<br />

Each of the components seems to contribute to the achievement of the<br />

objectives (…) education and training of students and media professionals in<br />

practical and ethics aspects of journalism might have been strengthened<br />

through the support. (Zambia 02:viii, vus.)<br />

Konsulenternes anvendelse af disse strategier indikerer, at de finder det vanskeligt at<br />

operationalisere effektivitetskriteriet og finde egnede indikatorer – en problem-<br />

stilling, som vi vender tilbage til i afsnit 11.3.<br />

11.2.3. Måling af outcome: Bæredygtighed<br />

I gennemgangen af Danidas projektevalueringsmodel blev det nævnt, at bæredygtig-<br />

hed i retningslinierne fortolkes som et outcome-kriterium, det vil sige som et spørgs-<br />

mål om, hvorvidt effekterne af indsatsen er bæredygtige. Når det er sagt, så ser vi<br />

imidlertid en tendens til, at både rapporter og kommissorier fortolker bæredygtighed<br />

som et output-kriterium i og med, at man primært vurderer medieprojekternes økono-<br />

miske og institutionelle bæredygtighed.<br />

Bæredygtighedsindikatorer Antal kommissorier<br />

indikatorerne optræder<br />

i<br />

Antal rapporter indikatorerne<br />

optræder i<br />

Relation<br />

Effekternes bæredygtighed 3 1 -2<br />

Institutionel/økonomisk bæredygtighed 5 6 +1<br />

Figur 11d<br />

En interessant pointe i denne forbindelse er, at rapporterne har tendens til at definere<br />

bæredygtighed som et spørgsmål om projekternes evne til at interagere med donor-<br />

agenturer. Med andre ord drages der paralleller mellem ’en kompetent partnerorgani-<br />

sation’ og levering af en bæredygtig indsats:<br />

MISA is almost entirely funded by foreign donors. It goes without saying,<br />

therefore, that the capacity of MISA to interact with donors is crucial to the<br />

overall effectiveness of the organisation (MISA 01/02:61)<br />

Relationen mellem forekomsten af indikatorerne i kommissorier og rapporter under-<br />

bygger det mønster, som de to foregående afsnit peger på: rapporterne overopfylder<br />

kommissoriernes krav, når det drejer sig om måling af outputs, men lever ikke op til<br />

dem hvad angår outcomevurderinger.<br />

139


11.2.4. Måling af impact: Virkning<br />

Input<br />

Efficiens<br />

Output<br />

Effektivitet og<br />

bæredygtighed<br />

Virkning og<br />

Relevans<br />

Outcome<br />

Impact<br />

Der optræder to tilgange til at vurdere mediebistandens virkning i de analyserede<br />

kommissorier og rapporter: (a) en vurdering af indsatsens effekt på menneskerettig-<br />

heder og demokrati – det vil sige en vurdering af opnåelse af udviklingsmålene set<br />

fra et strategisk og samfundsmæssigt perspektiv, samt (b) en vurdering af indsatsens<br />

utilsigtede effekter.<br />

Virkningsindikatorer Antal kommissorier<br />

indikatorerne optræder i<br />

Indsatsens effekt på menneske-<br />

rettigheder og demokrati<br />

Antal rapporter indikatorerne<br />

optræder i<br />

Relation<br />

6 5 -1<br />

Utilsigtede effekter 4 1 -3<br />

Figur 11e<br />

Hovedparten af kommissorierne beder om konsulentholdets vurdering af indsatsens<br />

effekt på udviklingen af menneskerettigheder og demokrati – det gælder i højere grad<br />

evaluerings- end reviewkommissorier (bilag 4I):<br />

Assess if and how the Danish financed activities supporting free and objective<br />

information (media) have promoted democratisation and human rights.<br />

(Danida 2000A:52)<br />

Som det var tilfældet i forbindelse med de to outcomekriterier: effektivitet og bære-<br />

dygtighed, har konsulenterne vanskeligt ved at opfylde kommissoriernes krav om at<br />

vurdere virkningen af mediebistanden. Det kommer atter til udtryk ved, at rapport-<br />

forfatterne gør opmærksom på mangelfulde data og ressourcer (seks rapporter, bilag<br />

4I), og desuden fremsættes udokumenterede påstande (fire rapporter, bilag 4I) som<br />

at:<br />

MISA has contributed to the building of democracy, freedom of expression and<br />

improvement of human rights. (MISA 04:8)<br />

Mens vurderingsgrundlaget i ovenstående udsagn er uklart, og påstanden derfor<br />

fremstår postulerende, er der også enkelte eksempler på, at konsulenterne forsøger at<br />

140


finde frem til operationaliserbare indikatorer på virkning – i dette tilfælde i form af<br />

en kvantitativ, sammenlignende tekstanalyse:<br />

The review team has noticed a general increase in the number of news stories<br />

on these issues in the newspapers compared to the output two years ago.<br />

(Bangladesh 02:9)<br />

Generelt er der dog tale om, at rapporternes forsøg på at besvare kommissoriernes<br />

ønske om en vurdering af virkning på et samfundsniveau bygger på forestillede<br />

konstruktioner af, hvad der kan tænkes at ske, frem for at basere sig på håndfast<br />

empirisk materiale. Med andre ord søger rapportforfatterne at imødekomme den<br />

metodiske udfordring ved at tage afsæt i normative teorier om mediernes<br />

demokratiske rolle (Nordenstreng 1997):<br />

The evaluation team has chosen to cope with the methodological challenge by<br />

starting out by analysing the potential role that Media may play in<br />

democratisation and improved respect for Human Rights. (Danida 2000A:1)<br />

Fire af kommissorierne ønsker desuden, at rapporterne forholder sig de utilsigtede<br />

virkninger af mediebistanden. Som det ovenstående figur 11e viser, vurderes dette<br />

imidlertid kun i en enkelt rapport (MISA 04), af hvilken det fremgår, at indskrænk-<br />

ninger i ytringsfriheden muligvis kan tilskrives en mere kritisk journalistik (MISA<br />

04:13). Hvorvidt tendensen kan tilskrives Danidas mediebistandsindsats, forholder<br />

rapporten sig dog ikke til.<br />

Opsummerende kan vi fastslå, at Danida er interesseret i at måle mediebistandens<br />

effekt på medier og demokrati, hvilket kommer til udtryk i kommissoriernes krav.<br />

Konsulenterne har imidlertid vanskeligt ved at finde egnede indikatorer til en<br />

besvarelse af spørgsmålet, hvorfor de tyr til gisninger baseret på normative medie-<br />

teorier.<br />

11.2.5. Måling af impact: Relevans<br />

En af de metodiske udfordringer ved at vurdere mediebistandens relevans er at<br />

identificere et grundlag at gøre dette ud fra. Af Danidas retningslinier for evaluering<br />

fremgår det, at relevans både skal vurderes i forhold til lokale behov, partnernes<br />

prioriteringer og donors målsætninger (Danida 1997:58f.). Disse tre vurderings-<br />

grundlag figurerer således i de analyserede kommissorier og rapporter:<br />

Relevansindikatorer Antal kommissorier indikatorerne<br />

optræder i<br />

Antal rapporter indikatorerne<br />

optræder i<br />

Relation<br />

I forhold til lokale behov 6 3 -3<br />

I forhold til partnernes<br />

prioriteringer<br />

2 1 -1<br />

I forhold til donors prioriteringer 2 5 +3<br />

Figur 11f<br />

141


Seks kommissorier udbeder sig en vurdering af relevansen af den reviewede/<br />

evaluerede indsats i forhold de lokale behov. De tre rapporter, som forholder sig<br />

hertil, ser enten på relevans fra et målgruppeperspektiv, hvilket eksemplificeres i det<br />

første af de to nedenstående uddrag, eller vurderer relevansen ud fra en samfunds-<br />

vinkel, som det kommer til udtryk i uddrag nummer to:<br />

Every year, approximately 60 students graduate from each of the two major<br />

training institutions, and this is far beyond the number demanded by the<br />

industry (Zambia 02:67)<br />

MISA’s mission is as relevant as ever 10 years after the Windhoek declaration,<br />

as autocratic tendencies threatening press freedom continue to emerge in many<br />

countries in the region (MISA 01/02:vii)<br />

Som det gælder for de øvrige indikatorer på impact- og outcomeniveau, er relationen<br />

mellem kommissoriernes målsætninger og de faktiske vurderinger i rapporterne dog<br />

negativ. Ganske få kommissorier og rapporter inddrager partnernes vurdering af<br />

indsatsens relevans, hvorimod et relativt stort antal rapporter vurderer relevans i<br />

forhold til donors prioriteringer:<br />

With regard to the strategy of the project, the review team concludes that<br />

generally the objectives are relevant and in line with the development<br />

objectives of the overall Danida Strategies for Support to Human Rights and to<br />

Media. (Bangladesh 02:viii)<br />

Den netop citerede rapport, reviewet af mediestøtten til Bangladesh, vurderer<br />

udelukkende relevans på grundlag af donors prioriteringer, og det til trods for det<br />

faktum at reviewkommissoriet også ønsker en bedømmelse af indsatsens relevans i<br />

forhold partnernes ønsker og de lokale behov. Der er ikke tale om et enestående<br />

eksempel herpå. Tværtimod er der tendens til, at rapporterne ikke imødekommer<br />

kravene i kommissorierne – særligt gælder dette for evalueringskommissorierne, der<br />

fortolker relevans på et strategisk niveau som et spørgsmål om målgruppens og<br />

samfundets behov. I stedet fortolker konsulenterne relevanskriteriet på et taktisk<br />

niveau og undersøger, hvorvidt indsatsen stemmer overens med Danidas ønsker. At<br />

konsulentholdene har vanskeligt ved at gribe kommissoriekravene an i praksis,<br />

kommer desuden til udtryk ved, at der i hele seks af rapporterne fremkommer<br />

udokumenterede påstande og gisninger om relevans (bilag 4I). Afsnit 11.4.2.<br />

behandler problemstillingen omkring overambitiøse kommissorier nærmere.<br />

11.2.6. Konklusion<br />

Konklusionen på ovenstående dokumentanalyse er, at kommissorierne – især for<br />

evalueringernes vedkommende – er mere ambitiøse i forhold til vurdering af<br />

indsatsen på outcome- og impactniveau, end det er muligt for konsulenterne at leve<br />

op til. Konsulenterne kompenserer herfor på tre måder. Først og fremmest fokuserer<br />

de i høj grad på outputs, også i højere grad end kommissorierne lægger op til.<br />

142


Dernæst viser analysen en tendens til, at rapportforfatterne foretager impactvurde-<br />

ringer på baggrund af gisninger og normative forestillinger om mediernes rolle<br />

snarere end ud fra data. Endelig operationaliseres Danidas prioriteringer som bedøm-<br />

melsesgrundlag, hvorved indsatsen bedømmes fra en donorvinkel i stedet for fra et<br />

partner- eller målgruppeperspektiv. Denne anvendelse af kriterier og indikatorer<br />

bidrager til at forme et bestemt billede af hvad ’den gode mediebistandsindsats’ er,<br />

og det vil være temaet i næste afsnit.<br />

11.3. Den gode mediebistandsindsats<br />

De otte evaluerings- og reviewrapporter, som indgår i vores dokumentanalyse,<br />

beskriver i kraft af deres fokus på output og implementeringsproblematikker den<br />

gode mediebistandsindsats som et velorganiseret projekt, der formår at leve op til de<br />

fastsatte projektmål og levere resultater på et operationelt niveau. I rapporterne roses<br />

de reviewede og evaluerede indsatser eksempelvis for at være “…performing well<br />

and have achieved or exceeded the outputs” (NSJ 03:s. iii), og ”…a highly profes-<br />

sional organisation both in its activities, reporting and accountability mechanisms”<br />

(MISA 01/02:62). Den gode projektorganisation er endvidere kendetegnet ved at<br />

besidde de fornødne kompetencer til at interagere med Danida på Danidas præmisser,<br />

jævnfør beskrivelsen i afsnit 11.2.3. om bæredygtighed.<br />

At reviews og evaluering i høj grad vurderer mediebistandsindsatsen ud fra et donor-<br />

perspektiv kommer også til udtryk ved, at det gode projekt defineres som et ’unikt’<br />

projekt (en vending, som går igen i hele 6 rapporter, se bilag 4I):<br />

Radio Colectivo Radial Feminista (CRF) in Peru is a specific and unique<br />

communications project. (Danida 2000A:35, vus)<br />

The organisation has established itself as one of the main champions of<br />

democracy, freedom of expression and human rights, and no other organisation<br />

in the region or on the African continent for that matter has a better network in<br />

the media environment. (MISA 04:7, vus)<br />

Konstruktionen af ’den gode mediebistandsindsats’ som unik kommer tydeligst til<br />

udtryk i reviewet af NSJ fra 2003 (NSJ 03 & bilag 4G), som problematiserer, at NSJ<br />

har fået konkurrence fra andre uddannelsesinstitutioner i regionen. Dette kan synes<br />

absurd at problematisere, idet man vel må anse det for positivt og fremmende for en<br />

demokratisk udvikling, at lokale institutioner, som er uafhængige af udviklings-<br />

bistand, på eget initiativ løfter opgaven at uddanne kritiske journalister? Ikke desto<br />

mindre kredser hovedparten af reviewets anbefalinger om, hvordan NSJ kan genfinde<br />

en niche. En forklaring herpå kan være, at Danida kun kan legitimere at støtte unikke<br />

og nyskabende projekter. Ikke-unikke projekter gør sig derfor ikke fortjent til at<br />

modtage dansk udviklingsbistand.<br />

143


Donorperspektivet forstærkes endvidere af rapportforfatternes tendens til at tage<br />

afsæt i Danidas prioriteringer som grundlag for vurdering af relevans samt i norma-<br />

tive teorier i mangel af konkrete indikatorer på mediebistandens virkning. Dette<br />

medfører, at der tegnes et billede af ’den gode mediebistandsindsats’ som værende i<br />

overensstemmelse med Danidas forventninger og målsætninger. Man kan altså tale<br />

om, at Danida vurderer sin omverden i sit eget spejlbillede, hvilket med al tydelighed<br />

illustreres i dette citat, der definerer ’den gode mediebistandsindsats’ som én, der<br />

sender de rette signaler om donors intentioner:<br />

It is a visible and effective way for an external donor to show solidarity and<br />

involvement. (Danida 2000A:38)<br />

Evaluerings- og reviewrapporternes konstruktion af mediebistanden forstærker<br />

således partnerskabets paradoks, idet ’den gode partner’ understøtter Danidas selv-<br />

forståelse som en engageret donor, der viser solidaritet og fremmer partnernes demo-<br />

kratiske udvikling. I hvert fald så længe denne udvikling matcher Danidas priorite-<br />

ringer og leverer resultater, som øger dens legitimitet overfor de danske skatteydere.<br />

11.3.1. Diskussion<br />

Evalueringskriterier, som vurderer mediebistanden på et outputniveau, spiller ind i<br />

den udviklingsteoretiske moderniseringsdiskurs ved at forholde sig til foruddefine-<br />

rede mål og bedømme ’graden af udvikling’ i forhold til disse. Modsat er outcome-<br />

og impactkriterier åbne dels for partnernes egne definitioner, dels for målgruppens<br />

vurdering og dels for uforudsete faktorer og utilsigtede effekter. Man kan således tale<br />

om, at impact- og outcomemålinger i højere grad vurderer ’typen af udvikling’,<br />

hvilket er i overensstemmelse med den kritiske udviklingsdiskurs’ forskrifter og for-<br />

ståelse. Ærindet her er ikke at sige, at impacts og outcomes er mere interessante end<br />

vurderinger af mediebistandens outputs – eller omvendt. Men vi mener, at alle tre<br />

effektniveauer er væsentlige at forholde sig til af hensyn til såvel en lærings- som en<br />

kontrolmålsætning. I forlængelse heraf finder vi det problematisk, at de analyserede<br />

evalueringer og reviews forholder sig så overfladisk og postulerende til medie-<br />

bistandens outcome og impact, som tilfældet er.<br />

Skal reviews og evalueringer leve op til målsætningen om at bidrage til læring med<br />

henblik på justering af mediebistand, er det efter vores mening særdeles væsentligt at<br />

sørge for tilvejebringelse af ny viden. Tendensen til at fokusere på, hvorvidt indsatsen<br />

lever op til foruddefinerede mål, gør at man bevæger sig inden for en enkeltsløjfet<br />

læringscyklus: Er det vi gør tilstrækkeligt i forhold til at nå de opstillede målsæt-<br />

ninger? Anvendelsen af egne målsætninger som referenceramme gør, at evaluerings-<br />

indsatsen bliver et spørgsmål om at måle, hvad man allerede ved og har redskaber til<br />

144


at måle 64 . Ved at foretage grundige outcomestudier og om muligt også at give kvali-<br />

ficerede impactvurderinger, ville man skabe grobund for en dobbeltsløjfet lærings-<br />

proces, med et spørgsmål som: Er mediebistand den rette måde at nå vores mål på?<br />

Også i et kontroløjemed er det vigtigt at have et skarpere fokus på mediebistandens<br />

outcome og impact. Et eksempel herpå er støtten til lokalradioer 65 . Denne støtte<br />

udgør en anseelig del af den danske mediebistand (Danida 2000A:23), og der er tale<br />

om projekter, som generelt bedømmes positivt. Dels er projekterne afgrænsede og<br />

derfor relativt nemme at implementere og opstille konkrete outputmål for, og dels<br />

udmærker lokalradioprojekter sig ved at kunne sammenkæde mediebistanden med<br />

Danidas målsætninger om særligt at tilgodese kvinder og fattige (Danida 2000B).<br />

Evaluerer eller reviewer man lokalradioprojekter alene ud fra outputkriterier og<br />

donors prioriteringer, vil vurderingerne derfor sandsynligvis falde ud til den gode<br />

side. Men spørgsmålet om, hvorvidt radiostationen rent faktisk har lyttere, og hvad<br />

disse lyttere i så fald får ud af deres lytning, besvares uhyre sjældent, skønt dette er<br />

nok så interessant – for såvel projektorganisationen og Danida som for de danske<br />

skatteydere, der i sidste ende skal garantere mediebistandens legitimitet.<br />

11.3.2. Indikatorfiksering?<br />

Danidas projektevalueringsmodel, som vi gengav i afsnit 11.1.2., fremstiller et<br />

projekt som: ”a single cause-effect chain of identifiable elements” (Danida 1997:21).<br />

Denne forsimpling og antagelse om en klar kausal sammenhæng mellem input,<br />

outputs, outcome og impact er en analytisk øvelse, som gør det nemmere at fokusere<br />

en evaluering. Men den er ikke neutral i forhold til den måde, Danida gennemfører<br />

mediebistandsaktiviteter – og andre projekter. Den projektimplementeringsmodel,<br />

som siden 1989 har været anvendt i Danida kaldes Logical Framework Approach<br />

(LFA, Danida 1996:3). Tankegangen bag LFA er at nedbryde indsatsen til en række<br />

delelementer for derved at gøre det nemmere at planlægge, implementere og<br />

evaluere. Danidas evalueringsmodel kan ses som resultat af en LFA-tilgang, idet<br />

formålet med evaluering, reviews og projektdokumentation så at sige er at identifi-<br />

cere netop hvor i kæden af kausalt sammenhængende projektelementer, der er opstået<br />

særlige problemer eller uventede succeser. Evalueringskriterierne er simple for at<br />

kunne fungere som ledelsesværktøjer – for utvetydigt at kunne identificere vellyk-<br />

kede og mindre vellykkede aktiviteter:<br />

Og et af de vigtige mål, det er jo helt klart at få noget ledelsesrelevant<br />

information, som vi lærer af og træffer bedre beslutninger på baggrund af. Så…<br />

64 ”Measuring what we already know and can measure”, Morten Sodemann, citat fra oplæg om<br />

effektivitetsmåling i forbindelse med bekæmpelse af børnedødelighed i Vestafrika. Annual Development<br />

Symposium, 10. september 2004. Aarhus Universitet, Søauditoriet. Arrangør: Centre for Tropical<br />

Ecosystems Research (cenTER).<br />

65 Den engelske term ’community radios’ er mere dækkende for denne del af Danidas mediebistand, som<br />

ikke blot går til radiostationer, der dækker et geografisk lokalområde, men også til ’community’-radioer<br />

målrettet eksempelvis kvinder og etniske minoriteter.<br />

145


så det er jo så… det stiller krav i øvrigt også om enkelthed, og også om at<br />

systemerne skal være sådan keep it simple, for ellers kan man faktisk ikke få<br />

truffet beslutninger. Det er måske noget af det, vi har lært fra tidligere<br />

systemer, at hvis det bliver for komplekst, så bliver det ikke ledelsesrelevant<br />

længere. (<strong>OG</strong>)<br />

Målsætningen om forsimpling og standardisering har selvsagt betydning for den<br />

anvendte evalueringsmetode 66 . Men tendensen mod forsimpling og standardisering<br />

tilskynder også projekterne til – allerede langt tidligere i forløbet – at holde fokus på<br />

netop Danidas fem evalueringskriterier og sørge for, at deres resultater bliver opnået<br />

og opgjort på en måde, så de bliver synlige, når projektet reviewes og/eller evalueres.<br />

Denne disciplinering af projekterne foregår løbende og tavst, og vi kan i vores empi-<br />

riske materiale ikke se eksempler på en åbenlys indikatorfiksering i stil med de<br />

tidligere fremstillede eksempler fra Arbejdsformidlingen og den polske møbelindus-<br />

tri 67 . Danidas evalueringskriterier påvirker dog utvivlsomt partnernes adfærd og<br />

selvforståelse, hvilket fremgår af blandt andet dette udsagn:<br />

… der har vi så den tilgang, at det skal være sådan, ellers så tror vi ikke på det<br />

bærer. Og det har selvfølgelig noget at gøre med, at en af de parametre, som<br />

Danida også altid lægger meget vægt på i deres evalueringer, det er<br />

bæredygtighed. (PO)<br />

Hos Danidas partnere sker der en internalisering af kontrollen – en mekanisme som<br />

tidligere er blevet præsenteret ved hjælp af Foucaults teori om panoptisk overvåg-<br />

ning. Det er ikke alene bedømmelsen, som disciplinerer projektet, men selve bevidst-<br />

heden herom, der gør, at projektet disciplinerer sig selv. Denne problemstilling<br />

behandler vi nærmere i kapitel 12.<br />

11.3.3. En tvetydig anledning til identitetsartikulation<br />

Vi kan ikke på baggrund af ovenstående påvise, hvor langt indikatorfikseringen<br />

rækker, men vi kan se, at bedømmelsesaktiviteterne i nogen grad griber ind i den<br />

måde, Danidas mediebistand udføres på. Endvidere griber de ind i den måde, hvorpå<br />

partnerne og Danida forstår sig selv og hinanden – det, som vi tidligere har kaldt<br />

evalueringers og reviews konstitutive virkninger.<br />

Dahler-Larsen beskriver en evalueringsproces som en ”tvetydig anledning til identi-<br />

tetsartikulation” (Dahler-Larsen 1998:126). Identitetsartikulation fordi evaluerings-<br />

aktørerne (gen)forhandler relationer og selvforståelser ud fra de identitetsmuligheder,<br />

som evalueringsrammen tilbyder. Tvetydig fordi evalueringernes kontrolfunktion på<br />

66 Det kommer blandt andet til udtryk ved en tendens til standardisering af afrapporteringsformater, idet<br />

KVA har indført en fempunkts karakterskala fra A til D, som anvendes i evalueringerne af MISA 2002<br />

og NSJ 2002 (NSJ 02 og bilag 7).<br />

67 Dette skyldes blandt andet, at vores empiriske materiale kun omfatter dokumenter og interviews. En<br />

interessant og relevant analyse, som imidlertid ligger uden for dette speciales fokus, vil være at følge et<br />

eller flere projekter over tid for derigennem at få et indtryk af, om deres adfærd og selvforståelse<br />

påvirkes af evalueringer og reviews.<br />

146


den ene side medfører utryghed: selvet løber en risiko for ikke at blive socialt aner-<br />

kendt, og derfor sættes særligt de evaluerede aktørers identitet på en prøve, der ople-<br />

ves som ubehagelig. På den anden side er evaluering også en positiv kilde til stabili-<br />

sering af ens identitet, idet ”[e]valuering betyder, at der udvises interesse for en”<br />

(Dahler-Larsen 1998:126). Et mediebistandsprojekt kan således anvende et review<br />

eller en evaluering til at prøve sin egen identitetsdannelse og relationerne til omver-<br />

denen. Tvetydigheden kommer tydeligt til udtryk i dette uddrag fra et interview med<br />

en repræsentant for en af Danidas partnerorganisationer:<br />

Så derfor har det været… øh… har jeg set frem til de der evalueringer og<br />

reviews med en lille nervøsitet, fordi det er hele mig, jeg har givet alt, hvad jeg<br />

kunne, og alt hvad der er begrænsninger, det er mine begrænsninger som<br />

person, ikke. Men også meget, meget velkomment. (PO)<br />

Partneren beskriver sine følelser forud for reviews og evalueringer som en blanding<br />

af ”nervøsitet” og en glæden sig til vurderingen som noget ”velkomment”. Årsagen<br />

til de blandede følelser er, at partnerne oplever at blive vurderet personligt: ”det er<br />

hele mig”. Er vurderingen positiv, er den en anerkendelse af ens arbejdsindsats, men<br />

er den negativ, opleves den af partnerne som et personligt angreb. Partnernes reaktion<br />

på kritik kan derfor ofte være voldsom, hvilket illustreres i nedenstående udsagn,<br />

hvor en konsulent fortæller om sine erfaringer med at blive hængt personligt ud af en<br />

partnerorganisation, som var utilfreds med en evaluering, vedkommende havde<br />

udført:<br />

… da syntes de virkelig, jeg var skudt i låget, ikke altså. Helt klart. Altså, og i<br />

NGO-verdenen herhjemme bagefter, der gik de vildeste rygter om, hvor dårlig<br />

en konsulent, jeg var, ikke altså. Med folk, der sagde: ’Sig mig, er det dig, de<br />

snakker om, fordi de siger sådan og sådan’, ikke. (KS)<br />

Hvis partnerne ikke kan acceptere det mærkat, som hæftes på dem, afviser de det ved<br />

at rette skytset mod den eller de konsulenter, som har udført evalueringen eller<br />

reviewet, ofte ved at beskylde konsulenterne for uvidenhed. At konsulenten er<br />

ekstern – og derfor også ofte uvidende i udgangspunktet – gør det nemmere for de<br />

evaluerede aktører at afvise kritikken ved at afskrive konsulenten som ”en nørd”<br />

(PO), ”the Bitch” (KS) eller som en ’ond’ og ’dum’ person:<br />

Og det er nemt som ekstern konsulent at være den onde, ikke? Og så kan de<br />

alle sammen sige: ’Jamen, det var også bare hende, hun var rigtig dum! Og så<br />

gør vi alligevel ikke, som hun sagde.’ Det oplever jeg da. (KS)<br />

Men at en kritisk evaluering eller review i første omgang afvises af partnerne er ikke<br />

det samme som, at de ikke senere retter ind og tager den identitet på sig, som<br />

fremstilles i rapporten:<br />

… vi ser meget ofte, at en kritisk evaluering mødes med et aggressivt forsvar,<br />

som som regel går på, at evalueringen er dårlig, og metoderne har ikke været<br />

gode nok, og evaluatørerne har totalt misforstået det hele. Og så ser man<br />

alligevel et års tid eller halvandet efter, at så begynder folk alligevel gøre det,<br />

147


som evalueringen har anbefalet. Øh… de giver den nok ikke credit for det,<br />

men… men det er sevet ind alligevel. (<strong>OG</strong>)<br />

Hvad enten en partner udsættes for ros eller kritik, sættes dennes identitet på en prøve<br />

i henhold til de roller og identitetsmuligheder, der er udstukket i den konkrete<br />

evaluerings- eller reviewramme (Dahler-Larsen 1998:128). Vores påstand er altså, at<br />

ingen mediebistandsindsats forbliver uændret gennem en review- eller evaluerings-<br />

proces. Netop derfor finder vi det problematisk, at projekterne overvejende evalueres<br />

og reviewes på outputniveau og fra en donorvinkel, og i den forbindelse er det<br />

interessant at diskutere, hvad der skal til for at udvide evalueringernes og reviewenes<br />

perspektiver.<br />

11.4. Hvorfor fokus på output?<br />

Denne diskussion vil vi nærme os ved at undersøge hvilke årsager, der ligger bag det<br />

primære fokus på outputs, og vi gennemgår tre faktorer, som efter vores vurdering<br />

udgør de vigtigste forklaringer herpå. Det drejer sig først og fremmest om fraværet af<br />

et indikatorværktøj – en problemstilling, der behandles i underafsnit 11.4.1.. Dernæst<br />

belyses de urealistiske kommissorier nærmere i 11.4.2., hvorefter vi i 11.4.3.<br />

beskæftiger os med manglen på tid under feltstudierne.<br />

11.4.1. Fraværet af et indikatorværktøj<br />

Som det tydeligt fremgår af de analyserede review- og evalueringsrapporter, har<br />

konsulenterne vanskeligt ved at imødekomme kommissoriernes krav om vurderinger<br />

på outcome- og impactniveau. Hvor det er relativt simpelt at estimere omfanget af<br />

gennemførte kurser for journalister, antal publicerede magasiner og andre output-<br />

størrelser, så kræver det et mere omfattende metodisk og analytisk apparat at vurdere<br />

indsatsen ud fra et målgruppe- og et samfundsperspektiv. Dette metodiske og<br />

analytiske apparat er fraværende, eller i hvert fald vanskeligt for konsulenterne at<br />

operationalisere på den korte tid, de har i felten. Manglen på et værktøj til analyse af<br />

indikatorer på et outcome- og et impactniveau betyder, at konsulentholdene i vid<br />

udstrækning selv må udvikle relevante indikatorer i situationen:<br />

- Hvis du kan uddybe det der med, hvorfor det kan være svært at være<br />

objektiv?<br />

(…) Der mangler måske også målemetoder. Der mangler et eller andet til at<br />

komme ud at sige: ’Jamen, hvad er det egentlig vi måler efter?’ Hvornår er det<br />

en succes? (KS)<br />

I det følgende ser vi nærmere på barriererne for at vurdere impact og outcome på<br />

tilfredsstillende vis under feltstudierne.<br />

11.4.1.1. Værktøjer til vurdering af impact<br />

En væsentlig barriere for at måle impact (virkning og relevans) af en mediebistands-<br />

indsats er, at medierne indgår i et helt kompleks af faktorer, som påvirker samfunds-<br />

148


udviklingen. De er med en konsulents ord ”en nødvendig, men absolut ikke<br />

tilstrækkelig betingelse, i hele den der komplicerede årsagssammenhæng” (KS),<br />

hvorfor det ikke giver mening at tildele medierne alene æren for såvel demokratiske<br />

som ikke-demokratiske samfundstendenser. Et andet analytisk problem opstår, når<br />

man vil isolere netop den danske mediebistand, der i dette udsagn beskrives som en<br />

række ”miniinvesteringer”:<br />

Hvordan måler du? Hvordan (utydeligt) på medier, ikke. Fordi du snakker øh,<br />

ja du snakker fri presse, du snakker ytringsfrihed, du snakker (P2) altså, du<br />

snakker om effekter på et niveau, hvor du eh, hvor det er så politiseret, at du vil<br />

jo aldrig kunne sige, i hvor høj grad det er projektet, der har bidraget til et eller<br />

andet. Hvis du snakker om effekt. (…) Og specielt, når man ser på de… de<br />

miniinvesteringer, i virkeligheden, som Danida laver på medieområdet, hvad<br />

kan man så i det hele taget forvente, at der kommer ud af det, ikke? (KS)<br />

Begge disse udsagn er uddrag fra interviews med konsulenter. Men de analytiske<br />

barrierer for at måle mediebistandens virkning er også erkendt i Danida. Denne<br />

Danidamedarbejder kalder ligefrem sammenhængen mellem medier og demokrati for<br />

et ’postulat’, som det er umuligt at påvise:<br />

… jeg tror ikke, man kan påvise, at støtte til medier og demokratisering øh<br />

nødvendigvis er godt, altså, det tror jeg er vanskeligt at påpege, det tror jeg<br />

bliver meget postulerende. Øh, og også effekten på øh, på økonomisk udvikling<br />

og demokratiudvikling, bliver støttet af medierne, den tror jeg også er meget,<br />

meget postuleret. Jeg tror ikke, man kan (utydeligt). Men… så derfor lader vi<br />

den ligge. (Griner) (<strong>OG</strong>)<br />

Den citerede medarbejder afslutter her med vendingen ”så derfor lader vi den ligge”<br />

med henvisning til ønsket om at vurdere mediernes effekt på samfundsudviklingen.<br />

Det er imidlertid ikke korrekt, at Danida ikke beskæftiger sig med impact, hvilket<br />

tydeligt fremgår af den ovenfor præsenterede dokumentanalyse, hvor vi har vist, at<br />

der i hele seks af de i alt otte kommissorier stilles krav om, at konsulentholdene skal<br />

forholde sig mediebistandens virkning. Et tilsvarende antal kommissorier forventer<br />

en analyse af mediebistandens relevans i forhold til samfundsudviklingen. Det<br />

forekommer paradoksalt, at der i Danida på den ene side er en bevidsthed om de<br />

analytiske problemer forbundet med en impact-analyse og at man på den anden side<br />

stiller krav netop herom.<br />

11.4.1.2. Værktøjer til vurdering af outcome<br />

For outcomevurderingers vedkommende gør der sig ikke de samme analytiske<br />

problemer gældende, som tilfældet er i forbindelse med impact. De konsulenter, vi<br />

har interviewet, foreslår metoder såsom kvantitative og kvalitative modtagerunder-<br />

søgelser, tilfredshedsundersøgelser blandt tidligere kursister og disses nuværende<br />

arbejdsgivere – blandt andet. Her er problemet altså ikke mangel på metoder og<br />

indikatorer, hvormed effektivitet og bæredygtighed kan identificeres. Snarere er<br />

problemet af praktisk og ressourcemæssig karakter:<br />

149


Det var enormt svært (…) at se: Jamen, det vi støtter på universitetet, de her<br />

unge mennesker, der lærer at lave radio, bliver de så reelt… Altså, får de et job<br />

bagefter? Bruger de der, de har lært? Er der nogen mulighed for det? Er der<br />

mulighed for kritisk journalistik, hvis de har lært det, er det så overhovedet<br />

muligt, eller… eller bare… må de bare gøre, som der bliver sagt? Det… der<br />

skal man være der længere, ikke? Og snakke noget mere med nogle andre<br />

aktører, tror jeg. (KS)<br />

Metoderne til at vurdere effektiviteten af mediebistanden er således til stede.<br />

Spørgsmålet er, om Danida er villig til at stille de fornødne ressourcer til rådighed,<br />

sådan at konsulenterne rent faktisk får mulighed for at opfylde det krav om<br />

effektivitetsvurdering, som stilles i samtlige af de analyserede kommissorier.<br />

11.4.1.3. Udviklingen af indikatorer<br />

De interviewede konsulenter og rådgivere har alle gerne villet tale (længe) om<br />

indikatorer. Alle giver udtryk for, at det er svært, men også nødvendigt at udvikle et<br />

operationelt indikatorværktøj til vurdering af mediebistandens outcomes. Dels fordi<br />

flere finder, at det er ”hovedløst” og ”ikke seriøst” at udføre evalueringer og reviews<br />

under de gældende vilkår, hvor konsulenterne i vidt omfang ser sig nødsaget til at<br />

omfortolke, omgå eller helt undgå de krav, som stilles i kommissorierne om at<br />

foretage vurderinger på et outcome- og impactniveau:<br />

… det er for kort tid, ikke? Du bliver sendt ud i… ti-tolv dage eller sådan et<br />

eller andet med et program, der er fuldstændig spækket (…) Så det vil sige, at<br />

du går fra det ene interview til det andet interview fuldstændig hovedløst, synes<br />

jeg, ikke? (…) Altså, interviews de varer jo typisk en time til halvanden eller<br />

sådan noget. Så går du ind og interviewer én person på en radiostation, og efter<br />

halvanden time skal du være i stand til at vurdere, om den støtte man giver til<br />

den radiostation virker. Altså: har det nogen effekt? Ja, direktøren lød vældig<br />

tilfreds, ikke? (fnyser) Det… Det mener jeg ikke er seriøst i virkeligheden.<br />

(KS)<br />

Dels efterlyser konsulenterne udviklingen af et indikatorværktøj, fordi de mener, det<br />

vil kvalificere mediebistandsindsatsen:<br />

Og de der ting ville jo være spændende at have med, fordi jeg tror man kunne<br />

kvalificere konklusionerne og anbefalingerne bedre, hvis man havde nogle lidt<br />

dyberegående studier og øh… (P1)… med i reviewet. (KS)<br />

Perspektiverne for udviklingen af et sådant værktøj ser dog ikke umiddelbart lyse ud.<br />

Som vi nævnte i kapitel 7.1.5. beskæftiger Danida sig af princip ikke med metode-<br />

udvikling – denne opgave mener de, påhviler de konsulenter, som byder på en<br />

opgave. Disse har til gengæld ikke den fornødne tid til at udvikle et værktøj på eget<br />

initiativ, og de oplever heller ikke, at Danida er villig til at betale dem for at gøre det:<br />

Ja, det kræver, at man stort set har én, som næsten følger full time, altså følger<br />

med de her briller på. Og jeg har jo ikke… altså jeg kan jo ikke… jeg har jo<br />

ikke tid til at sætte mig ned og skrive de her ting, selvom det kunne være<br />

interessant. (KS)<br />

150


11.4.1.4. Opsummering<br />

Både konsulenter og Danida giver udtryk for, at mediebistandens virkning på demo-<br />

krati og menneskerettigheder er et væsentligt og interessant område at afdække og<br />

vurdere. Der er imidlertid store analytiske problemer forbundet med at skulle fore-<br />

tage en sådan vurdering, specielt i forbindelse med en relativt kortvarig evaluerings-<br />

eller reviewproces. Vi mener derfor, at Danida, frem for at stille krav om impact-<br />

målinger, burde koncentrere sig om udviklingen af indikatorer på et outcomeniveau.<br />

Metoderne hertil er kendte og veludviklede, udviklingen af et decideret indikator-<br />

værktøj er alene et spørgsmål om ressourcer og prioritering.<br />

11.4.2. Urealistiske kommissorier<br />

Vi har nu set, at fraværet af et indikatorværktøj og de problemer, som er forbundet<br />

hermed, er erkendt blandt såvel Danidas ansatte som konsulenterne. Alligevel stiller<br />

kommissorierne krav om impact- og outcomemålinger. Dahler-Larsen peger på, at<br />

gennemsnitslængden på et evalueringskommissorium i Danida er steget fra to sider i<br />

1970’erne til seks-otte sider i dag (Dahler-Larsen 1998:88). Til sammenligning er de<br />

kommissorier (både reviews og evalueringer), som indgår i vores empiri, i gennem-<br />

snit knap seks sider lange. Omfanget afspejler kommissoriernes høje ambitions-<br />

niveau, som delvist kan tilskrives en forretningsmæssig logik: som køber af en<br />

konsulentydelse vil Danida gerne have så meget for pengene som muligt og stiller<br />

derfor omfattende krav. Den primære årsag, mener Dahler-Larsen imidlertid, er<br />

Danidas ønske om at signalere grundighed og loyalitet overfor organisationens<br />

værdigrundlag. Kommissorier spiller således ikke blot en rolle som arbejdskontrakter<br />

men også som signal overfor Danidas interessenter:<br />

I nogle tilfælde er listen over evalueringskriterier i sig selv et officielt<br />

dokument, der skal give organisationen legitimitet. I så fald vil listen over<br />

kriterier blive meget omfattende (…) En sådan liste over evalueringskriterier<br />

har måske som sin fornemste funktion at signalere organisationens bekendelse<br />

til værdikataloget over for de mange interessenter i organisationens normative<br />

omgivelser. Men det kan medføre, at det bliver ganske vanskeligt at<br />

gennemføre en evaluering alene af kapacitetsgrunde. (Dahler-Larsen 1998:88)<br />

Evalueringskommissorierne har – i kraft af deres status som offentlige dokumenter –<br />

det vi tidligere med Dahler-Larsens betegnelse har kaldt en symbolsk funktion (se<br />

afsnit 7.1.7. & Dahler-Larsen 1998:131). Dermed menes, at de dels anvendes som et<br />

redskab til at kommunikere om Danida overfor organisationens omverden, og dels<br />

har en autokommunikativ funktion. Det vil sige, at Danida via evalueringskommis-<br />

sorierne kommunikerer om sig selv til sig selv (Dahler-Larsen 1998:132).<br />

Et eksempel på et sådant ’symbolsk kommissorium’ er opdraget til evalueringen af<br />

Danidas støtte til fremme af en fri presse 1990-1998 (Danida 2000A:52ff). Kommis-<br />

soriet lægger op til, at evalueringsholdet skal forholde sig kritisk til de grundlæggen-<br />

de antagelser bag mediebistanden:<br />

151


The study should, as much as possible, critically examine the premises and<br />

objectives for Danish assistance to free and objective information. (Danida<br />

2000A:52, vus.)<br />

Med denne erklæring, signalerer Danida, at organisationen er villig til at indgå i en<br />

selvkritisk, dobbeltsløjfet læringsproces. Derefter oplister kommissoriet 22 emner,<br />

som evalueringsholdet skal forholde sig til, men dog ikke behøver at lade sig begræn-<br />

se af (Danida 2000A:52)! Som et eksempel på omfanget af de i alt 22 spørgsmål,<br />

gengiver vi her ét af dem, som i sig selv rummer adskillige underspørgsmål:<br />

What are the common factors to successful activities: political context,<br />

implementing partners, external advisors/observers etc. and similarly: what<br />

were the common factors to successful activities? Are certain combinations of<br />

activities better than other? What were the strengths/weaknesses, opportunities/<br />

achievements, threats/obstacles (SWOT-analysis)? (Danida 2000A:54)<br />

Det er vores vurdering, at hvert af de i alt 22 emner er omfangsrige og vanskelige nok<br />

til at danne afsæt for et helt speciale, og at man for at besvare samtlige spørgsmål<br />

fyldestgørende skal bruge væsentligt mere tid end de i alt 22 arbejdsuger, som<br />

evalueringsholdet blev aflønnet for (bilag 4I). At en af hensigterne med at stille alle<br />

disse spørgsmål er at tegne et bestemt billede af Danida, kommer blandt andet til<br />

udtryk i nedenstående formulering. Her er sætningen formuleret så ledende, at det<br />

snarere synes som en konstatering end som et spørgsmål:<br />

Does Denmark, as a small country without an explicit security agenda of its<br />

own, have an advantage over other donors when it comes to financing projects<br />

promoting free and objective information, often politically sensitive? (Danida<br />

2000A:54)<br />

Tilsvarende signalerer Danida med formuleringen af det følgende spørgsmål, at<br />

organisationen er interesseret i at indgå i symmetriske partnerskabsrelationer med<br />

projektorganisationerne, idet der sættes fokus på, i hvilken grad bistandsaktiviteterne<br />

anerkender partnerlandets særkender:<br />

How far does the assistance acknowledge that prevailing values and priorities<br />

in the partner countries may be different from those guiding Danida’s<br />

decisions? (Danida 2000A:53)<br />

Hvorvidt mediebistanden rent faktisk implementeres under hensyntagen til partner-<br />

landets prioriteringer, eller om Danmarks daværende forsvarspolitiske linie gav<br />

Danida komparative fordele som donor af mediebistand, behandles – ligesom den<br />

ønskede SWOT-analyse – ikke i evalueringsrapporten. Det lader således ikke til, at<br />

kommissoriets primære funktion har været at fungere som opdrag og retningslinier<br />

for evalueringsholdet.<br />

11.4.2.1. Kunden har altid ret…<br />

Den generelle evaluering fra 1999/2000 underbygger den påstand, Dahler-Larsen<br />

fremsætter i citatet på den foregående side: Tendensen til at inkludere en lang række<br />

152


kriterier i kommissoriet medfører et misforhold mellem på den ene side de økono-<br />

miske og tidsmæssige ressourcer, der står til rådighed for evalueringen, og på den<br />

anden side omfanget af krav, som opdragsgiveren stiller i kommissoriet. Det stiller<br />

konsulenterne i en vanskelig situation, hvor de på den ene side godt kan se misfor-<br />

holdet, men samtidig ikke ønsker at påpege det af frygt for ikke at få opgaven.<br />

Konsekvensen er, at konsulenterne enten må gå på kompromis med deres egen<br />

indtjening eller med kvaliteten af opgaveudførelsen:<br />

Man diskuterer tiden … meget. Øhh… fordi nogle gange synes vi jo, at vi får<br />

for lidt tid til at lave tingene. Øhmm… at der ligesom er en… en… hvad skal<br />

jeg sige… en fast (P2) øh… formula for, hvor meget tid, man må bruge til<br />

forberedelser og til udetid og til rapportskrivningen. Og så må vi jo så forsøge<br />

at holde os inde for den tid, men det kan vi aldrig altså. Det er vanskeligt.<br />

- Går det så ud over kvaliteten, hvis man skulle holde sig inden for/<br />

Det gør det jo ikke, fordi at vi… altså (griner) … vi er jo alle sammen indstillet<br />

på, at vi jo gerne vil levere et så godt stykke arbejde som muligt, og det har jo<br />

også noget at gøre med, at vores troværdighed er på spil, ikke? Så det kommer<br />

ikke til at gå ud over kvaliteten. Det kommer bare til at gå ud over vores<br />

egen… (griner). Vores egen… vores egen tid, ikke? (KS)<br />

Som det fremgår af citatet, er konsulenterne splittede mellem på den ene side at<br />

imødekomme de krav om grundighed, som dels stilles af opdragsgiveren og dels<br />

følger af deres egen faglige stolthed, og på den anden side at drive en økonomisk<br />

fornuftig virksomhed. Ifølge den citerede konsulent betyder den faglige stolthed og<br />

den økonomiske afhængighed af Danida, at vedkommende søger at undgå at sætte<br />

kvaliteten på spil – på bekostning af egen timeløn og overarbejde.<br />

Alt i alt falder misforholdet mellem evalueringsopgavens omfang og de til rådighed<br />

stående ressourcer ud til Danidas fordel, idet organisationen opnår det mål, som en<br />

hver kunde har i en forretningsmæssig relation: at få en kvalitetsvare til en billig<br />

penge. For Danida er der dog også ulemper forbundet med formuleringen af de<br />

ambitiøse kommissorier.<br />

11.4.2.3. Urealistiske kommissorier som en spændetrøje<br />

De omfattende, men urealistiske kommissorier opleves nemlig af konsulenterne som<br />

en begrænsning, der forhindrer dem i at forfølge interessante pointer og bidrage til<br />

udviklingen af indikatorer. De følgende to citater er to interviewede konsulenters<br />

reaktion på en påstand om, at de fem evalueringskriterier udgør en spændetrøje, som<br />

trækker fokus væk fra reelle effekter og utilsigtede virkninger af bistanden 68 :<br />

68 Konsulenterne blev præsenteret for et uddrag fra udredningen af Danidas evalueringsfunktion, hvor en<br />

tidligere team leader for en Danidaevaluering er citeret for følgende: ”Retningslinierne er i et vist<br />

omfang en spændetrøje. Man skal fokusere på effektivitet, målopfyldelse, effekt, relevans og<br />

bæredygtighed. Disse fem kriterier skulle tilsammen give vigtige oplysninger og spor, så man kan stille<br />

den rigtige diagnose. Men det er min erfaring, at hvis man fokuserer på disse kriterier, kan man blive<br />

trukket væk fra virkeligheden. Det sker alt for ofte, at udviklingsbistandens samfundspolitiske<br />

153


Jamen, det er jeg enig i. Øh… at i og med at du har nogle ret faste rammer gør,<br />

at du måske… og specielt når du ikke har så meget tid… øh… lukker øjnene<br />

for virkeligheden. Og jeg synes, det er helt rigtigt, det der står her. At øh… at<br />

man øh… Der er nogle ting, som øh… som man ikke lader komme ind i en<br />

relevant sammenhæng her, fordi at det ikke står i Terms of Reference. (KS)<br />

Fuldstændigt. Fordi der netop alle de der ting, man skal svare på, og det er så<br />

det du bruger din tid på og fortaber dig i. Det er fuldstændigt rigtigt. (KS)<br />

Vi vil på denne baggrund opsummere, at Danida ville få mere ud af sine evaluerings-<br />

og reviewopgaver, hvis kommissorierne blev formuleret på en måde, så de gav et<br />

realistisk opdrag med konkrete anvisninger til indikatoranvendelse.<br />

11.4.3. Manglende tid under feltstudier<br />

En tredje faktor, der sammen med de ambitiøse kommissorier og fraværet af et<br />

indikatorværktøj udgør en barriere for konsulenternes mulighed for at vurdere medie-<br />

bistandens effektivitet og virkning, er den tidsknaphed, der som oftest præger felt-<br />

studierne. Det ville i den forbindelse være nemt for os at anbefale Danida at afsætte<br />

flere penge til evalueringer og reviews, men en sådan anbefaling ville være vanskelig<br />

for Danida at imødekomme. For det første fordi udviklingsbistanden generelt er ramt<br />

af nedskæringer, og for det andet fordi det kan være svært at legitimere at bruge for<br />

mange ressourcer på evalueringsaktiviteter frem for på egentlig bistand. Vi vil derfor<br />

se nærmere på, hvordan Danida og konsulenterne kan anvende de forhåndenværende<br />

ressourcer bedre, sådan at der afsættes mere tid til feltstudier inden for de enkelte<br />

evaluerings- og reviewforløb.<br />

11.4.3.1. Omfattende dokumentstudier<br />

Den empiriske analyse peger på, at dokumentstudierne har tendens til at gribe om sig<br />

og kræve mere tid, end både konsulenterne og opdragsgiveren havde forudset. Der er<br />

tre indbyrdes forbundne årsager hertil, som vi gennemgå i det følgende.<br />

Behov for overblik<br />

I afsnit 7.1.5. gennemgik vi procedurerne for udførelse af reviews og evalueringer.<br />

En del af denne gennemgang var en oversigt over de dokumenter, som er obligato-<br />

riske i forbindelse med forberedelse, implementering og afslutning af et projekt.<br />

Foruden evalueringer og reviews er der tale om syv obligatoriske dokumenttyper,<br />

som hverken donor, partner eller konsulent har et grundigt overblik over forud for en<br />

evaluering eller et review. Overblikket er imidlertid nødvendigt, dels for Danida, som<br />

skal kunne imødekomme krav om ansvarliggørelse og gennemsigtighed i administra-<br />

tionen, og dels for konsulenterne, som grundet uafhængighedskravet ofte ikke har<br />

nogen forhåndsviden om projektet. Desuden tilkendegiver flere af de interviewede<br />

partnere, at de selv har nytte af at få et overblik over deres aktiviteter.<br />

sammenhæng ikke analyseres tilstrækkeligt. Det gælder den reelle effekt og også utilsigtede virkninger<br />

af bistanden.” (Evaluator, Udredning af Danidas Evalueringsfunktion, Danida 2003)<br />

154


Venstrehåndsarbejde<br />

Arbejdet med at skabe overblik kompliceres af, at store dele af dokumentationen ofte<br />

har en ringe standard, hvilket skyldes, at såvel partnerne som ambassaderne priori-<br />

terer dokumentationsopgaven lavt. Den løbende afrapportering fra partnerne til<br />

ambassaden betragtes af flere partnere som en omstændelig administrativ byrde, som<br />

de kun nødtvungent tager sig tid til:<br />

[Den skriftlige afrapportering] kunne godt have været mere systematisk, og det<br />

er måske en kombination af… af, hvad skal man sige, at der var sådan en tæt<br />

mundtlig kommunikation om det, og så at øh… jeg heller ikke afleverer flere<br />

rapporter, end jeg er pisket til (griner). (…) Men selvfølgelig er der krav om en<br />

vis form for afrapportering, og man kan nok sige, at der er nogle af de her<br />

projekter, der ikke har været dokumenteret helt efter Danida-bogen. Det vil jeg<br />

godt indrømme. (PO)<br />

Dertil kommer, at det ikke er alle projektorganisationer, der – trods Danidas anvis-<br />

ninger og faste formater – afrapporterer efter Danidas standarder. Eksempelvis kan<br />

det være vanskeligt for et projekt at forstå nødvendigheden af en skarp skelnen<br />

mellem forskellige projektfaser, eller af at udgifter til samme aktiviteter skal bogføres<br />

under forskellige regnskabsår:<br />

… de har været elendige til at lave en rapportering, altså (…). Og, og det<br />

betyder noget for donorerne, og det må jeg også sige, at det er røvirriterende at<br />

skulle læse et eller andet dokument, som simpelthen er rodet og man må sige,<br />

at øh, ’hvorfor, hvorfor rapporterer I ikke på det, I skal?’ (<strong>OG</strong>)<br />

Godkendelse af den løbende projektrapportering og udarbejdelse af eksempelvis<br />

Project Documents og Project Completion Reports (PCR) anses heller ikke for de<br />

mest prestigefyldte eller interessante opgaver på Danidas ambassader. Som følge<br />

heraf udarbejdes disse dokumenter ofte af den yngste, mest uerfarne ambassade-<br />

medarbejder:<br />

Når der skal laves en PCR, så er det altid yngste medarbejder på ambassaden<br />

som skal lave det, og vedkommende aner ikke en brik om, hvad der er sket de<br />

foregående fem år, så det er sådan en opsummering af, hvad der står i<br />

papirerne. (<strong>OG</strong>)<br />

Fagkulturelle forklaringsfaktorer<br />

Hvor de ovennævnte årsager til det øgede tidsforbrug i dokumentstudiefasen foku-<br />

serer på særlige egenskaber ved dokumenterne, vil vi i dette afsnit se nærmere på en<br />

forklaringsfaktor, som er uafhængig heraf – nemlig konsulenternes fagkultur. Doku-<br />

mentstudiet ligner på mange måder en traditionel akademisk opgave, hvor man skal<br />

strukturere og fortolke store tekstmængder. Det gør, at konsulenterne føler sig trygge<br />

ved denne arbejdsform i modsætning til feltstudiet, som ofte er behæftet med flere<br />

ubekendte faktorer. Den danske evalueringsforsker, Peter Dahler-Larsen, udtrykker<br />

konsulenternes tilbøjelighed til at foretrække arbejdet med allerede indsamlet og<br />

bekræftet data således:<br />

155


Som evaluatorer har man jo en forkærlighed for den viden, der er<br />

gennemskuelig. Evaluering er jo ifølge sin definition en systematisk (dvs.<br />

efterprøvbar) oparbejdning af viden. (Dahler-Larsen 1998:22)<br />

Hans påstand underbygges af en af de interviewede evaluatorer, som oplever, at der<br />

blandt konsulenterne findes en ”plejerkultur”, som dikterer en række formkrav til<br />

evalueringsarbejdet:<br />

Og så er det enormt svært at slippe ud af modus vivendi, når du så starter. (…)<br />

Altså, du sidder med de der mange, mange reviews, der er lavet, og der står<br />

vanvittigt meget tekst. (…) Der er en akademisk øvelse i det også, hvor man<br />

forventes at læse alle de her mange ting og så på en måde lave et sammenkog –<br />

for 10.000. gang – på situationen. Og det synes jeg… at der døde noget af<br />

ideen, fordi der er alligevel mange formkrav, fordi det er man vant til, og sådan<br />

gør man og plejer, ikke? Altså, der er en plejerkultur omkring, hvordan man<br />

egentlig gerne vil have, at sådan en skal se ud, sådan en rapport, ikke. Som<br />

egentlig… Det var svært, altså… Så det var det tiden så blev brugt på i<br />

virkeligheden frem for sådan at få samlet læringspunkter op. (KS)<br />

Tilsammen betyder mængden af dokumenter, disses svingende kvalitet og konsulen-<br />

ternes grundighed, at dokumentstudierne ofte trækker i langdrag på bekostning af<br />

ressourcer til feltstudier. Et forhold, som afføder skuffelse blandt alle tre praksisfæl-<br />

lesskaber.<br />

11.4.3.2. Skuffelse<br />

Både partnere, konsulenter og opdragsgiver giver udtryk for et ønske om at prioritere<br />

tiden til feltstudier frem for til dokumentstudier. Konsulenternes ønske baserer sig på<br />

deres idealer om participatorisk læring, partnernes på deres interesse i en så høj grad<br />

af inddragelse og medindflydelse som muligt, mens donoren giver udtryk for at prio-<br />

ritere feltstudier med baggrund i kontroldiskursens objektivitetskriterium: Det er<br />

bedre at konsulenten anvender tiden på at indsamle nye informationer ’ude i virkelig-<br />

heden’ end på at fortolke allerede indsamlet viden. Når tidsforbruget til dokument-<br />

studierne overskrider planerne, oplever aktørerne derfor, at de allerede i første del af<br />

udførelsen må gå på kompromis med de ambitiøse målsætninger i kommissorierne<br />

om eksempelvis anvendelse af participatoriske metoder og tilvejebringelse af ny<br />

information:<br />

Ja, det blev meget et kompromis, faktisk. Og meget sådan, at man skulle leve<br />

op til alle de der dokumentationsting. (…) Men hvad er det for noget læring,<br />

man kunne trække ud af det som sådan nogle læringspunkter, det synes jeg fik<br />

for lidt fokus. Der var for lidt tid til det, da vi endelig var færdige med alle de<br />

der desk study og field study og alt muligt. Så var der ikke… Så var der slet<br />

ikke tid tilbage, til det andet, ikke? (KS)<br />

På den ene side giver Danida udtryk for, at tidsforbruget i dokumentstudiefasen er<br />

konsulenternes eget problem og ansvar: ”Det er så et valg, som konsulenten selv<br />

træffer, hvor meget de vil basere sig på meget dokumentation” (<strong>OG</strong>). På den anden<br />

side kan organisationen ikke kan fralægge sig et vist medansvar for, at dokument-<br />

studierne griber om sig.<br />

156


At uafhængighedsprincippet er styrende for udvælgelsen af evalueringshold med-<br />

fører, at konsulenterne mangler forhåndskendskab til og overblik over medieområdet<br />

og/eller de pågældende projekter. Dertil kommer, at Danida ved at stille store mæng-<br />

der relativt rodet dokumentation til rådighed bærer ved til konsulenternes fagkultur,<br />

som dikterer akademisk grundighed i dokumentstudiefasen. Vil man komme skuffel-<br />

sen over det forhøjede tidsforbrug i dokumentstudiefasen til livs, kræver det således<br />

en indsats fra Danidas side for at skabe overblik og orden i dokumentationen forud<br />

for inddragelsen af eksterne konsulenter. Dette ville dels frigøre flere ressourcer og<br />

mere tid til feltstudier og dels ville det yde ’ikke-kompetente’ partnere større retfær-<br />

dighed:<br />

11.4.3.3. Den gode partner er kompetent<br />

En utilsigtet konsekvens af det store tidsforbrug på dokumentstudierne er nemlig, at<br />

et vigtigt parameter i konsulenternes vurdering af ’den gode partner’ bliver, hvorvidt<br />

denne er ’kompetent’ og formår at udarbejde overskuelig dokumentation efter<br />

Danidas formater. I seks af de i alt otte rapporter vurderer konsulenterne blandt andet<br />

projektorganisationerne på grundlag af deres dokumentationspraksis (bilag 4I). Dette<br />

eksemplificeres i de tre nedenstående rapportuddrag, hvor de reviewede/evaluerede<br />

projekter roses for at være veldokumenterede:<br />

The overall conclusion is that in most of the cases studied, the Danish media<br />

projects have been well planned and monitored. (Danida 2000A:40)<br />

MISA has been recognised (…) as a highly professional organisation both in its<br />

activities, reporting and accountability mechanisms (MISA 01/02:62)<br />

Reporting has improved tremendously from what it was during the last review.<br />

(MISA 04:9)<br />

Dokumentationskompetencer er et vurderingsparameter, der – set udefra – forekom-<br />

mer relativt uinteressant i forhold til spørgsmål om mediebistandens effekter på<br />

output-, outcome- og impactniveau. For de eksterne konsulenter og for de enheder i<br />

Danida, som varetager opdragsgiverfunktioner (EK og de bevilgende enheder), er<br />

dårlig dokumentation imidlertid et stort irritationsmoment. Derfor får dokumenta-<br />

tionskompetencer en forholdsmæssig stor indflydelse på konsulenternes vurdering af<br />

’den gode mediebistandspartner’:<br />

For konsulenterne de siger ’jamen hvorfor i alverden bliver I ved med at<br />

arbejde med [[en bestemt partner på mediebistandsfeltet]]? De kan ikke skrive<br />

deres rapporter, de kan ikke aflægge regnskaber, der sker jo ikke en skid’ og<br />

sådan noget. (<strong>OG</strong>)<br />

Konsekvensen er, at ’kompetente’ partnerorganisationer har større chance for at blive<br />

inddraget og blive taget alvorligt end organisationer med rod i dokumenterne, som<br />

157


isikerer at blive genstand for en forudindtaget, negativ vurdering, uanset aktivitetens<br />

indhold i øvrigt.<br />

11.4.4. Opsummering<br />

Der er nu fremdraget tre delforklaringer på, hvorfor de analyserede evaluerings- og<br />

reviewrapporter tager udgangspunkt i outputvurderinger, donors prioriteringer og<br />

normative forestillinger om mediernes rolle i deres bedømmelser af Danidas medie-<br />

bistandsindsats. Hovedforklaringen er fraværet af et operationelt indikatorværktøj,<br />

som giver konsulenterne reel mulighed for at indsamle og vurdere relevante data. I<br />

forhold til vurdering af mediebistandens virkning gør der sig en række analytiske<br />

barrierer gældende, som især handler om at kunne identificere mediernes effekt på<br />

demokratiet og dernæst at isolere den danske mediebistands effekt. Vi vurderer<br />

derfor ikke, at kommissoriernes krav om vurdering af effekterne på et impactniveau<br />

umiddelbart er mulige at imødekomme.<br />

Derimod findes der inden for både evalueringsdisciplinen og medievidenskaben<br />

veludviklede metoder til at vurdere mediebistandens effektivitet og disse effekters<br />

bæredygtighed på et outcomeniveau. Det drejer sig blandt andet om receptions-<br />

analyse, mediesystemanalyse, komparative tekstanalyser samt bruger- og aftager-<br />

evaluering af uddannelsesindsatsen (Berger 1991). Review- og evalueringsholdene<br />

har imidlertid ikke mulighed for at udføre disse outcomestudier i løbet af den korte<br />

tid, de har til deres rådighed.<br />

Konsekvensen bliver, som vi har set, at mediebistandsindsatsen ikke vurderes i<br />

forhold til dens effekter på målgruppen og medielandskabet i et givent samfund, eller<br />

i forhold til om partnerne og målgruppen finder indsatsen relevant. Den gode medie-<br />

bistandsindsats, som denne fremstilles i rapporterne, resulterer dermed ikke nødven-<br />

digvis i bedre journalister, mere demokratisk bevidste borgere, eller i et mere plura-<br />

listisk mediebillede. I stedet bedømmes indsatsen på baggrund af projektorganisa-<br />

tionernes evne til at opfylde Danidas krav om opfyldelse af outputmål, prioriteringer<br />

og aflevering af veludført projektdokumentation. Disse vurderingsparametre er<br />

interessante, hvis man anskuer mediebistanden i en snæver ansvarliggørelsesoptik,<br />

men i et mere langsigtet perspektiv og med partnernes, de implementeringsansvar-<br />

liges og de danske skatteyderes interesser i mediebistanden in mente må man antage,<br />

at de er mindre interessante at fokusere på.<br />

Vi vil derfor anbefale Danida at afsætte ressourcer til egentlige outcomemålinger.<br />

Disse skal ikke nødvendigvis foretages med samme intervaller som reviews eller af<br />

alle projekter. Men ved at foretage enkelte systematiske studier af eksempelvis<br />

støtten til lokalradioer eller af uddannelsesindsatsen over for journalister mener vi, at<br />

158


den danske mediebistand kunne kvalificeres betydeligt. I kapitel 13 opsamler og<br />

supplerer vi anbefalingerne til Danida.<br />

159


12. Kontrol, læring og magt<br />

Vi har i det foregående kapitel fokuseret på, hvordan evaluerings- og reviewrappor-<br />

terne fremstiller den gode mediebistandsindsats. I den forbindelse berørte vi kort,<br />

hvorvidt den sproglige konstruktion af mediebistanden sætter sig igennem i egentlige<br />

organisatoriske forandringer – eksempelvis i form af indikatorfiksering og justering<br />

af projekter. Et analytisk spørgsmål, som rejser sig i den forbindelse, er, hvordan man<br />

undersøger de konkrete organisatoriske konsekvenser af en evaluering eller et review.<br />

Dette er problematisk af to årsager. For det første er opfølgningen tidsforskudt i<br />

forhold til gennemførelsen af vurderingen:<br />

Og så ser man alligevel et års tid eller halvandet efter, at så begynder folk<br />

alligevel at gøre det, som evalueringen har anbefalet. (<strong>OG</strong>)<br />

For det andet bærer evalueringer og reviews sjældent alene ansvaret for beslutninger<br />

og justeringer, hvorfor det er vanskeligt at isolere disse som årsager til<br />

organisatoriske forandringer:<br />

Evaluation is just an input to action decisions and rarely the only one. (Scriven<br />

1996:153)<br />

Vi vil derfor afholde os fra at gisne om sammenhængen mellem evalueringer/reviews<br />

og konkrete justeringer af mediebistandsindsatsen. Derimod kan vi undersøge part-<br />

nernes og Danidas motivation for at ændre deres adfærd som følge af en bedømmel-<br />

sesaktivitet samt de faktorer, som påvirker denne motivation. At analysens fokus<br />

ligger på motivation, skyldes det anlagte perspektiv på evalueringer og reviews som<br />

grænseobjekter, hvis opståen og beståen er et resultat af translationsprocesser. Med<br />

translationsbegrebet anses praksisfællesskabernes motivation og interesser som nød-<br />

vendige forudsætninger for, at der overhovedet finder en opfølgning sted – en overset<br />

faktor inden for både den lærings- og den kontrolorienterede evalueringsteori, der be-<br />

tragter evaluering som en lineær og forudsigelig proces, hvor der går en lige linie fra<br />

formål til funktion. Vi vil i det følgende analysere de ude- og indefrakommende<br />

motivationsfaktorer, som påvirker henholdsvis partnernes (afsnit 12.1.) og Danidas<br />

(afsnit 12.2.) adfærd i opfølgningsprocessen.<br />

12.1. Partnernes opfølgning på reviews og evalueringer<br />

I kapitel 5 beskrev vi tilgangen til henholdsvis udviklingsbistand og evaluering inden<br />

for moderniserings- og kontroldiskurserne som top-down, mens den kritiske udvik-<br />

lingsdiskurs og den participatoriske læringsdiskurs plæderede for en bottom-up<br />

tilgang. Denne skelnen danner udgangspunkt for en analyse af de faktorer, som<br />

motiverer partnerne til at drage konsekvenser af reviews og evalueringer. Først<br />

anlægger vi et bottom-up perspektiv og undersøger de faktorer, som motiverer<br />

partnerne til frivilligt og på eget initiativ at tage aktivt del i opfølgningsprocessen,<br />

hvorefter Danidas muligheder for at presse partnerne til at gennemføre justeringer<br />

160


elyses. Det empiriske materiale rummer imidlertid eksempler på motivations-<br />

faktorer, som ikke lader sig indfange i den simple bottom-up/top-down typologi,<br />

hvorfor vi afslutter afsnit 12.1. med en præsentation og diskussion af disse ’mellem-<br />

former’, hvor magtrelationen mellem donor og modtager fremstår mere kompleks.<br />

Nedenstående figur viser det kontinuum af forskellige positioner, som det empiriske<br />

materiale placerer sig på:<br />

Kontrol<br />

Figur 12a<br />

Top-down Bottom-up<br />

Danida presser<br />

partnerne til at<br />

gennemføre<br />

ændringer<br />

Egenkontrol:<br />

Partnerne<br />

kontrollerer sig<br />

selv efter Danidas<br />

anvisninger<br />

Læring<br />

12.1.1. Inddragelse og ejerskab som motivationsfaktor<br />

Evaluering er blot en ud af mange aktiviteter og informationstyper, som konkurrerer<br />

om de evaluerede aktørers tid. Det kommer til syne i interviews med repræsentanter<br />

for partnerorganisationer, som tilkendegiver, at opfølgningen på reviews og<br />

evalueringer af den grund ofte er sporadisk og selektiv:<br />

Og så kan vi læse rapporten bagefter, og så kan man hæfte sig ved nogen af<br />

anbefalingerne og sige: ’Jamen, det må jeg hellere gøre noget ved’. Noget får<br />

man så gjort ved, og andet får man ikke gjort noget ved. (PO)<br />

De kvalitative interviews peger på, at partnernes motivation for at deltage aktivt i<br />

konsekvensdragelsesforhandlingerne afhænger af deres følelse af ejerskab til de<br />

pågældende konklusioner. Des mere de evaluerede aktører selv har været med til at<br />

formulere konklusioner og anbefalinger, desto større er deres motivation for at følge<br />

dem. Hvorvidt det pågældende evaluerings-/reviewforløb har været præget af<br />

participation, spiller derfor en vigtig rolle, og processen har langt større betydning for<br />

partnernes motivation end den skrevne rapport. Denne pointe kunne uddrages af flere<br />

af de cases, som blev fremstillet i kapitel 9, herunder reviewet af mediestøtten til<br />

Zambia i 2002 (se afsnit 9.1.2.2.), som af partnerne blev oplevet som en konstruktiv<br />

læringsproces, trods missionens eksplicitte kontrolformål. Pointen underbygges<br />

endvidere blandt både konsulenter og partnere:<br />

Konsensusbaseret<br />

læring:<br />

Danida og<br />

konsulenterne<br />

definerer ’rigtig’ og<br />

’forkert’ læring<br />

Inddragelse og<br />

ejerskab til<br />

konklusionerne<br />

motiverer partnerne<br />

Men jeg tror, at selve processen også giver noget for organisationen, ikke? (KS)<br />

Men for mig er rapporten som sådan… for mig udtrykker det blot værdien af<br />

det her stykke papir og den anvendelse, som jeg så efterfølgende enten har haft<br />

tid til eller overhovedet gør af det her stykke dokument. Så det bliver nødt til at<br />

være i processen, at anvendeligheden træder frem, når nu de alligevel ender<br />

henne i en bunke i hjørnet sammen med andre rapporter, der aldrig er blevet<br />

læst. (PO)<br />

161


12.1.2. Frygten for sanktioner<br />

Hvor en participatorisk læringsproces understøtter og motiverer forandring indefra,<br />

udgør evalueringers og reviews’ kontrolfunktion en udefrakommende motivations-<br />

faktor. Ved at true med at lukke projektets bevilling, kan donororganisationen sikre<br />

sig, at partnerorganisationerne drager de konsekvenser af et review eller en evalue-<br />

ring, som Danida finder passende:<br />

… det var både [[projektorganisationen]] og [[den eksterne IO]], der skulle<br />

give sig og vise åbenhed i den proces. Og hvis ikke de gjorde det inden en<br />

måned, og de lavede en ny plan og så videre og så videre, så var vi nødt til at<br />

lukke bevillingen. (<strong>OG</strong>)<br />

Donorerne ganger op, det er den negative form, og presser [[projektorganisationen]]<br />

til at lave nogle ændringer, (…) så kan vi sige til dem, ’Altså,<br />

hvis I ikke gør som vi siger, så vil vi ikke finansiere jer næste år.’ (<strong>OG</strong>)<br />

Vi har også set eksempler på, at de eksterne IO’er og rådgiverne anvender bedøm-<br />

melsesaktiviteternes kontrolfunktion til at presse en projektorganisation til at ændre<br />

sin adfærd. Fordelen ved at bruge et review eller en evaluering til dette formål er, at<br />

IO’erne og rådgiverne undgår at komme i konflikt med projektorganisationen, idet de<br />

giver ”nogle bastards længere oppe” skylden:<br />

Og man kan sige, at det var rigtigt godt, at der kom nogen ned udefra, hvor<br />

review-teamet siger: ’Der er simpelthen nogle problemer, og det skal der gøres<br />

noget ved. Det kan ikke fortsætte.’ Det tog ambassaden så og sagde til den<br />

lokale partner, der var lidt tung at danse med: ’Der skal simpelthen…’ (banker<br />

i bordet). Og det var jo rart for os, fordi så kunne vi lægge os i læ af det og<br />

sige: ’Ambassaden siger altså…’. Det er igen det her med at have nogle<br />

bastards længere oppe, så man kan sige: ’Sorry, det er vi nødt til. Det siger de.<br />

Ellers får vi ikke flere penge’. Altså, det hjælper meget nogle gange, så den<br />

proces blev sat i gang. Og den havde vi… fordi når man har den daglige<br />

kontakt, så har man tit svært ved det. (PO)<br />

På denne måde fungerer reviews og evalueringer som et værktøj for donor og IO’er/<br />

rådgivere til at disciplinere projektorganisationerne.<br />

12.1.3. Egenkontrol og konsensus<br />

Ovenstående gennemgang fremstiller to motivationsfaktorer, som udspringer af<br />

forskellige – men i begge tilfælde klare – styrkeforhold mellem Danida og Danidas<br />

partnere. I førstnævnte tilfælde, hvor partnernes motivation udspringer af en følelse<br />

af ejerskab til konklusionerne, falder dette i tråd med de centrale antagelser inden for<br />

den participatoriske læringsdiskurs, som vi gennemgik i kapitel 4. Ved brugen af<br />

pression som motivationsfaktor ligger samspillet mellem Danida og Danidas partnere<br />

derimod i forlængelse af de subjektpositioner, som stilles til rådighed inden for en<br />

evalueringsteoretisk kontroldiskurs. Når Danida eller de eksterne IO’er presser<br />

projektorganisationerne til at foretage justeringer, sker det med reference til ”nogle<br />

bastards længere oppe” – det vil sige til et eksternt krav om resultatorientering og<br />

162


ansvarliggørelse. Derved bliver Danidas krav til partnerne om at følge evalueringer-<br />

nes/reviewenes anbefalinger til en indiskutabel ordre.<br />

De to ovenstående eksempler på motivationsfaktorer kan altså beskrives som ’rene’<br />

eksempler på henholdsvis participatorisk læring og kontrol. Der findes imidlertid<br />

også mindre klare eksempler, hvor lærings- og kontroldiskurserne blandes, og de<br />

tydelige magtkonturer Danida og partnerne imellem udviskes. En analyse af de to<br />

reviews af MISA fra henholdsvis 2001/2002 og 2004 afdækker to sådanne hybrider.<br />

12.1.3.1. Den kompetente partner<br />

Vi har tidligere omtalt reviewene af MISA fra henholdsvis 2001/2002 og 2004 som<br />

de to mest udtalte eksempler på udførelsen af en evaluering / et review af Danida-<br />

støttet mediebistand efter en participatorisk læringsmodel (se afsnit 9.1.3.2.). At<br />

forløbene blev oplevet som en participatoriske læringsprocesser af både projekt-<br />

organisationer, konsulenter og opdragsgiver beror på en række faktorer. Først og<br />

fremmest var de evaluerede aktører trygge ved konsulenterne, som de kendte i<br />

forvejen, og som anvendte metoder, der understøttede partnernes inddragelse og<br />

myndiggørelse. Desuden var MISA i begge tilfælde garanteret fortsat støtte i form af<br />

en ’tryghedsgaranti’ (MISA 04:45 & MISA 01/02:3). En sidste og meget væsentlig<br />

faktor er, at MISA ikke er en hvilken som helst partner – den må anses for at være en<br />

af Danidas nok mest ’kompetente’ partnere på mediebistandsfeltet. Det er således<br />

ikke en tilfældighed, at de to mest fremtrædende eksempler på realisering af en<br />

participatorisk læringsdiskurs er reviews af den samme organisation.<br />

MISA’s status som en ’kompetent’ partnerorganisation hviler dels på dens størrelse<br />

(den har et højtuddannet fuldtidssekretariat), dens alder (MISA har samarbejdet med<br />

Danida siden 1992) og dens erfaringer med at samarbejde med en lang række<br />

donorer. Af reviewet fra 2001/2002 fremgår det, at:<br />

The Regional Secretariat of MISA is currently co-operating with more than 15<br />

donors. In addition national chapters are independently mobilising resources<br />

from donors, including embassies, in the various countries. The various donors<br />

each have their specific requirements with regard to funding proposals,<br />

appraisal procedures, formats for accounting, auditing, monitoring and report.<br />

In addition, they all have specific ideas about the direction and priorities of<br />

MISA and preferences with regard to what they want to support within MISA.<br />

(MISA 01/02:62)<br />

Organisationen har altså rig lejlighed til at tillære sig de kompetencer, som kræves<br />

for at kunne begå sig i donorverdenen. Kompetencer, der blandt andet er nødvendige<br />

for at kunne øve indflydelse på design af reviews og evalueringer. I kapitel 7 beskrev<br />

vi, hvordan Danida både i forbindelse med reviews og evalueringer forsøger at<br />

inddrage de involverede aktører i designfasen og derved udjævne den ejerskabsskæv-<br />

hed, som grundlægges i initieringsfasen. Men at inddragelsen i designfasen i høj grad<br />

163


foregår på donors præmisser, fremgår af dette citat, hvor en repræsentant for en<br />

anden ’kompetent’ partnerorganisation, som desuden er tidligere konsulent for<br />

Danida, beskriver sine muligheder for at formulere krav til kommissoriet som større i<br />

forhold til en mindre ’kompetent’ organisations:<br />

… jeg [har] jo kunnet stille større krav til dem [i Danida], fordi jeg selv har<br />

lavet mange evalueringer. (…) Øh… det gør [[en projektorganisation i<br />

Afrika]] ikke… (…) På en eller anden måde har de gjort det måske mere<br />

indirekte. Jeg kan huske, at de bad om at jeg lavede evalueringen (…) Og det<br />

har de så kunnet bede om, og det har Ministeriet også honoreret. Altså ved at<br />

de har decideret bedt om at få en bestemt evaluator. (PO)<br />

Citatet vidner på den ene side om, at der fra Danidas hold er vilje til at imødekomme<br />

partnernes ønsker, men det viser også, at der reelt er forskel mellem de forskellige<br />

partnerorganisationers muligheder for at blande sig i forhandlingerne. Denne ulighed<br />

søger Danida at udjævne ved at uddanne deres partnere i evalueringsarbejdet:<br />

… både vi og kontorerne er måske ikke gode nok til at forklare folk, der ikke er<br />

vant til at blive evalueret, hvad det egentlig er, der foregår. Altså nu prøver vi<br />

at have vores guidelines, som vi sender til folk. Vi prøver at holde workshops<br />

og seminarer, og altså i stigende grad inddrager vi også vores partnere i<br />

udviklingslandene i Terms of Reference, sådan at de får den samme både<br />

indsigt i men også ejerskab til evalueringen. (<strong>OG</strong>)<br />

Med ord som ’inddragelse’, ”ejerskab” og ”indsigt” anvender den citerede ansatte i<br />

Danida her termer hentet fra en participatorisk læringsdiskurs. Dog står det ved<br />

nærmere gennemsyn klart, at tilgangen til inddragelsen er top-down-orienteret. Det er<br />

opdragsgiveren, der skal ”forklare folk”, hvad ”det egentlig er, der foregår”, og der-<br />

med bibringe partneren ”den samme indsigt”, som opdragsgiveren allerede besidder.<br />

Retningslinierne og dermed det sprog, som evalueringsprocessen forhandles og<br />

forstås ud fra, er allerede defineret, hvorfor partnernes mulighed for indflydelse<br />

afhænger af, om de er villige og i stand til at tillære sig den særlige donordefinerede<br />

evalueringspraksis.<br />

12.1.3.2. Egenkontrol<br />

Som vi tidligere har beskrevet, er Danidas partnere på mediebistandsområdet forplig-<br />

tet til løbende at udarbejde en række dokumenter ud fra skabeloner, som på forhånd<br />

er fastlagt af Danida (afsnit 7.1.5.1., Danida 20003B:35ff., bilag 5) 69 . Alle partnere<br />

skal således udføre en vis grad af egenkontrol – et særligt interessant fænomen i<br />

specialets kontekst, da magtrelationerne mellem den kontrollerede og den kontrol-<br />

lerende part udviskes, når der er tale om personsammenfald mellem disse. Ved at<br />

uddelegere kontrollantrollen til de kontrollerede parter sikrer Danida sig, at kontrol-<br />

len internaliseres, og at partnerorganisationen disciplineres til at tænke i LFA-baner.<br />

69 Formatet følger den skabelon, som følger af den såkaldte Logical Framework-tilgang (LFA) til<br />

projektledelse, som blev introduceret i kapitel 11.<br />

164


Reviewet af MISA i 2004 adskilte sig fra andre reviews og evalueringer ved, at<br />

egenkontrollen her spillede en fremtrædende rolle, idet MISA ikke blot deltog i<br />

udarbejdelsen af kommissoriet og sammensætningen af konsulenthold – organisa-<br />

tionen betalte selv for reviewets gennemførelse. Den måde, hvorpå MISA finansieres<br />

(såkaldt basket funding), medfører, at organisationen selv har et implementerings- og<br />

monitoreringsbudget, som blandt andet dækker udgifter til reviews:<br />

All costs will be paid for by MISA from the implementation and monitoring<br />

budget. The consultants will be paid a professional fee of US$300 per day for<br />

the not more than 13 days review. The subsistence and travel costs will be paid<br />

on a proven expense basis. MISA will arrange for the travel of the consultants.<br />

(MISA 04:44-45)<br />

MISA er altså i den situation, at organisationen selv forvalter de midler, som bruges<br />

på evalueringer og reviews uden selv at have en reel indflydelse på initieringen af<br />

disse. Dette tilfælde af egenkontrol viser et behov for at forfine den indledende<br />

skelnen mellem top-down og bottom-up tilgange til opfølgning på evalueringer og<br />

reviews. På den ene side bliver partnerorganisationen dybt involveret i review-<br />

processen, på den anden side får organisationen kun det ansvar, som donorerne er<br />

villige til at give fra sig, hvorfor man med de kritiske briller på kan karakterisere<br />

samspillet mellem MISA og donorerne som et tilfælde af ”pseudo-inddragelse”<br />

(Krogstrup 2001:199).<br />

12.1.3.3. Konsensus?<br />

Også ved nærmere gennemlæsning af det andet review af MISA fra 2001/2002<br />

nuanceres rapportens ellers skønt malede billede af forløbet som en bottom-up,<br />

participatorisk læringsproces. I rapporten er den gennemgående afsenderidentitet den<br />

faciliterende konsulentrolle (se bilag 4D & 4I), som i de fleste tilfælde gengiver de<br />

evaluerede aktørers holdninger neutralt, mens forfatternes egne vurderinger træder i<br />

baggrunden. Imidlertid forekommer der i denne reviewrapport adskillige eksempler<br />

på, at den vurderende og den faciliterende konsulentrolle blandes, idet forfatterne<br />

tydeligt kommenterer partnernes udsagn.<br />

Det mest markante eksempel herpå drejer sig om en vurdering af, hvorvidt MISA har<br />

levet op til de fastsatte målsætninger om at implementere en ligestillingskomponent i<br />

projektets aktiviteter 70 . At ligestilling oprindeligt blev sat på dagsordenen af<br />

donorerne og ikke af projektorganisationen selv, fremgår blandt andet af passiv-<br />

konstruktionen i denne formulering: ”Gender was introduced in MISA at a very late<br />

stage” (MISA 01/02:35), og det kommer desuden tydeligt til udtryk, at en stor del af<br />

70 Andre eksempler er vurderingen af MISA’s brug af informationsteknologi og projektorganisationens<br />

samarbejde med en fond kaldet SAMDEF. I begge tilfælde fremgår det, at donorer og konsulenter<br />

mener, det er en god idé, mens partnernes uenighed omtales med ord som ’skepsis’ og ’modstand’:<br />

”During the review/evaluation, the tough stance of MISA members towards SAMDEF, as indicated<br />

above, appears to have softened.” (MISA 01/02:58).<br />

165


projektorganisationens medlemmer finder målsætningen irrelevant. Frem for at<br />

beskrive partnernes holdning neutralt, tilkendegiver forfatterne, at de selv anser lige-<br />

stillingsemnet for at være relevant og væsentligt, og at den gruppe blandt de evalue-<br />

rede aktører, som er uenige heri, har ’stereotype’ og ’blandede holdninger’:<br />

It became apparent that MISA itself has not done away with its own<br />

stereotypes and mixed views as to the importance and relevance of the concept.<br />

(MISA 01/02:42)<br />

Af formuleringen “done away with” fremgår det, at projektorganisationen forventes<br />

at blive enig med donorer og konsulenter med tiden. Konsulenternes egen positive<br />

holdning til ligestillingskomponenten kommer også til syne i formuleringen af dette<br />

ledende spørgsmål til de kritiske røster i MISA, som tydeligt indikerer, at konsulen-<br />

terne sætter lighedstegn mellem ligestilling, pluralisme, diversitet og demokrati:<br />

This debate raises the following issues: By questioning the relevance of gender<br />

mainstreaming within MISA’s mandate and in the content of news coverage, to<br />

what extent has MISA interpreted the concepts of ”pluralism”, ”diversity” and<br />

”democracy” to their full implications? (MISA 01/02:43)<br />

Endelig fremhæver konsulenterne den andel af de evaluerede aktører, som udtrykker<br />

enighed med konsulenternes (og donorernes) vægtning af ligestilling, idet disse roses<br />

for at være ”refreshing” og ”strong committed voices”:<br />

Although it is thought that the process of introducing gender equality was<br />

donor-driven, it was refreshing to hear that in spite of contradictory opinions<br />

regarding the relevance of the concept, some very strong committed voices<br />

were heard both from women and men at all levels of the organisation. There<br />

is, therefore, an internal willingness to move forward with the application of<br />

the concept. (MISA 01/02:43, vus.)<br />

Mens konsulenterne bevæger sig inden for den retorik, som kendetegner den partici-<br />

patoriske læringsdiskurs, har det reelle indhold i diskussionerne karakter af konsen-<br />

susbaseret læring. Dette understreges af, at konsulenternes opsummering af debatten<br />

er, at der er en ”internal willingness” til at integrere ligestillingsaspektet, selvom en<br />

lige så valid konklusion kunne have været, at der var intern modvilje mod at følge<br />

donorernes dagsorden. Det fremgår således med al tydelighed, at der er en rigtig og<br />

en forkert holdning til ligestillingsspørgsmålet, hvor donorerne og konsulenterne<br />

repræsenterer den rigtige. Den endelige konklusion lyder:<br />

Three years later, gender is no longer merely a donor-driven issue but a<br />

common interest to both MISA and its donors thereby needing to form an<br />

integral part of future partnerships (MISA 01/02:46)<br />

Anvendelsen af ordet partnerskab i denne sætning sætter partnerskabets paradoks på<br />

spidsen: Interessen for ligestillingsspørgsmål er fælles, fordi donoren har insisteret<br />

herpå. Reviewet understøtter donorernes synspunkt og bidrager til, at MISA accep-<br />

terer dette.<br />

166


12.1.4. Partnerskab og bekendelse<br />

Under betegnelsen ’partnerskabets paradoks’ behandlede vi i kapitel 3 det modsæt-<br />

ningsfyldte møde mellem moderniseringsdiskursens asymmetriske styrkeforhold<br />

mellem donor og modtager og det lighedsideal, som kendetegner den kritiske udvik-<br />

lingsdiskurs. Paradokset består i, at Danidas partnere på den ene side skal leve op til<br />

en række donordefinerede krav om eksempelvis demokratisering og respekt for<br />

menneskerettighederne, mens de samtidig forventes at formulere kravene selv.<br />

Hermed støder moderniseringsdiskursens top-down-tilgang sammen med den<br />

bottom-up-tilgang, som foreskrives inden for den kritiske udviklingsdiskurs. I de<br />

tilfælde hvor der er sammenfald mellem partnernes og Danidas ønsker og interesser,<br />

er partnerskabet uproblematisk. Men når partnerne – af den ene eller anden årsag –<br />

ikke kan tilslutte sig Danidas prioriteringer, politikker og/eller metoder, må de fore-<br />

give alligevel at gøre dette for fortsat at gøre sig fortjent til danske bistandskroner.<br />

Udtrykt i foucault’ske termer betyder partnerskabets paradoks i praksis, at partnerne<br />

må ’bekende’ sig til donorens værdier for at opretholde partnerskabet (Foucault<br />

1980:191). Bekendelsen er ifølge Foucault en subtil disciplineringsmetode, som ikke<br />

kan beskrives ud fra et traditionelt, strukturelt magtperspektiv, hvor magt defineres<br />

som A’s evne til at få B til at gøre noget, som B ellers ikke ville have gjort (Lukes<br />

1973 & Dahler-Larsen 2004:96). Bekendelsen hviler i stedet på, at B disciplinerer sig<br />

selv ud fra sin vurdering af A’s forventninger og truslen om mulige sanktioner, hvis<br />

disse forventninger ikke indfries.<br />

De to ovenstående eksempler på, at partnerorganisationerne – under dække af<br />

frivillighed og inddragelse – presses til at justere deres adfærd efter Danidas anvis-<br />

ninger, illustrerer bekendelsen i praksis. Betragtet som forhandlingsknudepunkter af-<br />

spejler og forstærker evalueringer og reviews dermed den donor-modtager-relation,<br />

som gør sig særligt gældende inden for mediebistand og andre bistandsområder med<br />

politiske konditionaliteter i spil: Danida opstiller betingelser og mål, eksempelvis at<br />

ligestilling er en relevant komponent i et mediebistandsprojekt, men partnerne skal<br />

selv udtrykke ønsket for at kunne få støtte fra Danida. Sker det ikke frivilligt som en<br />

bottom-up-proces, kan reviews og evalueringer hjælpe Danida til alligevel at få sin<br />

vilje – i grelle tilfælde ved at true med at lukke bevillingen, men ellers på mere<br />

subtile og elegante måder såsom egenkontrol og definering af ’den rigtige konsen-<br />

sus’.<br />

Vi har nu vist, at Danida er motiveret for at drage konsekvenser af reviews og evalue-<br />

ringer – vel at mærke konsekvenser for partnerorganisationerne. Men er donororgani-<br />

sationen også motiveret for selv at ændre adfærd som følge af evalueringer og<br />

reviews? I det følgende stiller vi skarpt på barrierer og muligheder for realiseringen<br />

af Danida som en lærende organisation (jf. afsnit 4.3.).<br />

167


12.2. Danida som lærende organisation<br />

Vi har i kapitel 10 og 11 fokuseret på de dramaer, som udspiller sig omkring konsu-<br />

lenternes og partnernes identiteter. I begge disse kapitler er det blevet opsummeret, at<br />

Danidas identitet som donor og opdragsgiver med magt til at definere rammerne for<br />

de øvrige aktører ikke udfordres men styrkes i forbindelse med reviews og evalue-<br />

ringer. Vi vil i det følgende undersøge de faktorer, som kan motivere Danida til at<br />

ændre adfærd og derigennem belyse forudsætningerne for, at Danidas identitet – på<br />

linie med de øvrige praksisfællesskabers – sættes til forhandling.<br />

Som det gælder for partnerorganisationerne, kan man også for Danidas vedkom-<br />

mende skelne mellem indefra- og udefrakommende motivationsfaktorer i udførelsen<br />

af evalueringer og reviews, hvor de udefrakommende er knyttet til evalueringers og<br />

reviews’ kontrolfunktion og de indefrakommende til medarbejdernes engagement i<br />

og ejerskab for konklusionerne. Disse to typer faktorer gennemgår vi henholdsvis i<br />

afsnit 12.2.1. og 12.2.2., hvorefter der i afsnit 12.2.3. rundes af med en diskussion af,<br />

hvorvidt Danida kan siges at leve op til de i kapitel 8 fremstillede idealer om organi-<br />

satorisk læring, som kommer til udtryk i organisationens publikationer og i inter-<br />

views med medarbejderne.<br />

12.2.1. Ansvarliggørelsesfunktionen som motivationsfaktor<br />

Partnerorganisationerne er ikke de eneste, som er underlagt krav om resultatorien-<br />

tering, det er Danida i høj grad også. Evalueringernes – og i nogen grad også<br />

reviewenes – funktion som redskaber til ansvarliggørelse udgør derfor også for<br />

Danida en vigtig motivationsfaktor for at følge op på rapporterne. Men hvor partner-<br />

ne i mange tilfælde mødes med mere eller mindre direkte formulerede krav om<br />

opfølgning, som vi har set i det ovenstående, handler Danida i højere grad ud fra<br />

forventningen om en mulig offentlig reaktion. I dette citat beskriver en medarbejder i<br />

Danida, hvordan offentliggørelsen af evalueringer ansporer ledelsen til at fordybe sig<br />

i dem og drage konsekvenser deraf:<br />

Men [offentliggørelsen af evalueringsrapporter] betød så til gengæld, at der<br />

kom en reel diskussion af: ’Jamen, hvad skal vi? Hvordan skal vi reagere på<br />

den her? Og vi skal gerne have en fornuftig reaktion og ikke bare sige, at det er<br />

vi ligeglade med’. Og det gav så anledning til, at vi faktisk fik den her reelle<br />

diskussion omkring evalueringsrapporter i ledelsesgruppen, som vi ikke havde<br />

haft før. Så det eksterne pres og offentliggørelsen har medvirket til, at man<br />

begyndte… og så sker der det, at så opdager ledelsen opdager: ’Jamen, der er<br />

sgu noget interessant i de her evalueringer. Der er faktisk noget, vi kan bruge’.<br />

Så det er ikke kun en forberedelse til reaktioner overfor pressen, men også et<br />

reelt instrument. Men det var en sjov oplevelse i løbet af en to-tre år der,<br />

hvordan det gik fra at være interne og ikke særligt påagtede rapporter til at<br />

være noget man blev bange for, fordi man var bange for the public reaction, så<br />

til at være: ’Jamen, det er sgu et instrument, vi kan bruge’. (<strong>OG</strong>)<br />

168


Foucaults begreb panoptisk disciplinering synes dækkende for den logik, som ifølge<br />

den citerede ansatte driver ledelsens interesse for evalueringer. Alene ledelsens angst<br />

for offentlighedens overvågende blik – ”the public reaction” – gør, at Danida interna-<br />

liserer kontrollen. Danidas ledelse er hermed sammenlignelig med den indsatte i<br />

Panoptikon, der indretter sin adfærd efter den potentielle inspektion, uvidende om<br />

hvorvidt denne rent faktisk finder sted eller ej (Foucault 1994:179f.).<br />

I kraft af, at evalueringer offentliggøres, mens reviews har status af interne arbejds-<br />

papirer, er ansvarliggørelsesfunktionen primært en motivationsfaktor i forbindelse<br />

med førstnævnte bedømmelsesaktivitet. Vi har tidligere beskrevet, at de danske<br />

medier primært – hvis ikke udelukkende – interesserer sig for evalueringer med<br />

kritiske konklusioner, hvorfor ledelsens tilskyndelse til at følge op på denne type<br />

evalueringer er større end i de tilfælde, hvor konklusionerne er mindre entydige eller<br />

kritiske. Ansvarliggørelsesfunktionen alene er derfor ikke nok til at sikre en tilstræk-<br />

kelig opfølgning på reviews og evalueringer: En vis indre motivation er også nødven-<br />

dig for, at Danida med rette kan kalde sig en lærende organisation.<br />

12.2.2. Rotationsordningen som barriere for organisatorisk læring<br />

Som vi beskrev i kapitel 7 er ansvaret for opfølgning på reviews placeret i den<br />

samme bevilgende enhed, som har initieret reviewet. Det vil i praksis sige, at det er<br />

en ambassademedarbejder, der skal stå for, at erfaringerne og anbefalingerne formid-<br />

les videre ikke blot til Danidas partnere, men også internt i Danidas organisation.<br />

Ansvaret for at følge op på evalueringer er formelt forankret i EK, hvilket betyder, at<br />

EK sørger for, at de berørte enheder i Danida gøres opmærksom på rapportens kon-<br />

klusioner og drager de nødvendige konsekvenser. Hvad enten de berørte enheder er<br />

landekontorer, policykontorer eller ambassader, så gælder det, at medarbejderne her<br />

hører under rotationsordningen.<br />

Karakteristisk for såvel evalueringer som reviews er det altså, at de medarbejdere,<br />

som skal sikre realiseringen af den læringscyklus, vi præsenterede i afsnit 4.3,<br />

sjældent har et grundigt kendskab til eller et stort netværk inden for mediebistands-<br />

feltet. For at Danida kan beskrives som en lærende organisation, skal den viden, der<br />

tilvejebringes gennem reviews og evalueringer, sammenlignes med og bidrage til en<br />

eventuel korrektion af Danidas normer og praksis. Dette er selvsagt svært at gøre,<br />

hvis man ikke har viden om gældende normer og praksis. Endvidere kræver en god<br />

videreformidling og opfølgning, at den ansvarlige, nødvendige nøgleperson 71 har et<br />

71 Nødvendig nøgleperson er vores oversættelse af begrebet ”obligatory passage point”, som findes hos<br />

Bowker & Star 1999:292. Et ”obligatory passage point” er en aktør, som indtager en så central position i<br />

netværket omkring et grænseobjekt, at denne fungerer som et obligatorisk bindeled eller en ”gatekeeper”<br />

(ibid.) i interaktionen mellem et praksisfællesskab og omverdenen. I forbindelse med opfølgning på<br />

reviews er den medarbejder, hos hvem det formelle ansvar er forankret, en nødvendig nøgleperson i<br />

samarbejdet mellem de forskellige sub-praksisfællesskaber i Danida samt mellem Danida og partnerne.<br />

169


netværk, vedkommende kan inddrage med henblik på at stabilisere konsekvens-<br />

dragelsen af en evaluering eller et review som et grænseobjekt. En ny medarbejder –<br />

typisk uden forhåndskendskab til medier og til det pågældende land – har derfor ringe<br />

odds, hvorfor rotationsordningen kan siges at udgøre en ikke ubetydelig barriere for<br />

realiseringen af Danida som lærende organisation. Denne påstand uddybes i det<br />

følgende.<br />

12.2.2.1. Manglende kontinuitet<br />

For det første er rotationsordningen lig manglende kontinuitet. Ofte udskiftes den<br />

Danidaansatte, som har haft ansvaret for initieringen af et review eller har været<br />

inddraget i designet af en evaluering, sådan at det er en ny medarbejder, der skal stå<br />

for opfølgning og konsekvensdragelse. Og vel at mærke er det med stor sandsyn-<br />

lighed en helt tredje eller fjerde medarbejder, der oprindeligt har deltaget i forbere-<br />

delsen og implementeringen af den projektfase, den konkrete bedømmelsesaktivitet<br />

fokuserer på. Tabet af viden og overblik forstærkes af det forhold, at det typisk er de<br />

mest uerfarne medarbejdere, som får ansvaret for bistand til medier, køn og NGO’er.<br />

Ikke fordi disse områder har specielt lav status, men fordi der som oftest er tale om<br />

relativt små og afgrænsede projekter, der i Danida anses for at udgøre et spændende<br />

afsæt for en ung, ny medarbejder. Her fortæller en konsulent, om en oplevelse med at<br />

skulle overdrage resultaterne af et review til en ung Danidamedarbejder:<br />

Og så glædede jeg mig enormt meget til at komme ind og snakke med Danida<br />

om den, fordi det var faktisk dem, der var administratorer. Og så kom jeg ind,<br />

og så sad der sådan en ung… sådan et ungt menneske – og det er jo ikke<br />

vedkommendes skyld – men altså vedkommende havde kun siddet der et år og<br />

skulle videre om en måned eller sådan noget. Og havde læst rapporten og<br />

syntes, at den var meget interessant, men han havde aldrig forholdt til den<br />

bevilling i øvrigt, selvom det lå inde på hans skrivebord. Så det var jo ikke<br />

en… Altså, det var mere sådan: han sad og spurgte mig nysgerrigt, om: ’Og<br />

Gud! Og hvad laver…? Nåh…?’ og… det var én stor surprise, ikke? (griner)<br />

Så der var ikke nogen… der var ikke nogen dialog der, kan man sige. Men det<br />

viser også noget om systemet, kan man sige, fordi de rykkede videre, og… og<br />

han… Og der stod på hans papir, at han skulle have lavet sådan en review,<br />

fordi det var tid nu, og det har han så sagt videre: ’Find en eller anden’, ikke<br />

(griner), og så blev det mig, og så var det ligesom godt nok, når der lå en<br />

rapport, ikke. Men de der anbefalinger og sådan noget, men det kunne han ikke<br />

forholde sig til. (Utydeligt). Det føltes da underligt. (KS)<br />

12.2.2.2. Fokus på egen karriere<br />

Foruden den manglende kontinuitet er en anden utilsigtet effekt af rotations-<br />

ordningen, at nogle ambassademedarbejdere fokuserer på deres egne karriere-<br />

muligheder frem for at engagere sig i de projekter, der hører under deres ansvars-<br />

område – de skal med den ovenfor citerede konsulents ord ’rykke videre’. En ansat i<br />

Danida fortæller her om sin oplevelse af at samarbejde med kolleger, der efter<br />

vedkommendes mening mangler ’engagement’ og blot betragter arbejdet som en<br />

mulighed for at ’score points’:<br />

170


… den anden side er selvfølgelig også, hvis den, der så sidder med det til<br />

hverdag, ikke har engagementet. Ikke, altså, som bare siger, ’nå ja, men bare de<br />

ikke finder ud af det, at jeg har lavet en fejl’, og prøver at skjule det, ’bare jeg<br />

får en nogenlunde god rapport ud af det, så kan jeg gå hen og spille golf<br />

klokken fire’, ikke. For dem har vi jo også nogen af. Og desværre også på<br />

sådan nogen områder her, som er så sensitive, og som kræver, mener jeg<br />

personligt, et engagement, og at man går dybere ind end lige at se på, at hvor<br />

mange penge skal jeg bruge i år, og hvordan får jeg scoret mine points. (<strong>OG</strong>)<br />

Vi antager ikke, at denne karikatur af en uengageret medarbejder tegner et dækkende<br />

billede af virkelighedens Danidaansatte. Men citatet illustrerer, at den manglende<br />

kontinuitet og det fokus på det individuelle karriereforløb, som følger af rotations-<br />

ordningen, betyder, at de nødvendige nøglepersoner ofte mangler den fornødne<br />

motivation i forbindelse med opfølgning på reviews og evalueringer.<br />

12.2.2.3. Brug af interne konsulenter<br />

En interessant pointe i denne sammenhæng er, at blandt de cases, vi har undersøgt, er<br />

reviewet af MISA i 2004 det mest udtalte eksempel på, at Danida har søgt at omsætte<br />

viden til organisatorisk læring. Dette review blev, som tidligere nævnt, udført af<br />

blandt andet en intern konsulent, den medieansvarlige i BFT, der som den eneste i<br />

Danida følger mediebistanden kontinuerligt. I nedenstående udsagn vurderer BFT-<br />

medarbejderen fordelen ved, at hun spillede en central rolle både under udførelsen af<br />

og opfølgningen på reviewet. BFT-medarbejderen sammenligner 2004-reviewet med<br />

et review af MISA, som blev foretaget året før af et rent eksternt konsulenthold (”det<br />

sidste” review):<br />

… hvis du læser de to rapporter fra MISA, ikke, øh, så er nogen af<br />

konklusionerne de samme. Men fordi at jeg så ikke har noget med det sidste<br />

[review] at gøre, fordi jeg ikke har nogen kontakt med de folk, øh altså rent<br />

sådan kommercielt, jeg har ikke hyret dem til at løse opgaven, jeg er ikke<br />

blevet bedt om at løse opgaven, så kan der være en fare for, at nogen af de ting<br />

forsvinder i vores system. Altså, ambassaden har bedt konsulenterne om at lave<br />

opgaven og hyret dem og så videre, øh, men i og med at jeg så kommer ind<br />

over, fordi jeg sidder her som fagperson, når jeg så ser de her problemer, der er<br />

i de her organisationer, så laver jeg jo lidt uro på det og siger ’vi bliver<br />

simpelthen nødt til at gøre noget ved det her’. Og så sker der lidt mere i<br />

organisationen, ikke (…) Selvom konklusionerne egentlig måske var de samme<br />

sidste år, ikke. (<strong>OG</strong>)<br />

BFT-medarbejderen forklarer, at hun ganske vist har haft kendskab til 2003-reviewet,<br />

men at hun ikke har spillet en central rolle i forhandlingerne omkring reviewet, da<br />

hun hverken har varetaget den ’kommercielle’ opdragsgiverfunktion eller er blevet<br />

bedt om at være konsulent. Ansvaret for reviewet har således været forankret i den<br />

bevilgende ambassade, og dermed er en række af reviewets konklusioner ’forsvundet<br />

i systemet’.<br />

Da BFT-medarbejderen mod normen blev bedt om at udføre 2004-reviewet som<br />

intern konsulent, følte hun et stærkere ejerskab for at drage konsekvenser af<br />

171


konklusionerne og lavede derfor ”lidt uro på det”, hvorved hun bidrog til at sikre en<br />

grundigere opfølgning. Citatet afsluttes med bemærkningen: ”Selvom konklusionerne<br />

egentlig måske var de samme sidste år” – en påstand vores læsning af de to rapporter<br />

kan bekræfte. Forskellen mellem de to konsekvensdragelsesforløb skal således ikke<br />

findes i rapporterne, men i hvor stærkt et engagement Danidas medarbejdere har lagt<br />

i opfølgningen. Vi må på denne baggrund konkludere, at en svaghed i Danidas<br />

praksis i forhold til konsekvensdragelse er, at videreformidling og opfølgning hviler<br />

på enkeltpersoners engagement – et engagement, som rotationsordningen ofte<br />

blokerer for.<br />

12.2.3. Danidas identitet til forhandling?<br />

Danidamedarbejdernes udlægning af læringsbegrebet i kapitel 8 giver et indtryk af, at<br />

der i organisationen er en tendens til at sætte lighedstegn mellem feedback og læring,<br />

og at selve udførelsen af evalueringer og reviews således garanterer kvalitetssikring<br />

og forbedring af mediebistandsindsatsen. Denne antagelse er ikke korrekt, idet igang-<br />

sættelsen af en organisatorisk læringsproces kræver, at nogle aktører i praksisfælles-<br />

skabet Danida tager ejerskab for at følge op på en rapport og omsætte viden til<br />

læring. Analysen i dette afsnit belyser to faktorer, som kan motivere en sådan opfølg-<br />

ning. Dels udgør bevidstheden om muligheden for en negativ offentlig reaktion en<br />

udefrakommende motivationsfaktor, og dels kan Danidas medarbejdere selv bidrage<br />

til ændringer, hvis de vel at mærke har et engagement og en interesse heri. Imidlertid<br />

blokerer rotationsordningen og anvendelsen af eksterne konsulenter for, at ejerskabet<br />

forankres internt i Danidas organisation. En interessant pointe er, at partnerne ingen<br />

mulighed har for direkte at gennemtvinge ændringer i Danidas adfærd, sådan som<br />

Danida omvendt har i forhold til partnerne. Danidas identitet sættes således kun på<br />

prøve i det omfang, som enten den danske offentlighed eller organisationen selv<br />

udviser interesse herfor. Hermed understreges den asymmetriske og paradoksale<br />

partnerrelation, hvor Danida alene skal understøtte partnernes udvikling og selv<br />

forblive uændret i processen.<br />

12.3. Delkonklusion<br />

Et af målene med dette speciale er at belyse samspillet mellem dominerende<br />

evaluerings- og udviklingsteoretiske diskurser og Danidas evalueringspraksis. Vi har<br />

tidligere undersøgt interaktionen mellem de tre involverede praksisfællesskaber i<br />

forbindelse med design, udførelse og afrapportering af bedømmelsesaktiviteter, og i<br />

dette kapitel er fokus på forhandlingerne i opfølgningsfasen. Analysen har vist, at<br />

aktørerne i nogle situationer trækker på enten den evalueringsteoretiske kontrol-<br />

diskurs eller den participatoriske læringsdiskurs i deres motivation for at drage<br />

konsekvenser af reviews og evalueringer, mens andre opfølgningsforløb så at sige<br />

blander de to diskursers tilgange. Derved genforhandles relationerne mellem Danida<br />

og partnerne på en måde, så de hverken understøtter moderniseringsdiskursens<br />

172


asymmetriske styrkeforhold eller det ideal om myndiggørelse, som præsenteres inden<br />

for den kritiske udviklingsdiskurs. I stedet bidrager disse opfølgningsforløb til at<br />

understøtte partnerskabets paradoks.<br />

De involverede praksisfællesskaber har imidlertid sproglige kategorier til at beskrive<br />

de situationer, hvor styrkeforholdet mellem Danida og partnerne er utvetydige og<br />

arketypiske for enten kontrol- eller læringsevalueringer. Egenkontrol og tvungen<br />

konsensus er eksempler på en sammenblanding af kontrol og læringsdiskurserne, idet<br />

kontrollen her foregår mere på en mere subtil facon, hvor partnerne selv indvilger i at<br />

bekende sig til Danidas vurderinger og værdier for fortsat at kunne modtage støtte.<br />

Fordi disse mellemformer falder uden for de faste kontrol-lærings-kategorier,<br />

praktiseres både egenkontrol og tvungen konsensus inden for en læringsretorik med<br />

argumenter om myndiggørelse og participation, og den komplekse og paradoksale<br />

relation mellem Danida og partnerne sprogliggøres således ikke af aktørerne selv.<br />

Et tilsvarende fænomen har vi set i forbindelse med design af evalueringer og<br />

reviews, hvor Danida beskriver egne intentioner om partnerinddragelse ved hjælp af<br />

begreber hentet fra en participatorisk læringsdiskurs, mens organisationen reelt<br />

forudsætter en høj grad af kompetence fra partnerens side. I forbindelse med analysen<br />

af konsulentrollen i kapitel 10 stod det klart, at modsætningerne mellem Danida og<br />

partnerne, som udmøntede sig i en kompleks og splittet konsulentidentitet, forsøges<br />

håndteret ud fra kontroldiskursens kriterier om uafhængighed og objektivitet frem for<br />

at blive diskuteret åbent. I alle disse tilfælde bidrager forhandlingerne mellem<br />

praksisfællesskaberne i forbindelse med evalueringer og reviews til at genetablere<br />

partnerskabets paradoks, men dette sker tavst under henvisning til positivt ladede<br />

nøglebegreber inden for henholdsvis lærings- og kontroldiskursen.<br />

Vi kan på denne baggrund ikke konkludere entydigt, at Danidas evalueringspraksis i<br />

alle situationer understøtter partnerskabets paradoks. Men vi kan konkludere, at<br />

skellet mellem kontrol- og læring ikke er så entydigt, som både teorien og praksis-<br />

fællesskabernes forståelser af begreberne lægger op til. Diskurserne blandes, og<br />

derved bidrager Danidas evalueringspraksis til at genforhandle identiteter og<br />

relationer på langt mere komplekse måder, end man kunne forvente ud fra på den ene<br />

side Danidas positive forståelser af læring og kontrol og på den anden side partnernes<br />

og konsulenternes negativt ladede, magtkritiske fortolkninger af de to formål.<br />

173


13. Fremtidens evaluering af mediebistand<br />

I problemformuleringen stiller vi blandt andet spørgsmålet om, hvordan Danida kan<br />

forbedre sin evalueringspraksis på mediebistandsfeltet. Det søges besvaret i dette<br />

kapitel, hvor analysen af Danidas nuværende praksis suppleres med en række<br />

konkrete anbefalinger til fremtidens evaluering af mediebistand.<br />

Danida er som alle andre donoragenturer let at kritisere, idet der er tale om en magt-<br />

fuld aktør med rig mulighed for at udnytte sin position til at dominere de økonomisk<br />

afhængige partnere og konsulenter. En diskursanalytisk funderet magtkritik, som den<br />

Ferguson leverer af donorsamfundet af Lesotho, har en vis berettigelse i Danidas<br />

tilfælde, og vi har også søgt at give en sådan, hvor dette har været relevant. Men ved<br />

at begrænse sin analyse til en akademisk kritik risikerer man først og fremmest at<br />

falde i samme normativitetsgrøft som dem man kritiserer, hvilket Fergusons tekst er<br />

et eksempel på (se afsnit 5.2.). Dernæst er der en vis sandsynlighed for, at Danida og<br />

de øvrige praksisfællesskaber ikke kan omsætte kritikken til nye handlingsmønstre,<br />

da analysens konklusioner ikke tager højde for deres konkrete situation. Dette kapitel<br />

præsenterer en række anbefalinger, som tager hensyn dels til Danidas behov for at<br />

bruge evalueringer og reviews til at legitimere udviklingsbistanden over for de<br />

danske skatteydere, og dels til organisationens udtrykte ønske om gerne at ville indgå<br />

i selvkritiske læringsprocesser. Anbefalingerne opsummerer de problemer og<br />

barrierer i den gældende evalueringspraksis, som er præsenteret i de foregående<br />

kapitler, og de er tænkt som oplæg og ideer snarere end som færdige evaluerings-<br />

modeller, da en sådan metodeudvikling ligger uden for specialets fokus.<br />

Kapitlet er inddelt i seks afsnit, hvor 13.1. drejer sig om Danidas forståelse og<br />

prioritering af formålene læring og kontrol, og 13.2. om perspektiverne for udvikling<br />

af et indikatorværktøj. Afsnit 13.3. behandler Danidas måder at inddrage partnerne på<br />

i evaluerings- og reviewprocessen. Herefter opstiller vi i 13.4. en række anbefalinger<br />

til Danida om, hvordan organisationen kan bidrage til at imødegå partnernes<br />

utryghed. I 13.5. stiller vi forslag til en styrkelse af Danidas opfølgningspraksis, og<br />

anbefalingerne opsamlet i afsnit 13.6.<br />

13.1. Læring og/eller kontrol?<br />

En af specialets hovedkonklusioner, som blev præsenteret i kapitel 8, er, at der er stor<br />

forskel på de tre praksisfællesskabers forståelser af læring og kontrol. Hvor konsulen-<br />

ter og partnere forholder sig stærkt problematiserende til kontrolformålet og mener,<br />

at det er uforeneligt med læringsformålet, ser Danida ingen problemer i at forene de<br />

to formål – tværtimod betragtes de som gensidigt understøttende. Sandheden om<br />

relationen mellem læring og kontrol synes at ligge et sted midtimellem. På den ene<br />

side eksisterer de to formål side om side i praksis – ikke blot i Danida men også i de<br />

174


fleste andre evaluerende institutioner i Danmark – og dog er der på den anden side<br />

problemer forbundet hermed. Vi plæderer for en højere grad af bevidsthed om disse<br />

problemer og en mere nuanceret forståelse af både læring og kontrol.<br />

13.1.1. Klarhed og konkretisering<br />

I Danidas publikationer beskrives læring som neutral ”erfaringsopsamling” og<br />

kontrol som objektiv ”dokumentation” (Danida 1999:7), men interviewene med<br />

Danidaansatte, partnere og konsulenter gør det klart, at kontrol og læring er meget<br />

mere end det. Kontrol er også utryghed, inspektion og panoptisk overvågning,<br />

ligesom læring også er bekendelse, pseudoinddragelse eller en mulighed for delege-<br />

ring af magt og myndighed til Danidas partnere. En højere grad af bevidsthed i<br />

Danida om de magtmæssige aspekter af lærings- og kontrolformålene er forudsæt-<br />

ningen for en mere åben dialog mellem de involverede praksisfællesskaber om,<br />

hvordan man skal forholde sig til utryghed, ulighed og idealer om lighed i<br />

evalueringsprocesser.<br />

13.1.2. Prioritering<br />

Første skridt i retning af en mere nuanceret og klar forståelse af læring og kontrol er,<br />

at man i Danida forsøger at konkretisere, hvad man vil med en evaluering eller et<br />

review – udover at udføre det. Ved ikke at forholde sig til metodeanvisninger,<br />

eksakte målgrupper og opfølgningsprocesser, undlader Danida i dag at tage stilling<br />

til, af hvem, hvornår og til hvad vurderingerne skal anvendes. Mere præcise kommis-<br />

sorier ville være en måde at løse dette problem på.<br />

I samme åndedrag vil vi anbefale de ansvarlige medarbejdere at prioritere mellem de<br />

to formål ud fra en analyse af, at de sjældent går så uproblematisk hånd i hånd, som<br />

Danida giver indtryk af. Særligt er der uoverensstemmelser mellem kontrolformålet<br />

og muligheden for at gennemføre participatorisk læring. Fordelen ved at prioritere<br />

kommer eksempelvis til udtryk i de reviews af MISA fra 2001/02 og 2004, hvor<br />

vigtige forudsætninger for, at det – i nogen grad – lod sig gøre at anvende en partici-<br />

patorisk læringsmodel, var udstedelse af en ’tryghedsgaranti’, omgåelse af uafhæn-<br />

gighedskravet samt afsættelse af ressourcer til anvendelse af participatoriske<br />

metoder. I forhold til at prioritere mellem formålene læring og kontrol bør man i<br />

Danida overveje, i hvilke tilfælde kontrollen tjener et konkret, instrumentelt formål –<br />

eksempelvis i forhold til at genoverveje en projektbevilling – og i hvilke tilfælde<br />

kontrollen udføres rutinemæssigt med en symbolsk funktion alene. Vores gennem-<br />

gang af reviewet af NSJ 2003 pegede på, at til trods for eksplicitte erklæringer om at<br />

ville genoverveje bevillingen, så drog hverken Danida eller reviewholdet de konklu-<br />

sioner og konsekvenser, man kunne forvente ville følge af den meget kritiske rapport.<br />

En mulig forklaring herpå er, at NSJ’s bevilling ikke reelt stod på spil, da projektet er<br />

175


et af Danidas flagskibe på mediebistandsområdet. Kontrollen synes derfor at have<br />

tjent et symbolsk formål snarere end et praktisk.<br />

Opsummerende foreslår vi Danidas medarbejdere at blive mere konkrete, fokuserede<br />

og realistiske i forbindelse med udarbejdelse af kommissorier, i højere grad at<br />

adskille kontrol- og læringsformålet samt at have en mere åben og nuanceret dialog<br />

med partnere og konsulenter om de to formåls påvirkning af de involverede aktørers<br />

identiteter og relationer. Vi vurderer, at dette speciale kan fungere som afsæt for en<br />

sådan afklarings- og diskussionsproces.<br />

13.2. Vurdering af mediebistandens effekter på<br />

outcomeniveau<br />

Vi har i kapitel 11 argumenteret for, at det både i et lærings- og et kontrolperspektiv<br />

er særdeles relevant at investere ressourcer i udviklingen af et indikatorværktøj til<br />

vurdering af mediebistandens effekter på et outcomeniveau. Et sådant værktøj kunne<br />

eksempelvis omfatte receptionsanalyse, mediemonitorering, indholdsanalyse samt<br />

brugerevalueringer i forbindelse med uddannelsesaktiviteter. I samme kapitel<br />

anbefalede vi Danida at udarbejde realistiske kommissorier, hvor sigte står mål med<br />

de faktiske ressourcer, samt i samarbejde med de eksterne konsulenter at bestræbe sig<br />

på at nedbringe tidsforbruget til dokumentstudier.<br />

At udvikle et sådant værktøj og anvende det kræver dog ressourcer. Vi mener derfor<br />

ikke, at det er realistisk inden for den nuværende økonomiske ramme for evalueringer<br />

og reviews at gennemføre omfattende outcome-målinger på alle missioner. Derfor<br />

anbefaler vi Danida at nedtone ambitionsniveauet i forbindelse med de løbende<br />

reviews, sådan at de alene skal fokusere på aktiviteternes output eller fungere som<br />

participatoriske læringsprocesser, for så parallelt hermed udføre vurderinger af de<br />

mere langsigtede effekter af bestemte indsatsområder såsom journalistuddannelse<br />

eller lokalradioer.<br />

13.3. Inddragelse af partnerne<br />

Et begreb, som i særlig grad er kendetegnet ved at være uklart formuleret af Danida<br />

er partnerinddragelse. Vi har identificeret to former for partnerinddragelse i<br />

forbindelse med reviews og evalueringer af Danidas mediebistand. Den ene form for<br />

inddragelse er en participatorisk, bottom-up tilgang, hvor partneren har reel<br />

indflydelse på alle faser i review- eller evalueringsprocessen i overensstemmelse med<br />

forskrifterne inden for den participatoriske læringsdiskurs. Den anden form er en<br />

mindre radikal model, hvor partnerne inddrages på Danidas præmisser. Som vi har<br />

vist i de foregående kapitler, er der ganske store forskelle mellem disse to former for<br />

inddragelse og de magtrelationer, de bidrager til at etablere. Forskelle som de<br />

176


interviewede aktører tilsyneladende ikke har en høj grad af bevidsthed om. Det<br />

resulterer i, at Danida og konsulenter ofte siger ét men gør noget andet.<br />

Førstnævnte form for inddragelse kan – ifølge konsulenter, partnere, evalueringsteori<br />

og de analyserede cases – ikke kombineres med et kontrolformål. Når Danida i dag<br />

anvender participatoriske metoder i forbindelse med reviews og evalueringer, er der<br />

derfor som oftest ikke tale om decideret participatorisk læring, men derimod om<br />

hybrider mellem kontrol og læring, såsom egenkontrol og tvungen konsensus.<br />

Både den participationsorienterede evalueringsteori og de interviewede konsulenter<br />

anser den radikale, myndiggørende inddragelse for den bedste måde at udføre<br />

evalueringer og reviews på og afviser den mere pragmatiske variant som ”pseudo-<br />

inddragelse” (Krogstrup 2001:199). Analysen af de to MISA-reviews og forekomsten<br />

af egenkontrol og tvungen konsensus i den forbindelse underbygger dette synspunkt:<br />

Det er problematisk at omtale og opfatte pragmatisk inddragelse ud fra en participa-<br />

torisk læringsforståelse, da de to former for inddragelse har vidt forskellige magt-<br />

mæssige konsekvenser. Men samtidig ønsker vi ikke at afvise den mere pragmatiske<br />

inddragelse, da de interviewede partnere tydeligt udtrykker en tilfredshed hermed –<br />

til trods for den akademisk funderede kritik af inddragelsen som værende ’pseudo’.<br />

Der er imidlertid to væsentlige svagheder ved den måde, som Danida praktiserer<br />

inddragelse af partnerne på i dag. Først og fremmest opererer Danida med et sæt<br />

foruddefinerede præmisser, som gør det vanskeligt for ikke-kompetente partnere at<br />

deltage. Vi foreslår derfor, at Danida slækker på de skrappe formkrav i forbindelse<br />

med design, udførelse og opfølgning af reviews og evalueringer, sådan at alle<br />

partnerorganisationer ligestilles. En anden svaghed er, at Danida i kraft af<br />

uafhængigheds- og objektivitetskriteriet lægger op til distance mellem konsulenter og<br />

evaluerede aktører med det resultat, at sidstnævnte ofte føler sig behandlet som<br />

”legoklodser” (PO). Som alternativ til denne distance viderebringer vi her et forslag<br />

stillet af en af de interviewede konsulenter om at lade repræsentanter fra<br />

partnerorganisationerne deltage på review- eller evalueringsholdet:<br />

Jeg har lavet en review (…) og der havde vi nogen med fra organisationen, og<br />

det var virkelig en eye-opener for dem, det kan jeg godt love dig. (…) Det er<br />

spørgsmålet om, hvem der ejer de her projekter – det gør… det gør jo… det gør<br />

jo samarbejdspartneren, ikke? Det er deres projekter. (KS)<br />

Vi anbefaler altså Danida at opprioritere inddragelse af de evaluerede aktører i<br />

forbindelse med både reviews og evalueringer, sådan at også de mindre kompetente<br />

partnere har mulighed for medindflydelse, og samtidig advarer vi mod at forveksle<br />

participatorisk læring med mere pragmatiske inddragelsesformer.<br />

177


13.4. Imødegå utrygheden<br />

Vi har nu argumenteret for en højere grad af adskillelse af kontrol og læring samt<br />

anbefalet Danida at anvende participatoriske metoder i så vidt omfang som muligt.<br />

Begge disse tiltag har til formål dels at styrke nytteværdien af reviews og evalue-<br />

ringer og dels at imødegå partnernes utryghed. Partnernes utryghed udgør nemlig et<br />

væsentligt problem i forhold til at realisere både kontroldiskursens ideal om indsam-<br />

ling af objektiv, troværdig information og den participatoriske læringsdiskurs’ forud-<br />

sætning om tillid og åbenhed. Et tredje vigtigt tiltag, som kan understøtte partnernes<br />

tryghed, er at sende klarere signaler om konsulenternes rolle.<br />

Som vi redegjorde for i kapitel 10, opfatter partnerne i udgangspunktet konsulenterne<br />

som værende på Danidas side i en konflikt mellem donor og modtager om bistands-<br />

midler. Denne opfattelse hviler på flere forskellige forhold: Først og fremmest kan<br />

man diskutere, om konsulenterne reelt er så uafhængige af Danida, som både de selv<br />

og Danida gerne vil give indtryk af, og dernæst har partnerne vanskeligt ved at<br />

adskille ambassademedarbejderne og konsulenterne. Disse to forhold vil vi behandle<br />

i det følgende.<br />

13.4.1. Reel uafhængighed?<br />

Konsulenternes økonomiske og vidensmæssige afhængighed af Danida er et vilkår,<br />

som vi ikke vurderer, kan undgås fuldstændigt. Men særligt den vidensmæssige<br />

afhængighed bør Danida kunne minimere ved enten at hyre eksterne konsulenter eller<br />

anvende interne konsulenter, som har et forhåndskendskab til mediebistands-<br />

projekterne og dermed en reel mulighed for at tilrettelægge feltstudieprogrammer og<br />

på andre måder agere uafhængigt af ambassaden.<br />

Og der er mange, der ser på en som en slags… der ikke ser på én som noget,<br />

der er objektivt. ’Nåh, men nu kommer der et dansk evalueringshold, og de er<br />

slet ikke ansat i Udenrigsministeriet’ – det tænker de jo ikke. (…) Og det er<br />

svært at skille… for dem er det svært at skille kasketterne ad, og… og… Det<br />

er ambassaden, der har ringet og aftalt interviewet. Jamen altså, hvordan… De<br />

tænker ikke, at vi er uvildige eller objektive eller noget som helst. ’Der<br />

kommer bare to mere, og de skal have den sædvanlige tale, hvad vi plejer at<br />

sige, ikke? Og det kan jo være, at de går hjem og siger, at vi har brug for noget<br />

mere, så må vi hellere i hvert fald sørge for at få fortalt dem, hvad det er vi har<br />

brug for, ikke?’ (griner)… i stedet for, hvordan det virker, det de har fundet ud<br />

af ind til nu, og hvad de har gang i, og hvad de ellers laver. (KS)<br />

Ifølge denne citerede konsulent ville en tydeligere adskillelse af ambassaden og<br />

konsulenterne bidrage til at øge de evaluerede aktørers opfattelse af konsulenterne<br />

som uafhængige og tillidsvækkende.<br />

13.4.2. Nationalitet<br />

Et andet forhold, som gør det vanskeligt for partnerne at skelne mellem konsulent-<br />

hold og ambassademedarbejdere er, at de ofte har samme nationalitet. I dette citat<br />

178


giver en repræsentant fra en dansk partnerorganisation sin vurdering af, hvordan<br />

evaluerings- og reviewholdene ser ud med de lokale partneres briller:<br />

… det er sådan, at det er folk, der kommer udefra (P2) og så generelt jo altså<br />

kommer sådan dumpende lidt ned fra himlen med lidt kort tid øh… ikke rigtigt<br />

i konteksten, og det er svært for de lokale helt at forstå, hvor de er henne i<br />

konteksten, men åbenbart med sådan en stor magt over deres fremtidige<br />

støttemuligheder. Og hvad er deres rolle i forhold til de andre danskere, de har<br />

at gøre med? Altså, det er… Hvor de jo så nogle gange oplever, at danskerne,<br />

som de har med at gøre, siger to forskellige ting, ikke også, og har to<br />

forskellige dagsordener. Og det tror jeg, kan være lidt svært for dem nogle<br />

gange at holde styr på. (PO)<br />

En konsulent underbygger her den citerede partners påstand om sammenhængen<br />

mellem konsulenternes nationalitet og partnernes utryghed:<br />

De [evaluerede aktører] opfatter os nok som øh… som meget sådan knyttet op<br />

på donoren, kan man sige. Mere end som uafhængige, frit svævende<br />

konsulenter, der kommer ned for at undersøge det her. Det er nogle af de ting,<br />

vi forsøger at forklare folk, når vi interviewer dem: at vi er uafhængige. Men<br />

det er helt klart, at i og med at du har den samme nationalitet… altså som<br />

dansker så bliver du meget ofte ligesom sat i samme båd som ambassaden og<br />

donoren, når du er ude og interviewe. (KS)<br />

Vi ved, at både OECD/DAC og Danida nærer et ønske om at anvende lokale<br />

konsulenter. På baggrund af de eksempler herpå, som vi har kendskab til, kan vi kun<br />

anbefale donorerne at styrke indsatsen for at anvende og uddanne lokale evaluerings-<br />

kyndige. En lokal konsulent har denne vurdering af de evaluerede aktørers syn på<br />

vedkommende:<br />

I was seen as a colleague (…).They saw me as a facilitator and it helped that I<br />

wasn’t from the donor world. (KS)<br />

Denne konsulent foretog reviewet i samarbejde med den mediefaglige medarbejder i<br />

Danidas BFT, som i nedenstående uddrag forklarer, at de to reviewere bevidst<br />

spillede på deres forskellige roller som henholdsvis hvid donorrepræsentant og<br />

afrikansk konsulent:<br />

[[Den anden konsulent]] øh, er øh, fra [[et afrikansk land]] og kender dem, og<br />

er sort. Øh, vi havde et rigtig godt samarbejde, for der var helt klart ting, som<br />

hun kunne sige til dem, som jeg ikke kan sige, uden at blive misforstået.<br />

Selvom budskabet er nøjagtig det samme, og vi siger stort set det samme. Og<br />

hun siger det oven i købet grovere, men hun kan sige det, og det bliver<br />

modtaget, fordi hun er sort, og hun er en af dem. Det er helt klart, at der er<br />

forskel. (…) I den forsamling var jeg det eneste blegansigt, der sad der. Og så<br />

kommer jeg oven i købet fra donorerne med pengene. Så der har du virkelig<br />

sådan nogen stigmaer oven på hinanden, og derfor kunne jeg ikke sidde og sige<br />

de ting. Men til gengæld, da jeg sagde alle de der pæne ting i debriefingen,<br />

hvor dygtige, jeg syntes de var, og hvor fantastiske, jeg syntes de var, da tror<br />

jeg, det betyder mere, at det er mig, der siger det, end at det er hende, der siger<br />

det. (<strong>OG</strong>)<br />

Reviewholdet benyttede således bevidst partnerorganisationens følelse af alliance<br />

med den ene konsulent som en genvej til at få dem til at acceptere negativ kritik, og<br />

179


deres nervøsitet overfor donor til at give større vægt til den positive kritik. Reviewet<br />

af MISA fra 2004 er et eksempel på, at anvendelse af lokale konsulenter ikke blot<br />

øger partnernes tryghed i forbindelse med udførelse af reviews og evalueringer, men<br />

også øger sandsynligheden for en mere konstruktiv opfølgning og accept af kritik.<br />

13.5. En styrket opfølgningspraksis<br />

I det foregående kapitel behandlede vi de forhold, som påvirker Danidas motivation<br />

for at drage konsekvenser af evalueringer og reviews, og vi konkluderede i den<br />

forbindelse, at rotationsordningen udgør en vigtig barriere for realiseringen af Danida<br />

som en lærende organisation. Et af problemerne ved rotationsordningen er, at de for<br />

opfølgningen ansvarlige medarbejdere sjældent føler ejerskab for rapporternes<br />

konklusioner. Vi vurderer, at Danidas opfølgningspraksis kunne styrkes, hvis de<br />

personer, som står for udførelsen af reviews og evalueringer, er de samme, som har<br />

ansvar for opfølgningen.<br />

Der er to måder at sørge for et sådan personsammenfald på: Enten kan man fra<br />

Danidas side vælge at betale de eksterne konsulenter for at sikre en tilfredsstillende<br />

overdragelse til de ansvarlige personer i Danida og partnerorganisationerne. En sådan<br />

løsning ville være dyrere for Danida men til gengæld styrke såvel evalueringers og<br />

reviews’ nytteværdi som konsulenternes arbejdsglæde, jævnfør disses frustration over<br />

at måtte afbryde engagementet i projekterne efter endt afrapportering. En anden<br />

mulighed er i højere grad at lade Danidaansatte deltage på evaluerings- og review-<br />

holdene. Ifølge kontroldiskursens forskrifter er ulemperne ved brug af interne<br />

konsulenter, at de evaluerede aktørers utryghed forstærkes, at risikoen for bias og<br />

subjektivitet øges, samt at resultaternes troværdighed derved svækkes.<br />

Den foregående analyse peger imidlertid på, at de evaluerede aktørers syn på<br />

konsulenterne ikke vil ændre sig afgørende, alt efter om disse er til dagligt er ansat<br />

ved donoragenturet eller ej, idet de alligevel betragter evaluerings- og reviewholdene<br />

som en forlængelse af donoren. I relation til partnernes tryghed kunne anvendelsen af<br />

interne konsulenter måske ligefrem vendes til en fordel, da man herved ville sende<br />

klarere signaler om konsulenternes tilhørsforhold og derved undgå den forvirring,<br />

som er beskrevet i kapitel 10. Analysen viser desuden, at uafhængighed ikke<br />

nødvendigvis garanterer objektivitet og kritik. En af erfaringerne fra den generelle<br />

medieevaluering er således, at den uvidenhed, som udspringer af konsulenternes<br />

uafhængighed, udgør en barriere for fremsættelse af kritiske konklusioner.<br />

Opsummeringen er, at det eneste, Danida for alvor ville sætte på spil, er den<br />

symbolske effekt i forhold omverdenen af at blive evalueret af eksterne, uafhængige<br />

konsulenter. Dette skal opvejes i forhold til fordelene ved at sikre en styrket<br />

opfølgning og organisatorisk læring.<br />

180


13.6. Opsummering<br />

Vi har nu præsenteret en række anbefalinger til styrkelse af fremtidige evalueringer<br />

og reviews af Danidas mediebistandsaktiviteter. Anbefalingerne kan opsummeres i<br />

disse hovedpunkter:<br />

En mere nuanceret forståelse og en højere grad af adskillelse af de to formål<br />

læring og kontrol.<br />

Udvikling af et indikatorværktøj til vurdering af mediebistandens effekter på et<br />

outcome-niveau samt gennemførelse af fokuserede outcome-studier.<br />

Skelnen mellem participatorisk læring og mere pragmatiske inddragelsesformer,<br />

sådan at partnerne ikke foregøgles en indflydelse, som ikke er reel.<br />

Tilrettelægge af evaluerings- og reviewprocesser på en måde, så også mindre<br />

kompetente partnere har mulighed for at få indflydelse.<br />

Imødegåelse af partnernes utryghed ved dels at sikre at konsulenterne kan agere<br />

uafhængigt af ambassaden og ved dels at anvende lokale konsulenter, som de<br />

evaluerede aktører føler en større grad af tillid til.<br />

Styrket opfølgningspraksis, særligt hvad angår Danidas interne, organisatoriske<br />

læring.<br />

181


14. Konklusion<br />

Evalueringer er knudepunkter for forhandlinger om relationer og identiteter. Ved at<br />

stille et bestemt sprog, en videnshorisont og en række subjektpositioner til rådighed,<br />

bidrager evaluering til at forme den måde, vi forstår hinanden, os selv og evaluerin-<br />

gens genstand på. I Danida – som i de fleste andre evaluerende organisationer –<br />

udspiller forhandlingerne sig særligt omkring de to formål kontrol og læring.<br />

Ved at vælge evaluering af dansk mediebistand som analyseobjekt har vi fået et<br />

indblik i, at de involverede aktørers oplevelse af evalueringers kontrol- og lærings-<br />

formål i høj grad afhænger af de positioner og interesser, aktørerne har i en evalue-<br />

ringsproces. Hvor opdragsgiveren, Danida, betragter kontrol som en demokratisk<br />

legitim foranstaltning og læring som et fælles, konsensusbaseret projekt, oplever<br />

konsulenter og de evaluerede aktører, Danidas partnere, kontrol som en utryg inspek-<br />

tionsproces og læringsformålet som en anledning til at erhverve sig medbestemmelse<br />

og bryde opdragsgiverens dominans.<br />

Det enkelte evalueringsforløb er som følge heraf at betragte som en kompleks for-<br />

handlingsproces, hvor aktørerne søger at præge forløbet i overensstemmelse med<br />

deres specifikke interesser. I disse forhandlinger genetableres og udfordres aktørernes<br />

identiteter og indbyrdes relationer, og evaluering af dansk mediebistand bidrager til<br />

at understøtte en kompleks og paradoksal relation mellem Danida og organisationens<br />

partnere.<br />

I det følgende opsummeres specialets indhold, hvilket leder til en besvarelse af<br />

problemformuleringen. Kapitlet afsluttes med en perspektivering af specialets<br />

konklusioner.<br />

14.1. Resumé<br />

Kapitel 1 dannede rammen om en indledende argumentation for valg af evaluering af<br />

mediebistand som analyseobjekt samt en kort introduktion af begreberne evaluering<br />

og mediebistand.<br />

Herefter præsenterede vi i kapitel 2 Foucaults diskursbegreb som det teoretiske afsæt<br />

for analysen. Foucault skelner mellem diskursiv praktik og diskurs, hvor diskurs<br />

forstås som de historiske mulighedsbetingelser for produktionen af udsagn, hvilket i<br />

vores sammenhæng vil sige dominerende teoridannelser og praksisformer på felterne<br />

udviklingsbistand og evaluering. Diskursiv praktik defineres som den konkrete<br />

produktion af udsagn, altså det enkelte evalueringsforløb, der på samme tid påvirkes<br />

af og påvirker de evaluerings- og udviklingsteoretiske diskurser.<br />

182


Kapitel 3, 4 og 5 behandlede dominerende udviklings- og evalueringsteoretiske<br />

diskurser. På det udviklingsteoretiske felt skelnede vi i kapitel 3 mellem en<br />

moderniseringsdiskurs og en kritisk udviklingsdiskurs. Moderniseringsdiskursen<br />

opfatter udvikling som et lineært forløb, hvor donor repræsenterer den efterstræbel-<br />

sesværdige samfundsform og derfor har ret til at opstille mål for udviklingsindsatsen.<br />

Inden for den kritiske udviklingsdiskurs betragtes udvikling derimod som en<br />

forskelligartet og uforudsigelig proces, hvor modtageren selv definerer endemålet<br />

under støtte og vejledning fra donoren. Begge udviklingsdiskurser gør sig gældende<br />

inden for Danidas mediebistandspraksis i dag, hvilket kommer til udtryk gennem<br />

partnerskabsbegrebet, som i sig rummer et paradoks. Paradokset består i, at Danidas<br />

partnere på den ene side skal leve op til en række donordefinerede krav om<br />

eksempelvis demokratisering og respekt for menneskerettighederne, mens de<br />

samtidig forventes at formulere kravene selv. Hermed støder moderniserings-<br />

diskursens asymmetriske donor-modtagerrelation sammen med de idealer om<br />

symmetri og ligeværd, som foreskrives inden for den kritiske udviklingsdiskurs.<br />

I kapitel 4 præsenterede vi to dominerende evalueringsteoretiske diskurser –<br />

kontroldiskursen og den participatoriske læringsdiskurs. Inden for kontroldiskursen<br />

anses evaluering for at spille en vigtig demokratisk rolle i forhold til at holde<br />

offentlige institutioner ansvarlige overfor politikere og borgere, og i den forbindelse<br />

vægtes evalueringers objektivitet, uafhængighed og troværdighed højt. Modsat<br />

forstår den participatoriske læringsdiskurs evaluering som en ramme omkring<br />

deltagelsesdemokratisk udvikling og myndiggørelse. Vi introducerede endvidere en<br />

skelnen mellem konsensus- og konfliktbaseret læring, hvor førstnævnte lærings-<br />

forståelse placerer sig inden for kontroldiskursens forståelsesramme, mens sidst-<br />

nævnte spiller ind i en participatorisk læringsdiskurs. I kapitel 5 sammenlignede vi de<br />

udviklings- og evalueringsteoretiske diskurser og fandt at moderniserings- og<br />

kontroldiskurserne i vid udstrækning trækker på samme ontologiske og epistemo-<br />

logiske hammel, mens den kritiske udviklingsdiskurs og den participatoriske<br />

læringsdiskurs deler idealer om participation, magtkritik og myndiggørelse.<br />

De anvendte metoder blev præsenteret og diskuteret i kapitel 6, og herefter<br />

præsenterede vi analysens resultater i kapitlerne 7-13. Kapitel 7 rummede en<br />

redegørelse for de formelle strukturer omkring Danidas evalueringspraksis og gav en<br />

indledende præsentation af de tre praksisfællesskaber (Star & Griesemer 1989), som<br />

er involveret heri: Danida, Danidas partnere og de eksterne konsulenter. I kapitel 8<br />

præsenterede vi aktørernes forskellige forståelser af og interesser i de to evaluerings-<br />

formål læring og kontrol på baggrund af interviews med i alt 13 repræsentanter for de<br />

tre praksisfællesskaber. Ud fra en analyse af otte kommissorier og rapporter samt en<br />

fremstilling af seks evaluerings- og reviewforløb viste vi i kapitel 9, at alle rapporter<br />

indeholder elementer af læring og kontrol, og at de enkelte forløb opleves vidt<br />

forskelligt af de involverede aktører. Derved udfordrer empirien evalueringsteoriens<br />

183


skarpe skelnen mellem enten læring eller kontrol, og den understreger, at<br />

evalueringsforløb er resultater af forhandlinger. Disse forhandlinger har vi søgt at<br />

belyse i kapitlerne 10-12, som ud fra tre forskellige indgangsvinkler undersøger,<br />

hvordan konsulenternes, partnernes og Danidas identiteter genetableres og udvikles i<br />

evalueringsprocesserne. Kapitel 10 omhandlede den modsætningsfyldte konsulent-<br />

identitet som et symptom på den komplekse donor-modtagerrelation. Kapitel 11<br />

tematiserede den måde, hvorpå de anvendte evalueringskriterier og -metoder bidrager<br />

til at konstruere ’den gode mediebistandsindsats’, og i kapitel 12 fokuserede vi på<br />

partnernes og Danidas interaktion i opfølgningsfasen. Analysen afsluttedes i kapitel<br />

13 med en kort opridsning af anbefalinger til en styrkelse af fremtidens evaluering af<br />

mediebistand.<br />

14.2. Besvarelse af specialets problemformulering<br />

På denne baggrund ser vi os nu i stand til at besvare specialets problemformulering.<br />

Besvarelsen er inddelt i tre afsnit, som hver forholder sig til et af de tre spørgsmål,<br />

vores undersøgelse har været styret af.<br />

14.2.1. Læring og kontrol<br />

I lighed med mange andre offentlige institutioner evaluerer Danida med et dobbelt<br />

formål: læring og kontrol. Disse to begreber er i høj grad genstand for og årsag til<br />

forhandlinger mellem de tre praksisfællesskaber, som er involveret i evaluering af<br />

dansk mediebistand. I problemformuleringen stillede vi spørgsmålene: Hvordan<br />

forstår de involverede aktører begreberne læring og kontrol i forbindelse med<br />

evaluering? Og hvordan afspejles læring og kontrol i evalueringsrapporterne?<br />

De tre praksisfællesskabers forståelser af læring og kontrol er nært knyttet til deres<br />

interesser og udtrykker på en gang, hvilken rolle aktørerne mener, at læring og<br />

kontrol har og bør have i forbindelse med evaluering af dansk mediebistand.<br />

Danida trækker i sin forståelse af kontrol som en demokratisk legitim foranstaltning<br />

og læring som et konsensusbaseret projekt på den evalueringsteoretiske kontrol-<br />

diskurs og bidrager derved til at opretholde sin position som det af de tre praksis-<br />

fællesskaber med den stærkeste position i forbindelse med evaluering og review af<br />

mediebistand. Som donor kan Danida insistere på, at modtagerne af mediebistanden<br />

indvilger i at blive vurderet, og som opdragsgiver har Danida magt til definere formål<br />

og fokus for bedømmelsesaktiviteterne. Ved at hævde at der ikke er tale om<br />

dominans, men i stedet om konsensus og legitimitet, retfærdiggør Danida sin<br />

fordelagtige magtposition.<br />

Omvendt genetablerer Danidas partnere og de eksterne konsulenter i deres<br />

fortolkning af kontrol- og læringsbegreberne den participatoriske læringsdiskurs og<br />

den kritiske udviklingsdiskurs. Partnernes økonomiske afhængighed af Danida og det<br />

184


forhold, at mediebistanden typisk bevilges i få år ad gangen, betyder, at de<br />

evaluerede aktører i udgangspunktet oplever evalueringsprocessen som utryg – en<br />

utryghed, der forstærkes af, at de opfatter konsulenterne som Danidas forlængede<br />

arm og ikke som uafhængige aktører. Som reaktion herpå søger partnerne at få en så<br />

høj grad af medindflydelse på evalueringsresultaterne som muligt, enten ved at<br />

insistere på inddragelse og myndiggørelse eller ved at præsentere konsulentholdet for<br />

det udsnit af virkeligheden, de finder mest opportunt. Lykkes det ikke for partnerne at<br />

få den grad af indflydelse, de ønsker, udmønter det sig dels i vrede mod konsulen-<br />

terne og dels i en afvisning af resultaterne. Under henvisning til at sikre evalueringers<br />

nytteværdi bakker konsulenterne derfor op om partnernes krav om at udføre evalue-<br />

ringer og reviews ud fra en participatorisk læringsmodel. Partnerne og konsulenterne<br />

giver i lighed med evalueringsteorien udtryk for, at kontrol og participatorisk læring<br />

ikke kan forenes i en og samme evalueringsproces.<br />

Imidlertid viste fremstillingen af seks evaluerings- og reviewforløb samt dokument-<br />

analysen, at de enkelte bedømmelsesaktiviteter ikke kan karakteriseres som værende<br />

udført efter enten en kontrolmodel eller en participatorisk læringsmodel. Alle analy-<br />

serede evaluerings- og reviewforløb rummer elementer af begge dele og opleves<br />

forskelligt af de involverede aktører. Dermed udfordrer empirien dels evaluerings-<br />

teorien og dels konsulenters og partneres påstand om, at kontrol og læring per<br />

definition er i uoverensstemmelse med hinanden. Men sammenkoblingen af de to<br />

evalueringsformål fungerer imidlertid heller ikke så gnidningsfrit, som Danidas<br />

uproblematiserende fremstilling af læring og kontrol giver indtryk af. Ved på skift at<br />

trække på de forskellige udviklings- og evalueringsteoretiske diskurser, bidrager<br />

forhandlingerne mellem de tre praksisfællesskaber til at understøtte den komplekse<br />

relation mellem Danida og Danidas partnere på mediebistandsfeltet. Det uddyber vi i<br />

det følgende.<br />

14.2.2. Samspillet mellem diskurs og diskursiv praktik<br />

Vi har nu taget hul på besvarelsen af problemformuleringens overordnede spørgsmål<br />

om, hvordan samspillet mellem dominerende evaluerings- og udviklingsteoretiske<br />

diskurser og Danidas evalueringspraksis foregår. Dette samspil har vi søgt at belyse<br />

ved på den ene side at fokusere på diskursernes indvirkning på den diskursive praktik<br />

gennem en undersøgelse af, hvilke handlingsmuligheder og videnshorisonter, diskur-<br />

serne stiller til rådighed for Danidas partnere, de eksterne konsulenter og Danida som<br />

opdragsgiver. På den anden side stillede vi spørgsmålet om, hvordan evaluerings-<br />

processerne påvirker relationen mellem donor og modtager for derigennem at få ind-<br />

blik i den diskursive praktiks påvirkning af de overordnede rammer for mediebistand.<br />

Mediebistand er i lighed med de øvrige indsatsområder indenfor Danidas støtte til<br />

menneskerettigheder og demokrati kendetegnet ved et komplekst forhold mellem<br />

185


donor og modtager. På den ene side stiller Danida politiske krav og intervenerer<br />

dermed i den lokale samfundsudvikling, på den anden side udtrykker man med<br />

idealer om partnerskab og inddragelse at understøtte lokalt forankrede udviklings-<br />

processer. Ønsker et projekt at modtage dansk mediebistand skal organisationen<br />

derfor erklære sig enig i Danidas målsætninger og prioriteringer. Konsensus – eller<br />

foregivelse af konsensus – er en forudsætning for opretholdelse af partnerskabet.<br />

Dette fænomen kalder vi partnerskabets paradoks.<br />

Partnerskabets paradoks afspejles og understøttes dels i Danidas forståelse af legitim<br />

kontrol og konsensusbaseret læring, og i dels forhandlingerne mellem de tre praksis-<br />

fællesskaber i forbindelse med design, udførelse og konsekvensdragelse af evalue-<br />

ring.<br />

Danida udtrykker ønsker om at inddrage partnerne i designfasen men opstiller<br />

samtidig en række formkrav til eksempelvis udvælgelse af konsulenter og udarbej-<br />

delse af kommissorier. Konsekvensen heraf er, at kun partnerorganisationer, som<br />

formår og er villige til at indgå på Danidas præmisser har mulighed for at øve<br />

indflydelse på evalueringsdesignet.<br />

I forbindelse med udførelsen af evalueringer og reviews er konsulenternes modsæt-<br />

ningsfyldte rolle et symptom på den komplekse donor-modtagerrelation. Konsulente-<br />

rne er splittede mellem på den ene side en moralsk og holdningsmæssig tilskyndelse<br />

til at agere modtagerens advokat og på den anden side en økonomisk og videns-<br />

mæssig afhængighed af Danida. Denne splittelse søger konsulenterne at håndtere ved<br />

at opretholde en uafhængig identitet, som dels kommer til udtryk i rapporterne og<br />

dels i de interviewede konsulenters selvforståelse. At Danida og konsulenterne opret-<br />

holder forståelsen af konsulenten som uafhængig, trods den samtidige erkendelse af<br />

konsulentidentiteten som konfliktfyldt, har konsekvenser for forhandlingerne mellem<br />

donor og modtager. Ved at hævde at konsulenternes vurderinger repræsenterer en<br />

objektiv virkelighed, forhindrer Danida, at interessemodsætningerne mellem donor<br />

og modtager i at komme op til overfladen i evaluerings- og reviewsituationen. Der-<br />

ved skabes et billede af konsensus mellem Danida og Danidas partnere, som er en<br />

forudsætning for opretholdelsen af partnerskabstanken.<br />

Også i forhandlingerne mellem Danida og Danidas partnere i forbindelse med opfølg-<br />

ning på evalueringsresultater genskabes partnerskabets paradoks. I tilfælde hvor part-<br />

nerne ikke umiddelbart kan tilslutte sig konklusionerne og anbefalingerne, må de alli-<br />

gevel foregive at gøre dette for fortsat at gøre sig fortjent til danske bistandskroner.<br />

De må med andre ord bekende sig til donorens værdier for at opretholde partner-<br />

skabet, og sker dette ikke, har Danida muligheden for at presse de evaluerede aktører<br />

hertil ved at true med at lukke bevillingen. Omvendt har partnerne ingen mulighed<br />

186


for at gennemtvinge ændringer i Danidas adfærd, og hermed understreges den para-<br />

doksale partnerrelation, hvor den ene partner understøtter den anden partners<br />

udvikling, men selv forbliver uændret i processen.<br />

Vi har hermed argumenteret for, at Danidas evalueringspraksis på flere måder bidra-<br />

ger til at genforhandle identiteter og relationer på langt mere komplekse måder, end<br />

man kunne forvente ud fra på den ene side Danidas positive forståelser af læring og<br />

kontrol og på den anden side partnernes og konsulenternes negativt ladede, magt-<br />

kritiske fortolkninger af de to formål.<br />

14.2.3. Fremtidens mediebistandsevaluering<br />

Problemformuleringens tredje spørgsmål fokuserer på, hvordan fremtidens evalue-<br />

ring af dansk mediebistand kan styrkes – herunder hvilke barrierer, der karakteriserer<br />

den aktuelle praksis. Dette spørgsmål har vi søgt at besvare ved at belyse de proble-<br />

mer, som er forbundet med den måde, hvorpå evalueringerne bidrager til at konstru-<br />

ere ’den gode mediebistandsindsats’, ’den gode partnerorganisation’ og den rolle-<br />

fordeling, der knytter sig til mediebistanden. Desuden har vi givet et bud på de udfor-<br />

dringer, som er forbundet med at udvikle og operationalisere andre og mere velegne-<br />

de evalueringsmetoder.<br />

Danida opererer med fem evalueringskriterier, der har til formål at vurdere medie-<br />

bistandens effekter ud fra et kortsigtet implementeringsperspektiv (output), et<br />

mellemlangt målgruppeperspektiv (outcome) samt ud fra et langsigtet samfunds-<br />

mæssigt synspunkt (impact). I praksis har konsulentholdene imidlertid vanskeligt ved<br />

at operationalisere outcome- og impactkriterierne. Dette skyldes for det første fravæ-<br />

ret af et indikatorværktøj, for det andet tidsmangel i forbindelse med feltstudier og<br />

for det tredje urealistiske kommissorier, som forhindrer konsulenterne i at fokusere<br />

deres undersøgelser. Resultatet er, at mediebistandsprojekter fortrinsvis vurderes ud<br />

fra deres evne til at levere de aftalte outputs samt i henhold til, hvorvidt deres mål-<br />

sætninger stemmer overens med Danidas forventninger og prioriteringer. Derved<br />

bidrager evalueringer til at definere ’den gode mediebistandsindsats’ som en velfun-<br />

gerende organisation, der overholder de indgåede aftaler, og som Danida kan legiti-<br />

mere at støtte.<br />

Ved at vurdere mediebistand på et outputniveau og ud fra donorens værdier genetab-<br />

lerer evalueringer og reviews den udviklingsteoretiske moderniseringsdiskurs, idet<br />

konsulenterne tager afsæt i foruddefinerede mål i forhold til hvilke, de bedømmer<br />

graden af udvikling. Modsat tager outcome- og impactkriterier højde for målgruppens<br />

vurdering og modtagersamfundets behov, hvorved de i højere grad ser på typen af<br />

187


udvikling i overensstemmelse med forskrifterne inden for den kritiske udviklings-<br />

diskurs.<br />

Partnerorganisationerne tager i nogen grad den nye identitet på sig og søger at leve<br />

op til Danidas evalueringskriterier. Dette fænomen kaldes indikatorfiksering og er et<br />

udtryk for, at de evaluerede aktører internaliserer Danidas kontrol. Vi argumenterer<br />

for en styrkelse af evalueringernes fokus på mellemlange og langsigtede effekter af<br />

mediebistanden, sådan at ’den gode mediebistandsindsats’ i højere grad defineres<br />

som en indsats, der gør en forskel i forhold til målgruppen og samfundet. Dette<br />

mener vi kan opnås ved at investere ressourcer i udvikling af et indikatorværktøj og<br />

gennemførelse af løbende, fokuserede outcomestudier.<br />

Af øvrige anbefalinger til Danida foreslår vi en mere nuanceret forståelse og en<br />

højere grad af adskillelse af de to formål læring og kontrol. I forlængelse heraf finder<br />

vi det væsentligt for resultaternes troværdighed og processens nytteværdi at søge at<br />

imødegå partnernes utryghed ved dels at sende klarere signaler om konsulenternes<br />

rolle og tilknytning til Danida, dels ved kun at gennemføre kontrol, når dette tjener<br />

andet end et reelt og ikke blot et symbolsk formål. Desuden anbefaler vi at tilrette-<br />

lægge evalueringsprocessen på en måde, så også mindre kompetente partnere har<br />

mulighed for at få indflydelse, og endelig ser vi et behov for en styrket opfølgnings-<br />

praksis, særligt hvad angår Danidas interne, organisatoriske læring.<br />

14.3. Perspektivering<br />

I takt med at et stigende antal områder i den danske offentlige sektor gøres til<br />

genstand for evaluering, påvirkes flere og flere menneskers arbejdsliv og identitet af<br />

de bedømmelsesprocesser, de deltager i. Den overordnede motivation bag dette<br />

speciale er at belyse de magtrelationer, som former og formes af evaluering. I<br />

specialets indledning blev problematikken sat på spidsen med spørgsmålet om,<br />

hvilket samfund evaluering i grunden er med til at skabe?<br />

Mediebistand er et særdeles vanskeligt område at evaluere. Indsatsens effekter er<br />

usikre, har en lang tidshorisont og lader sig desuden ikke isolere fra det kompleks af<br />

faktorer, der spiller ind på udviklingen af demokrati og menneskerettigheder. Det<br />

afspejler sig i de analyserede evaluerings- og reviewrapporter, som enten slet ikke<br />

eller på en undvigende facon besvarer Danidas målsætning om at vurdere medie-<br />

bistandens langsigtede virkninger. Trods de tvivlsomme erfaringer fastholder Danida<br />

dog sin målsætning. En vigtig motivation bag evaluering af mediebistand er således<br />

et bredt formuleret ønske om at blive bedre til at forstå og agere i forhold til de udfor-<br />

dringer, Danida står overfor, snarere end en konkret ide om, hvordan målingerne skal<br />

foretages og omsættes i praksis.<br />

188


Dette peger på, at evalueringsbølgens fremmarch i nogen grad kan tilskrives, at<br />

evaluering er et idealistisk projekt – et forsøg på at gøre det uoverskuelige over-<br />

skueligt, at tillægge erfaringer mening.<br />

Bag dette projekt befinder sig de evaluerede aktører, der oplever evalueringer som<br />

utrygge begivenheder, hvor deres identitet og fremtidsperspektiver sættes på spil.<br />

Imidlertid har deres mere negative forståelse af evaluering vanskeligt ved at trænge<br />

igennem den aura af positive termer som læring, inddragelse og ansvarliggørelse, der<br />

kendetegner den officielle evalueringsdebat. En debat, som sjældent levner rum for<br />

spørgsmål om, hvorvidt evalueringer er rimelige, hvilke magtrelationer evalueringer<br />

medfører, og hvilken virkelighed, de bidrager til at konstruere.<br />

Derfor har de evaluerede aktører ofte kun én mulighed for at reagere mod utryg-<br />

heden: At indgå på de dominerende evalueringsdiskursers vilkår ved eksempelvis at<br />

tilkæmpe sig en så høj grad af inddragelse som muligt ud fra argumenter om selv-<br />

refleksion og læring eller ved at fremstille sig selv i et positivt lys. Evnen til at begå<br />

sig på evalueringers præmisser er således et vigtigt aktiv for alle organisationer og<br />

individer, som gøres til genstand for evaluering – fra kontanthjælpsmodtagere over<br />

skoleelever til lokalradioprojekter i Bangladesh.<br />

Specialet illustrerer, at den magt, som udøves gennem evaluering, er langt mere<br />

kompleks end spørgsmålet om en overordnet myndigheds kontrol af en underordnet.<br />

Kontroldimensionen internaliseres, hvorved evalueringernes kriterier bidrager til at<br />

forme identiteter og relationer. Det er altså ikke ligegyldigt, hvilke kriterier og<br />

metoder, evaluerede aktiviteter vurderes på baggrund af. Netop derfor er det vigtigt,<br />

at Danida, i lighed med andre opdragsgiverinstitutioner, bestræber sig på at nuancere<br />

sin opfattelse af, hvad evaluering gør ved mediebistand og andre evaluerede indsatser<br />

– også selvom denne opfattelse udfordrer de positive og idealistiske diskurser, som<br />

omgiver evalueringspraksis i dag.<br />

189


Litteratur<br />

Alasuutari, Perrti (1995): Researching Culture. Qualitative method and cultural studies.<br />

Vastapaino, Tampere.<br />

Albæk, Erik (2001): “Hvorfor nu al den evaluering?” in Dahler-Larsen & Krogstrup (red.):<br />

Tendenser i evaluering, Syddansk Universitetsforlag, s. 32-45.<br />

Alkin, Marvin C. (1990): Debates on Evaluation, Sage Publications, London.<br />

Alvesson & Sköldberg (1994): Tolkning och reflektion. Vetenskapsfilosofi och kvalitativ<br />

metod, Studenlitteratur, Lund.<br />

AMI/Andersen Management International (2003): “Undersøgelse af evalueringsholdenes<br />

uafhængighed”. In: Udredning af Danidas evalueringsfunktion. Udenrigsministeriet,<br />

Danida: Januar 2003.<br />

Argyris, Chris (1995): On Organizational Learning, 5. udgave (1. udg.: 1992), Blackwell<br />

Publishers.<br />

Beck, U., Giddens, A. & Lash, S. (1994): Reflexive Modernization, Polity Press, London.<br />

Berger, Guy (1991): It's the training that did it. A primer for media trainers to assess their<br />

impact, downloadet fra<br />

http://journ.ru.ac.za/staff/guy/Research/Journalism%20education/trainimpact.htm d. 16.<br />

februar 2005.<br />

Bickman, Leonard (1997): “Evaluating Evaluation: Where Do We Go From Here?” in:<br />

Evaluation Practice, 18(1), 1997, s. 1-16.<br />

Binnendijk, Annette (2001): Results Based Management in the Development Co-operation<br />

Agencies: A Review of Experience. Executive Summary. OECD, DAC Working Party on<br />

Aid Evaluation, November 2001.<br />

Bowker, Geoffrey & Star, Susan Leigh (1999): Sorting Things Out – Classification and Its<br />

Consequences (kapitel 9: The Theory and Practice of Classifications). Cambridge: MIT<br />

Press, s. 283-317<br />

Brett, E.A. (2000): ”Development theory in a post-socialist era: competing capitalisms and<br />

emancipatory alternatives” in Journal of International Development. - 12, no. 6, s. 189-<br />

202<br />

Breum, Martin (1997): ”Diskussionsoplæg – modtagerlandenes erfaringer”. IN: Støtte til<br />

fremme af en fri presse i udviklingslandene. Seminar om erfaringer og perspektiver.<br />

Udenrigsministeriet, Danida: Maj 1997.<br />

Brice, Rønning & Stokke (2004): Looking for Trouble. An Evaluation of International Media<br />

Support (IMS): Exploring a model for rapid response to threatened media. Chr.<br />

Michelsen Institute, Bergen 2004.<br />

http://www.cmi.no/publications/publication.cfm?pubid=1795<br />

Chambers (1983): Rural Development. Putting the Last First. Pearson Education Limited,<br />

Essex.<br />

Chambers (1993): Challenging the Professions. Frontiers for rural development. Intermediate<br />

Technology Publications. London.<br />

190


Chambers (1997): “Responsible Well-Being – A Personal Agenda for Development”. IN:<br />

World Development, vol. 25, No. 11, pp. 1743-1754. Elsevier Science Ltd. Great Britain.<br />

Christensen, Allan (1997): “Den organisatoriske lærings dynamik – diskussion af betydende<br />

teoretiske elementer” in: Christensen (red.): Den lærende organisations begreber og<br />

praksis, Aalborg Universitetsforlag, 1998 (2. oplag), s. 11-36.<br />

Chelimsky, Eleanor (1995): “Evaluation for at New Century: A Global Perspective. The<br />

Political Environment of Evaluation and What It Means for the Development of the<br />

Field” in: Evaluation Practice, 16(3), 1995, s. 215-225.<br />

Chen, Huey-tsyh (1996): “Epilogue: Synthesizing Formative/Summative Evaluation Issues<br />

and Beyond” in: Evaluation Practice, 17(2), 1996, s. 163-167.<br />

Dabelstein, Niels (1998): ”Danidas evalueringspolitik og -praksis” in: Den Ny Verden:<br />

Evaluering af Udvikling, april 1998, Center for Udviklingsforskning, København, s. 154-<br />

166<br />

Dahler-Larsen, Peter (1998A): Den Rituelle Reflektion – om evaluering i organisationer.<br />

Odense Universitetsforlag, 1998.<br />

Dahler-Larsen, Peter (1998B): ”Evaluering, legitimitet og inkonsekvens” i Den Ny Verden:<br />

Evaluering af Udvikling, april 1998, Center for Udviklingsforskning, København, s. 57-<br />

75.<br />

Dahler-Larsen, Peter & Krogstrup, Hanne-Kathrine (2001): ”Tendenser i evaluering – en<br />

introduktion” in Dahler-Larsen & Krogstrup (red.): Tendenser i evaluering, Syddansk<br />

Universitetsforlag, 2001, s. 13-20.<br />

Dahler-Larsen, Peter (2004): Evaluering og magt. Magtudredningen, Aarhus Universitet.<br />

Danida (1993): Menneskerettigheder og demokrati i dansk udviklingspolitik. Perspektiver for<br />

udviklingssamarbejdet, Udenrigsministeriet, 1993.<br />

Danida (1994A): En verden i udvikling. Strategi for dansk udviklingspolitik frem mod år<br />

2000. Udenrigsministeriet, marts 1994<br />

Danida (1994B): Menneskerettigheder og demokratisering i udviklingslandene. Seminar om<br />

erfaringer og perspektiver i dansk bistand. Udenrigsministeriet, juni 1994.<br />

Danida (1994C): Policypapir vedrørende støtte til fremme af en fri presse i udviklingslandene.<br />

Udenrigsministeriet, juli 1994.<br />

Danida (1995): Retningslinjer for private danske organisationer om støtte til<br />

udviklingsprojekter, Udenrigsministeriet, 1995<br />

Danida (1997): Støtte til fremme af en fri presse i udviklingslandene. Seminar om erfaringer<br />

og perspektiver. Udenrigsministeriet, maj 1997.<br />

Danida (1999): Evaluation Guidelines, Udenrigsministeriet, februar 1999<br />

Danida (2000A): Evaluation of Danish Support to Promotion of Human Rights and<br />

Democratisation 1990-1998, volume 4: Media. Udenrigsministeriet, januar 2000.<br />

Danida (2000B): Partnerskab 2000. Danmarks udviklingspolitik. Analyse.<br />

Udenrigsministeriet, Danida, Oktober 2000.<br />

191


Danida (2003A): Udredning af Danidas evalueringsfunktion. Udenrigsministeriet, januar<br />

2003.<br />

Danida (2003B): Guidelines for Project Management, Udenrigsministeriet, november 2003.<br />

Danida (2003C): Evaluation. Danish Regional Assistance to Southern Africa.<br />

Udenrigsministeriet, Danida, februar 2003<br />

Danida (2004A): Danidas årsberetning 2003. Udenrigsministeriet 2004.<br />

Danida (2004B): Sikkerhed, vækst – udvikling. Regeringens prioriteter for dansk<br />

udviklingsbistand 2005-2009. Udenrigsministeriet, August 2004.<br />

Dansk Evaluerings Selskab (2004): Evalueringsterminologi Engelsk-Dansk. Dansk<br />

Evaluerings Selskab.<br />

Davies, Charlotte Aull (1999): Reflexive Ethnography. A guide to researching selves and<br />

others, Routledge, New York, s. 3-25<br />

Degnbol-Martinussen (1994): Samfund, stat og marked: En kritisk gennemgang af teorier om<br />

udvikling i den tredje verden. Mellemfolkeligt samvirke.<br />

Degnbol-Martinussen og Engberg-Pedersen (1999): Bistand – udvikling eller afvikling,<br />

Mellemfolkeligt Samvirke.<br />

Degnbol-Martinussen (2002): Globalisering og udvikling: Teorier og perspektiver for ulandene.<br />

Mellemfolkeligt Samvirke,<br />

Dollar, David & Kraay, Art (2002): “Growth is Good for the Poor”. Journal of Economic<br />

Growth, 7(3), s. 195–225, September 2002.<br />

Easton, David (1957): “An Approach to the Analysis of Political Systems”. In: World<br />

Politics, vol. 9, no. 3, pp. 383-400.<br />

Elliott, C. (1987): ”Some aspects of relations between the North and South in the NGO<br />

Sector” Citeret I: Lister, Sarah, (2000): “Power in Partnership? An Analysis of an NGO’s<br />

Relationships with its Partners”. IN: Journal of International Development, 12, 227-239<br />

(2000).<br />

Ellis and Biggs (2001): “Evolving Themes in Rural Development 1950s-2000s”. IN:<br />

Development Policy Review, 2001, 19 (4): 437-448<br />

Ferguson, James (1994): The Anti-Politics Machine. “Development”, Depoliticization and<br />

Bureaucratic Power in Lesotho, University of Minnesota Press, Minneapolis, London.<br />

Fetterman, David M., (1996): “Empowerment Evaluation: An Introduction to Theory and<br />

Practice” in: Fetterman, Kaftarian & Wandersman (red): Empowerment Evaluation.<br />

Knowledge and Tools for Self-assessment & Accountability, Sage Publications, 1996, s.<br />

3-48.<br />

Foucault, Michel (1978): Viljen til viden: seksualitetens historie 1 (kapitlet: ”Anliggende og<br />

metode”). Rhodos, København 1978.<br />

Foucault, Michel (1980): Power/Knowledge. Selected Interviews and Other Writings 1972-77<br />

by Michel Foucault. (Colin Gordon, red.). New York: Harvester, 1980.<br />

192


Foucault, Michel (1991): “Politics and the Study of Discourse”. In: G. Burchell, C.Gordon,<br />

and P.Miller (red.), The Foucault effect, studies in governmentality, s. 53-72. Chicago:<br />

The University of Chicago Press.<br />

Foucault, Michel (1994): Overvågning og Straf (kapitel 3: ”Panoptismen”). Det lille Forlag, s.<br />

176-201<br />

Freire, Paulo (1993 [1973]): De undertryktes pædagogik. 1. udgave, 9. oplag. Christian Ejlers<br />

Forlag 1993<br />

Freire, Paulo (1972): Pedagogy of the Oppressed. Herder and Herder, New York.<br />

Guba, Egon G. & Lincoln, Yvonna, S. (1987): “The Countenance of Fourth Generation<br />

Evaluation: Description, Judgement, and Negotiation” in The Politics of Program<br />

Evaluation, Sage Publications, 1987. s. 202-234.<br />

Hansen, Hanne Foss (2001): ”Rejsende praksis: Hvilke forhold påvirker udviklingen af<br />

evalueringspraksis på forskellige politikområder?” in Dahler-Larsen & Krogstrup (red.):<br />

Tendenser i evaluering, Syddansk Universitetsforlag, 2001, s. 109-129.<br />

Hansen, Hanne Foss (2003): Evaluering i staten. Kontrol, læring eller forandring?,<br />

Samfundslitteratur, 2003.<br />

Hansen, Kasper M. (2004) ”Evaluering i et demokratisk perspektiv” in Evalueringsnyt, nr. 3 -<br />

august. Dansk Evaluerings Selskab. s. 20-27.<br />

Høgsbro, Kjeld & Rieper, Olaf (2001): ”Formativ evaluering” in Dahler-Larsen & Krogstrup<br />

(red.): Tendenser i evaluering, Syddansk Universitetsforlag, 2001, s. 180-194.<br />

Kapoor, Ilan (2004): “Donor Participatory Governance Evaluation: Initial Trends,<br />

Implications, Opportunities, Constraints.” in: Journal of International Development, 16,<br />

2004, s. 157-170.<br />

Katîc, Stefan (2004): ”Rådgivningsbranchen efter blodbadet 2001-2003: Kontraktjagten<br />

fortsætter”. In: Tidsskriftet Udvikling nr. 5/2004.<br />

Kattenhøj, Christensen og Gram (2004): Udviklingskommunikation – en synergi af metoder.<br />

Institut for Informations- og Medievidenskab, januar 2004. Opgave afleveret i faget<br />

”Medier i overgangs- og 3. verdenslande” v. Poul Erik Nielsen.<br />

Kjekshus, Helge (2001): “Evaluation Policy and Performance: The State of Art” in Stokke,<br />

Olav (red.): Evaluating Development Assistance: Policies and Performance, Frank Cass,<br />

London, 1991. s. 60-70<br />

Krogstrup, Hanne-Kathrine (2001): ”Brugerinddragelse i evaluering – top-down og bottom-up<br />

perspektiver” in Dahler-Larsen & Krogstrup (red.): Tendenser i evaluering, Syddansk<br />

Universitetsforlag, 2001, s. 195-210.<br />

Kvale, Steinar (1997): InterView. En introduktion til det kvalitative forskningsinterview. Hans<br />

Reitzels Forlag, København 1997.<br />

Latour, Bruno (1986): “The Powers of Association”. I John Law (ed.) Power, Action and<br />

belief. London: Routledge & Kegan Paul, s. 264-280<br />

Laursen, Erik (1997): “Glemsel, Leg og Hierarkisering. Nye muligheder og gamle barrierer<br />

for organisatorisk læring” in: Christensen (red.): Den lærende organisations begreber og<br />

praksis, Aalborg Universitetsforlag, 1998 (2. oplag), s. 37-58.<br />

193


Lindgren, Sven-Åke (1996): ”Michel Foucault” I H. Andersen & L.B. Kaspersen (red.),<br />

Klassisk og moderne samfundsteori - en introduktion, Hans Reitzels Forlag, København,<br />

2000 (2. reviderede udgave), s. 326-341.<br />

Lukes, Steven (1973): Power - A Radical View, London: Macmillan<br />

Marsden, David; Oakley, Peter & Pratt, Brian (1994): Measuring the Process: Guidelines for<br />

Evaluating Social Development, INTRAC, England: Oxford<br />

Morgan, Gareth (1986): Images of Organization, Sage, London<br />

Mosse, David (1993): Authority, Gender and Knowledge: Theoretical Reflections on the<br />

Practice of Participatory Rural Appraisal. The Overseas Development Administration,<br />

London, 1993.<br />

Mosse, David (2001): “‘People’s Knowledge’, Participation and Patronage: Operations and<br />

Representations in Rural Development” in Cooke, Bill & Kothari, Uma (red.):<br />

Participation – The New Tyranny?, Zed Books, London/NY, 2002 (2. udgave), s. 16-35<br />

Nymark, Søren (1997): “Læring, forandring og organisation – et kritisk perspektiv” in:<br />

Christensen (red.): Den lærende organisations begreber og praksis, Aalborg<br />

Universitetsforlag, 1998 (2. oplag), s. 59-80.<br />

OECD (2001): Net Official Development Flows in 2000, OECD, DAC, 2001<br />

Patton, Michael Quinn (1986): Utilization-focused Evaluation, 2. udgave, Sage Publications<br />

Patton, Michael Quinn (1994): “Developmental Evaluation” in: Evaluation Practice, 15(3),<br />

1994, s. 311-320<br />

Patton, Michael Quinn (1996): “A World Larger than Formative and Summative” in:<br />

Evaluation Practice, 17(2), 1996, s. 131-144<br />

Power, Michael (1997): The Audit Society. Rituals of Verification. Oxford University Press,<br />

“Introduction” s. i-xvii.<br />

Perry, Patricia D. & Backus, Cheryl (1995): “A Different Perspective on Empowerment in<br />

Evaluation: Benefits and Risks to the Evaluation Process” in: Evaluation Practice, 16(1),<br />

1995, s. 37-46.<br />

Preskill, Hallie & Torres, Rosalie T. (1999): Evaluative Inquiry for Learning in<br />

Organizations, Sage Publications, 1999.<br />

Pretty, Jules (1995): “Participatory learning for sustainable agriculture” in: World<br />

Development 23 (8), s. 1247-1263<br />

Rossi, Peter H., Lipsey, Mark W. & Freeman, Howard E. (1985/2004): Evaluation: a<br />

systematic approach, Sage Publications, 2004, 7. udgave.<br />

Schaumburg-Müller, Henrik (1998): ”Evaluering af sektorprogrambistand” i Den Ny Verden,<br />

april 1998, Center for Udviklingsforskning, København, s. 103-119<br />

Schaumburg-Müller, Henrik & Wad, Peter, 1998: ”Evaluering i udvikling” i Den Ny Verden,<br />

april 1998, Center for Udviklingsforskning, København, s. 5-19.<br />

Scriven, Michael (1967): “The Methodology of Evaluation” in R.W. Tyler, R.M. Gagne, M.<br />

Scriven (red.): Perspectives of curriculum evaluation, Rand McNally, 1967, s. 39-83<br />

194


Scriven, Michael (1991): “Beyond Formative and Summative Evaluation” in McLaughlin &<br />

Phillips (red.): Evaluation and Education: At Quarter Century, The University of<br />

Chicago Press, 1991, s. 18-64<br />

Scriven, Michael (1995): “Evaluation Consulting” in: Evaluation Practice, 16(1), 1995, s. 47-<br />

57.<br />

Scriven, Michael (1996): “Types of Evaluation and Types of Evaluator” in: Evaluation<br />

Practice, 17(2), 1996, s. 151-161.<br />

Scriven, Michael (1997): “Truth and Objectivity in Evaluation” In Chelimsky & Shadish<br />

(red.): Evaluation for the 21 st Century: A handbook. Thousand Oaks, s. 477-500<br />

Sen, Amartya (1999): Development as Freedom, Oxford University Press<br />

Servaes (1996): “Participatory Communication Research with New Social Movements: A<br />

Realistic Utopia”, In: Jan Servaes, Thomas L Jacobson, Shirley A White: Participatory<br />

Communication for Social Change, Sage.<br />

Shadish, William R. Jr., Thomas D. Cook, Laura C. Leviton (1991): Foundations of program<br />

evaluation: theories of practice, Sage.<br />

Silverman, David (1993): Interpreting Qualitative Data. Sage, London, s. 1-29 & 196-211<br />

Silverman, David (2000): Doing Qualitative Research. A Practical Handbook, Sage, London<br />

s. 175-189 & s. 283-297.<br />

Snyder, Monteze M. & Doan, Peter L. (1995): “Who Participates in the Evaluation of<br />

International Development Aid?” in: Evaluation Practice, 16(2), 1995, s. 141-152.<br />

Star, Susan Leigh & Griesemer, James R. (1989): ”Institutional Ecology, ’Translation’, and<br />

Boundary Objects – Amateurs and Professionals in Berkeley’s Museum of Vertebrate<br />

Zoology, 1907-1939”. I Social Studies of Science, vol. 19, s. 387-420<br />

Stokke, Olav: “Policies, Performance, Trends and Challenges in Aid Evaluation” in Stokke,<br />

Olav (red.): Evaluating Development Assistance: Policies and Performance, Frank Cass,<br />

London, 1991. s. 1-59<br />

Strauss, Anselm (1978): ”A Social World Perspective” in Studies in Symbolic Interaction, vol.<br />

1, s. 119-128<br />

Strauss, Anselm & Glaser, Barney (1967): The discovery of grounded theory : strategies for<br />

qualitative research. Weidenfeld and Nicolson<br />

Torres, Rosalie T., Preskill, Hallie S. & Piontek, Mary E.(1997): “Communicating and<br />

Reporting: Practices and Concerns of Internal and External Evaluators” in: Evaluation<br />

Practice, 18(2), 1997, s. 105-125.<br />

Udenrigsministeriet (2004): Evalueringsprogram 2004-2005, Udenrigsministeriet,<br />

Sydgruppen.<br />

Vedung, Evert (1998): Utvärdering i politik och forvaltning, Lund: Studentlitteratur, 1998.<br />

Vedung, Evert (2000): Utvärdering, demokrati och reflexiv modernitet, Uppsala Universitet,<br />

Institutet för bostadsforskning, 2000.<br />

Wad, Peter, 1998: ”Evaluering er ikke forskning, men alligevel…” i Den Ny Verden, april<br />

1998, Center for Udviklingsforskning, København, s. 34-56.<br />

195


Foredrag<br />

Annual Development Symposium, 10. september 2004. Aarhus Universitet, Søauditoriet.<br />

Arrangør: Centre for Tropical Ecosystems Research (cenTER).<br />

Evaluering af udviklingsbistand, foredrag v. Niels Dabelstein, Danida, og Janne Tynell, RUC,<br />

Ibis, Århus 17. marts 2004.<br />

196


Bilagsoversigt<br />

Bilag 1 Transskriberede interviews<br />

1A KS / PO<br />

1B <strong>OG</strong><br />

1C <strong>OG</strong><br />

1D KS<br />

1E KS / PO<br />

1F PO<br />

1G KS / PO<br />

1H KS / PO<br />

1I PO<br />

1J KS<br />

1K <strong>OG</strong><br />

1L KS<br />

1M <strong>OG</strong><br />

Bilag 2 Danidas mediebistand 1990-1998<br />

Bilag 3 Indsamling og behandling af interviews<br />

3A Eksempel på spørgeguide<br />

3B Eksempel på kodning af interviews<br />

Bilag 4 Tekstanalyse<br />

4A Registrant: NSJ 02<br />

4B Registrant: MISA 02<br />

4C Registrant: Den generelle medieevaluering (Danida 2000A)<br />

4D Registrant: MISA 01/02<br />

4E Registrant: Bangladesh 02<br />

4F Registrant: Zambia 02<br />

4G Registrant: NSJ 03<br />

4H Registrant: MISA 04<br />

4I Samlet oversigt over registranter<br />

197


Bilag 5 Oversigt over Danidas projektdokumentation<br />

Bilag 6<br />

Bilag 7<br />

Bilag 8<br />

Bilag 9<br />

Evaluering af Nordic-SADC School of Journalism, 2002<br />

Delrapport under Evaluation. Danish regional assistance to Southern Africa,<br />

Danida 2003C<br />

Evaluering af Media Institute of Southern Africa, 2002<br />

Delrapport under Evaluation. Danish regional assistance to Southern Africa,<br />

Danida 2003C<br />

Joint Evaluation and Review of the Media Institute of Southern Africa<br />

(MISA), 2001/200<br />

Support to the Local Press, Phase 2, Review Report, Bangladesh, 2002<br />

Bilag 10 Danish Support to the Promotion of Professional, Free and Independent<br />

Media, Phase II. Zambia, 2002<br />

Bilag 11 Review of NSJ (Southern African Media Training Trust), Phase III, 2001-<br />

2003<br />

Bilag 12 Annual Review of Media Institute of Southern Africa 2004 (MISA), Draft<br />

Report<br />

198


Abstract<br />

Motivation<br />

This MA thesis is about evaluation. In particular, it deals with evaluations of promotion<br />

of free media in developing countries (media development) carried out within the<br />

Danish international development assistance (Danida). Development aid is one of the<br />

public sectors which has been evaluated for many years. Evaluation is thus a strongly<br />

integrated element of any development activity within Danida. However, evaluations<br />

are not neutral incidents: everywhere they are being carried out their assessments<br />

influence the involved participants’ understanding of success and failure, and within<br />

the field of media development they seem to ultimately contribute to structure and form<br />

Danida’s activities.<br />

Analysis<br />

The theoretical foundation is Foucault’s discourse analysis and genealogic method<br />

(Foucault 1978, 1991) and empirically the point of departure is the double objective<br />

that characterizes evaluations of media development aid: On the one hand evaluation<br />

should document the use and results of aid resources (control), and on the other hand it<br />

should contribute to the improvement of aid by accumulating experience (learning)<br />

(Hansen 2003).<br />

The objective of the thesis is A) to study how the involved actors understand and<br />

practice the ideas of control and learning, B) to identify the interaction between<br />

evaluation as a discoursive practice and the dominant discourses within the fields of<br />

evaluation and development, and C) to define barriers in Danida’s present evaluation<br />

practice and to contribute with proposals for future adjustments to this.<br />

Apart from a theoretical foundation, the thesis contains two parts. The first part is a<br />

theoretically based analysis of discourses within the field of evaluation and within the<br />

field of development respectively. The second part is an empirical study of evaluation<br />

of Danish media development aid. The study is based on eight evaluation reports and<br />

thirteen interviews with persons who are experienced either in ordering, carrying out,<br />

or being objects of evaluations of media development projects.<br />

199


Results<br />

The theoretical study identifies four different discourses. Firstly, two development<br />

discourses: the modernisation discourse and the critical development discourse. In the<br />

modernisation discourse development is seen as a linear process where donors<br />

represent the ideal society and therefore have the power to define the objectives of<br />

development. Within the critical development discourse development is considered an<br />

unpredictable process in which recipients take part in defining the objectives. Both<br />

discourses are present in Danida’s media development practice – something that<br />

contributes to creating a highly complex relationship between Danida and its partners.<br />

Secondly, two evaluation discourses are defined: the control discourse and the<br />

participatory learning discourse. In the control discourse evaluation is seen as an<br />

important element of ensuring accountability within public institutions. Consequently,<br />

objectivity and independency are highly appreciated features in this type of evaluation.<br />

On the other hand, evaluation in the participatory learning discourse is considered a<br />

frame of participatory development and empowerment of the participants.<br />

The findings in the empirically founded analysis are separated in three sections<br />

mirroring the three questions above:<br />

Control and learning<br />

Three different groups of actors are involved in the evaluation of Danish media<br />

development aid: Danida, Danida’s partners and external consultants who carry out<br />

evaluations. The study examines how these groups of actors understand the ideas of<br />

learning and control. It concludes that there is a close connection between the concepts<br />

of learning and control respectively and the specific organisational interests of each<br />

group. On the one hand Danida considers control a legitimate part of running projects<br />

while learning is considered a consensus-based activity which results in the<br />

improvement of aid. Both control and learning are catalysed by ‘objective information’<br />

gathered by external - and therefore independent consultants. This concept is in<br />

keeping with the control evaluation discourse and the modernisation development<br />

discourse.<br />

On the other hand Danida’s partners and the external consultants are in keeping with<br />

the participatory learning discourse and the critical development discourse. Evaluations<br />

should be participatory learning processes instead of events of inspection and control.<br />

The latter causes insecurity among the partners because they fear that a negative<br />

evaluation might cost them their future grant. This situation often results in a process of<br />

limited benefit to the partners, which is unsatisfactory to the consultants who prefer to<br />

conduct evaluations that are useful to the partners.<br />

200


Interaction between discourse and discoursive practise<br />

The interaction between the dominant evaluation and development discourses and<br />

evaluation as a discoursive practice (Foucault 1978, 1991) is analysed by focusing<br />

partly on the negotiations of identities and relationships between the involved actors<br />

and partly on how these identities relate to the positions of power made available by the<br />

various discourses.<br />

Danish media development aid is characterized by a highly complex relationship<br />

between donor and recipient. On the one hand the donor – Danida – expresses ideals of<br />

partnership and involvement that indicate acknowledgement of the values and wishes<br />

of the recipient society. On the other hand, a condition for every project applying for<br />

Danish media development aid is to agree with Danida’s objectives and priorities. This<br />

schism between ideals and practise constitutes what is called the ‘paradox of<br />

partnership’. In the analysis it is found that the paradox influences different phases of<br />

the evaluation right from initiating the process to implementing the recommendations.<br />

It is seen that when consultants carry out reviews and evaluations, they are placed in a<br />

conflicting position, caused by the complex relation between donor and recipient. The<br />

consultants are divided between a morally based incentive to act as ‘the lawyer’ of the<br />

partners on the one side and on the other a dependency of Danida as to knowledge and<br />

economy. The consultants deal with this division by trying to maintain an identity as<br />

independent evaluators – a concept of the consultant’s role, which is also found within<br />

Danida. But emphasizing an independency and neutrality which is not real has<br />

consequences. Claiming that the consultants’ findings are independent and therefore<br />

represent an objective reality prevent the conflict of interests between donor and<br />

recipient from being dealt with in the review or evaluation. In this way, evaluations and<br />

reviews contribute to creating a picture of consensus between Danida and Danidas<br />

partners – a consensus which supports the idea of ‘partnership’.<br />

The idea of consensus is furthermore emphasized in the negotiations between Danida<br />

and its partners regarding the most appropriate way of following up on the evaluation<br />

results. The thesis shows that in this part of the evaluation process, Danida and the<br />

external consultants often make the partners follow Danidas instructions and priorities,<br />

even if they might disagree with these. This is done either by threats about withdrawing<br />

the grant or by exerting power in more subtle ways, such as making the evaluated<br />

organisation internalize control and discipline themselves according to Danida’s<br />

directions. In this way Danida succeeds in maintaining the idea of partnership under<br />

cover of involvement and consensus.<br />

201


Barriers for evaluation of media development aid and its future<br />

In the thesis it is argued that Danida’s evaluation criteria are difficult to implement in<br />

practice when it comes to media development aid. As a consequence media<br />

development projects are assessed on easily measurable outputs as well as to which<br />

extent the objectives of a project are coherent with Danida’s expectations and priorities.<br />

It follows from this that evaluations contribute to defining ‘the good media<br />

development project’ as an efficient and well-run organisation that shares the values of<br />

the donor.<br />

Assessing media development aid on already defined criteria and ideas of development<br />

and on its coherence with the priorities of the donor supports the modernisation<br />

discourse. From our point of view there are good reasons for strengthening the focus of<br />

evaluations on long-term effects of media development, and it is important from both a<br />

control and a learning perspective respectively to consider short- and long-term effects.<br />

This would imply that ‘the good media development project’ to a greater extent is<br />

defined as a project that makes an actual difference to its target group and society. It<br />

does, however, require that Danida invests resources in developing an indicator tool<br />

and that frequent focused studies of outcome are carried out.<br />

In addition, we propose that Danida develops a more sophisticated concept of control<br />

and learning and that a higher degree of separation between these two objectives of<br />

evaluation is implemented. This would contribute to more open and transparent<br />

evaluation processes and less insecurity among partners. Also, this insecurity seems to<br />

be lessened when consultants from the recipient state or region take part in carrying out<br />

the evaluation.<br />

We furthermore argue that each evaluation should be planned and carried out in a way<br />

so that more partner organisations, no matter how well organised or professional they<br />

are, are able to have influence on the evaluation process. Lastly, we see a need of<br />

strengthening the way evaluations are followed up upon, especially in order to help<br />

realising Danida’s ideals of promoting learning.<br />

202

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!