13.07.2015 Views

organización y diseño de los procesos de evaluación - Lanbide

organización y diseño de los procesos de evaluación - Lanbide

organización y diseño de los procesos de evaluación - Lanbide

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

28ORGANIZACIÓNY DISEÑO DE LOSPROCESOS DE EVALUACIÓN


28ORGANIZACIÓNY DISEÑO DE LOSPROCESOS DE EVALUACIÓN2


COLECCIÓN: CUADERNOS DE TRABAJO-FORMACIÓN, EMPLEO, CUALIFICACIONES-INICIATIVA PROMOVIDA POR EL DEPARTAMENTO DE JUSTICIA,TRABAJO Y SEGURIDAD SOCIAL. GOBIERNO VASCONÚMEROS PUBLICADOS1. EDUCACIÓN Y TRABAJO PRODUCTIVO2. CAMBIO TECNOLÓGICO Y REPERCUSIONES EN EL EMPLEO3. PREVER Y FORMAR4. ANÁLISIS PREVISIONAL DE LOS EMPLEOS DEL COMERCIO MINORISTA EN DONOSTIA5. EXPERIENCIAS DE FORMACIÓN CONTINUA PARA DIRIGENTES DE PYMES6. LAS CUALIFICACIONES PROFESIONALES ANTE EL MERCADO ÚNICO7. LAS MUJERES Y EL MERCADO DE TRABAJO EUROPEO8. PARO DE LARGA DURACIÓN EN EUROPA: ESTRATEGIAS Y ACCIONES9. INVESTIGACIÓN Y DESARROLLO EN FORMACIÓN CONTINUA10. FORMACIÓN DE FORMADORES: RETOS Y AVANCES11. GUÍA 1 FORMACIÓN PARA LA PYME: COMPETENCIAS GENÉRICAS DE LOS FORMADORES Y ORGANI-ZADORES DE PROGRAMAS DE FORMACIÓN PARA PEQUEÑAS EMPRESAS12. NUEVO CONTEXTO SOCIOECONÓMICO Y ESTRATEGIAS DE DESARROLLO LOCAL13. CRECIMIENTO, COMPETITIVIDAD Y EMPLEO. ESTRATEGIAS EN LA UNIÓN EUROPEA. RETOS Y PERS-PECTIVAS PARA EL PAÍS VASCO14. MANUAL PARA LA ELABORACIÓN DE PROYECTOS DE DESARROLLO ECONÓMICO LOCAL Y EMPLEO15. GUÍA 2 FORMACIÓN PARA LA CREACIÓN DE PYMES. COMPETENCIAS DE LOS FORMADORES PARAPROMOVER EL ESPÍRITU E INICIATIVA EMPRESARIAL Y LOS PROYECTOS DE CREACIÓN DE EMPRESA16. ANÁLISIS Y EVOLUCIÓN DE LOS EMPLEOS DEL TERCIARIO DE OFICINA17. ANÁLISIS Y EVOLUCIÓN DE LOS EMPLEOS DE LA INDUSTRIA METALMECÁNICA18. FLEXIBILIDAD Y DISTRIBUCIÓN DEL TRABAJO19. NUEVOS YACIMIENTOS DE EMPLEO20. LA FORMACIÓN EN CENTROS DE TRABAJO21. LA CALIDAD DE LA FORMACIÓN22. TELETRABAJO. IMPACTO DE LAS NUEVAS TECNOLOGÍAS EN LA ORGANIZACIÓN DEL TRABAJO23. ORIENTACIÓN Y ASESORAMIENTO PROFESIONAL24. PERFILES Y COMPETENCIAS PROFESIONALES EN EL SECTOR DE LA CONSTRUCCIÓN25. LOS JUEGOS DE SIMULACIÓN, UNA HERRAMIENTA PARA LA FORMACIÓN26. INSERCIÓN A TRAVÉS DE LA FORMACIÓN. INSTRUMENTOS PARA INNOVAR LOS PROCESOS DE FORMACIÓN-INSERCIÓN27. COMPETENCIAS PROFESIONALES. ENFOQUES Y MODELOS A DEBATENÚMERO 28TITULO: ORGANIZACIÓN Y DISEÑO DE LOS PROCESOS DE EVALUACIÓNCIDEC. Centro <strong>de</strong> Investigación y Documentación sobre problemas <strong>de</strong> la Economía, el Empleo y las CualificacionesProfesionalesDONOSTIA-SAN SEBASTIÁNAvenida <strong>de</strong> la Libertad 17-19 Telf: 943 42 52 57 Fax: 943 42 93 31 • E-mail. ci<strong>de</strong>c@sarenet.esD.P. 20004Impresión: Michelena Artes Gráficas S.L.D.L.: SS-104-91I.S.S.N.: 1135-0989P.V.P.: 2.000 ptas.3


ORGANIZACIÓN Y DISEÑO DE LOSPROCESOS DE EVALUACIÓN


ÍNDICEHITZAURREA/PREFACIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7PRESENTACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91. LA EVALUACIÓN. CONCEPTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.1. Conceptualización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .121.1.1. Psuedoevaluaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.1.2. Cuasievaluaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.1.3. Evaluaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.2. Institucionalización <strong>de</strong> las prácticas <strong>de</strong> evaluación . . . . . . . . . . . . . . . . . . . . . . . . . 171.2.1. La génesis <strong>de</strong> la evaluación en <strong>los</strong> EE.UU. . . . . . . . . . . . . . . . . . . . . . . . . . . 171.2.2. La extensión a otros países . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.3. Principios <strong>de</strong> la evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.4. Criterios <strong>de</strong> la evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.5. Momentos <strong>de</strong> la evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242. LA EVALUACIÓN DE PROGRAMAS EN LA UNIÓN EUROPEA.ORIENTACIONES PARA PROCEDER A SU ORGANIZACIÓN Y DISEÑO . . . . . . . . . . 272.1. Marco general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.2. Cómo organizar el proceso <strong>de</strong> evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312.3. Las etapas básicas y su contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322.3.1. Fase A: Mandato <strong>de</strong> Evaluación y Estructuración <strong>de</strong>l Proceso . . . . . . . . . . . 332.3.2. Fase B: Elaboración <strong>de</strong> <strong>los</strong> Términos <strong>de</strong> Referenciay Convocatoria <strong>de</strong>l Concurso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.3.3. Fase C: Selección <strong>de</strong> Evaluadores y Elaboración <strong>de</strong>l Plan <strong>de</strong> Evaluación . . . . 352.3.4. Fase D: Gestión <strong>de</strong>l Proceso y Evaluación <strong>de</strong> su Calidad . . . . . . . . . . . . . . . . 362.3.5. Fase E: Difusión <strong>de</strong> Resultados y Puesta en Práctica . . . . . . . . . . . . . . . . . . 382.4. Articular el control, seguimiento y evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382.4.1. La lógica <strong>de</strong> la programación y su inci<strong>de</strong>ncia enel seguimiento y la evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.5. Cómo diseñar el sistema <strong>de</strong> seguimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.6. Las evaluaciones intermedias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.6.1. Contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.6.2. Metodología. Enfoques y técnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 483. PROGRAMA MEANS: IDENTIFICACIÓN Y MEDICIÓNDE EFECTOS ESTRUCTURALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543.1. I<strong>de</strong>ntificación <strong>de</strong> efectos estructurales y su medición. Dificulta<strong>de</strong>s,limitaciones y recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 553.1.1. Dificulta<strong>de</strong>s y limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 563.1.2. Recomendaciones para la evaluación <strong>de</strong> efectos estructurales . . . . . . . . . . . 573.2. Evaluación <strong>de</strong> efectos sobre el empleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585


3.2.1. Medición <strong>de</strong> efectos sobre el empleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 583.2.2. I<strong>de</strong>ntificación <strong>de</strong> lo que se quiere medir . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 593.2.3. Indicadores para la medición <strong>de</strong> efectos sobre el empleo . . . . . . . . . . . . . . . . 614. PRÁCTICAS DE EVALUACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 634.1. Evaluación intermedia <strong>de</strong> programas cofinanciados por el FSE . . . . . . . . . . . . . . . . 644.2. Ejemp<strong>los</strong> <strong>de</strong> buenas prácticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 694.2.1. Una estrategia <strong>de</strong> autoevaluación: Ostrobothnian <strong>de</strong>l Sur. Finlandia . . . . . . . . 694.2.2. Evaluación intermedia <strong>de</strong> la iniciativa comunitaria Interreg II en el Alto Rhin:la implementación <strong>de</strong> una metodología participativa . . . . . . . . . . . . . . . . . . . 724.2.3. Evaluación <strong>de</strong> la innovación en la primera fase ADAPT. Grecia . . . . . . . . . . . 764.2.4. Evaluación intermedia <strong>de</strong> <strong>los</strong> Programas Operativos y <strong>de</strong>l MarcoComunitario <strong>de</strong> Apoyo cofinanciado por el FSE, 1994-1999. Irlanda . . . . . . . 804.2.5. Evaluación ex-post <strong>de</strong> Programas Objetivo 2, 1989-1993 . . . . . . . . . . . . . . . . 834.2.6. Evaluación temática <strong>de</strong>l DOCUP Objetivo 2, 1994-1996.Región <strong>de</strong> Yorkshire y Humbersi<strong>de</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 865. CONSIDERACIONES FINALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90ANEXO: MODELOS DE EVALUACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 971. El mo<strong>de</strong>lo CIPP: Contexto, Input, Proceso y Producto . . . . . . . . . . . . . . . . . . . . . . . . 981.1. El mo<strong>de</strong>lo CIPP como estrategia para el perfeccionamiento <strong>de</strong> <strong>los</strong> sistemas . . . . 991.2. Las dimensiones <strong>de</strong>l mo<strong>de</strong>lo CIPP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 991.3. El mo<strong>de</strong>lo CIPP como enfoque sistémico <strong>de</strong> la evaluación . . . . . . . . . . . . . . . 1042. El método evaluativo centrado en el cliente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1052.1. Las aportaciones <strong>de</strong> Stake . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1052.2. La evaluación respon<strong>de</strong>nte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1062.3. Evaluación preor<strong>de</strong>nada versus evaluación respon<strong>de</strong>nte . . . . . . . . . . . . . . . . 1062.4. La estructura <strong>de</strong> la evaluación respon<strong>de</strong>nte . . . . . . . . . . . . . . . . . . . . . . . . . . 1083. La evaluación innovativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1113.1. La evaluación innovativa: un paradigma socio-antropológico . . . . . . . . . . . . . . 1123.2. Organización y métodos <strong>de</strong> la evaluación innovativa . . . . . . . . . . . . . . . . . . . . 112BIBLIOGRAFÍA BÁSICA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1156


HITZAURREAPREFACIOInolako zalantzarik gabe, premiazkoaketa funtsezkoak dira ebaluazio prozesuak,herri administrazioaren erakun<strong>de</strong>ek etorkizuneanizan ditzaketen eskuhartzeak berenlegezko helburuetarantz gidatzeko eta orientatzeko.Alabaina, sarri askotan ikustendugunez, ebaluazioen emaitzek iruzur egitendiete bai politiken antolatzaileei bai haienonuradunei eta, azken finean, gizarte osoari.Administrazio erakun<strong>de</strong>ok beti izan duguargi eta garbi ebaluazioa instituzionalizatzekojoera, eta batzuetan lortu dugun gauzabakarra zera izan da, legalitatearen printzipioagor<strong>de</strong>tzea, ekonomiaren gar<strong>de</strong>na izatea,eta abar, hau da, administrazioaren prozedurabetetze hutsa. Baina gaur egun, esandakohori guztia ez da nahikoa.Gure ikuspegitik begiratuz, ebaluazioak,objektibotasun eta neutraltasun printzipioetanoinarriturik, al<strong>de</strong>z aurreko akordio baterairistera eskatzen die ebaluazioaren edukieta hedapenean parte hartzen duten agenteguztiei. Ebaluazioaren onuradunen asetasunmaila zein politika ku<strong>de</strong>atzaile edo sustatzaileenada interesatzen zaiguna, baldin etaezarritako prozesuek etorkizuneko programazioakhobetzeko ildoen nondik-norakoariburuzko informazioa ematen badute.Une hau egokia iruditu zaigu, ebaluazioeraginkorrari dagokion esparru kontzeptualeansakontzeko eta ebaluazioaren erabilgarritasunabermatzen duten irizpi<strong>de</strong>ak aztertzeko.Hortaz, lan koa<strong>de</strong>rnoetako ale hauebaluazio prozesuak antolatzeko eta diseinatzekobehar diren orientabi<strong>de</strong>ei eskaintzeaerabaki dugu.Resulta incuestionable la utilización <strong>de</strong>procedimientos <strong>de</strong> evaluación en las intervencionespúblicas que las guíen y orientenhacia la consecución <strong>de</strong> sus legítimos objetivosen actuaciones <strong>de</strong> futuro. Sin embargo,en muchas ocasiones constatamos que <strong>los</strong>resultados <strong>de</strong> las evaluaciones <strong>de</strong>fraudanbien a <strong>los</strong> planificadores <strong>de</strong> las políticas,bien a <strong>los</strong> beneficiarios <strong>de</strong> las mismas, y en<strong>de</strong>finitiva a la sociedad en general.Las administraciones hemos tenido<strong>de</strong>s<strong>de</strong> siempre una clara tentación por institucionalizarla evaluación <strong>de</strong> forma que aveces lo único que hemos conseguido esvelar por el principio <strong>de</strong> legalidad, la transparenciaeconómica... para dar conformida<strong>de</strong>n <strong>de</strong>finitiva al procedimiento administrativo.En la actualidad esto se muestra claramenteinsuficiente.Des<strong>de</strong> nuestro punto <strong>de</strong> vista la evaluaciónexige, <strong>de</strong>ntro <strong>de</strong> unos principios básicos<strong>de</strong> objetividad y neutralidad, un acuerdoprevio entre <strong>los</strong> diversos agentes implicadossobre el contenido y alcance <strong>de</strong> la misma.Interesa tanto el grado <strong>de</strong> satisfacción <strong>de</strong> <strong>los</strong>beneficiarios como el <strong>de</strong> <strong>los</strong> propios gestores<strong>de</strong> las políticas o el <strong>de</strong> sus propulsores,siempre que <strong>los</strong> <strong>procesos</strong> establecidos proporcioneninformación que apunten hacialíneas <strong>de</strong> mejora en futuras programaciones.Nos ha parecido un buen momento paraprofundizar en el marco conceptual querequiere una evaluación eficaz y sobre <strong>los</strong>criterios que garantizan su utilidad. Por ellohemos <strong>de</strong>cidido <strong>de</strong>dicar este número <strong>de</strong> laColección Cua<strong>de</strong>rnos <strong>de</strong> Trabajo a proporcionarorientaciones para proce<strong>de</strong>r a la organizacióny diseño <strong>de</strong> <strong>procesos</strong> <strong>de</strong> evaluación.7


Europako Batzor<strong>de</strong>ak ekarpen metodologikogarrantzitsuak egin ditu azken urteotan,egitura fondoen eraginak ebaluatzeko; zentzuhorretan, aipatu batzor<strong>de</strong>a biziki interesaturikagertu da burutu diren praktika onakhedatzeko.Lan koa<strong>de</strong>rno honen bi<strong>de</strong>z horiek guztiakeman nahi ditugu ezagutzera eta, bi<strong>de</strong> batez,dau<strong>de</strong>n ebaluazio eredu guztien ikuspegiorokor bat eskaini, ahal <strong>de</strong>n neurrian behinikbehin, enplegu eta prestakuntza politikeiburuzko jardueretan kalitatearen kulturazabaltzeko.La Comisión Europea, en <strong>los</strong> últimosaños, ha realizado importantes aportacionesmetodológicas para la evaluación <strong>de</strong>l impacto<strong>de</strong> sus fondos estructurales y se muestramuy interesada en la difusión <strong>de</strong> las buenasprácticas realizadas.Nosotros preten<strong>de</strong>mos, a través <strong>de</strong> estapublicación, difundirlas a<strong>de</strong>más <strong>de</strong> ofreceruna panorámica general <strong>de</strong> <strong>los</strong> diferentesmo<strong>de</strong><strong>los</strong> <strong>de</strong> evaluación existentes <strong>de</strong> formaque contribuyamos en la medida <strong>de</strong> lo posiblea instaurar una cultura <strong>de</strong> la calidad en lasactuaciones referidas a políticas <strong>de</strong> empleo yformación.Vitoria-Gasteiz, 1999ko UztailaVitoria-Gasteiz, Julio <strong>de</strong> 1999Jesús MONREAL ZIAEusko Jaurlaritzako Justizi, Lan etaGizarte Segurantzako SailarenEnplegu eta Prestakuntza ZuzendariaJesús MONREAL ZIADirector <strong>de</strong> Empleo y Formación <strong>de</strong>lDepartamento <strong>de</strong> Justicia,Trabajo ySeguridad Social <strong>de</strong>l Gobierno Vasco8


PRESENTACIÓNLa evaluación se ha constituido en un valioso instrumento <strong>de</strong> reflexión sobre laeficacia global <strong>de</strong> las intervenciones públicas. El interés por su aplicación y elvalor que pue<strong>de</strong>n llegar a tener sus resultados están haciendo se <strong>de</strong>dique unacreciente atención a la <strong>de</strong>finición <strong>de</strong> <strong>los</strong> contenidos y al análisis <strong>de</strong> <strong>los</strong>procedimientos operativos que <strong>de</strong>ben aplicarse en cada caso.Las activida<strong>de</strong>s <strong>de</strong> evaluación en la U.E. han tenido, durante <strong>los</strong> últimos cuatro años,un <strong>de</strong>sarrollo consi<strong>de</strong>rable en <strong>los</strong> Estados miembros. A ello ha contribuido <strong>de</strong>cisivamentela institucionalización <strong>de</strong> estas prácticas <strong>de</strong>bido, principalmente, a <strong>los</strong> requisitosestablecidos en <strong>los</strong> reglamentos <strong>de</strong> <strong>los</strong> Fondos Estructurales. Esta recienteinstitucionalización ha venido acompañada <strong>de</strong> un notable <strong>de</strong>sarrollo metodológicopromovido por las instancias comunitarias. De todas formas, y aunque la calidad media<strong>de</strong> las evaluaciones –fundamentalmente intermedias– efectuadas durante el período 1994-1999 ha mejorado respecto al período prece<strong>de</strong>nte 1989-1993, se siguen apreciandoimportantes lagunas y <strong>de</strong>ficiencias que <strong>de</strong>ben mejorarse cara a obtener resultados másútiles y mejores bases valorativas en las que sustentar <strong>de</strong> forma razonada la toma <strong>de</strong><strong>de</strong>cisiones <strong>de</strong> reprogramación y anticiparse a <strong>los</strong> problemas importantes.La experiencia revela que sigue siendo necesario mejorar la organización, el diseño y lacalidad <strong>de</strong> <strong>los</strong> <strong>procesos</strong> evaluativos, perfeccionando las metodologías <strong>de</strong> evaluación,transfiriendo y extendiendo las buenas prácticas. Este Cua<strong>de</strong>rno <strong>de</strong> Trabajo se <strong>de</strong>dicaprecisamente a estas cuestiones y ha sido concebido con la finalidad <strong>de</strong> ofrecer un marcoconceptual y metodológico general <strong>de</strong>l cual extraer <strong>los</strong> aspectos <strong>de</strong>cisivos <strong>de</strong>l procesoevaluativo en términos organizativos, funcionales y operativos.Una <strong>de</strong> las primeras preocupaciones que surgen a la hora <strong>de</strong> construir <strong>los</strong> <strong>procesos</strong> <strong>de</strong>evaluación es la necesidad <strong>de</strong> superar <strong>los</strong> enfoques más tradicionales, <strong>los</strong> que sitúan a laevaluación como el contraste estricto entre objetivos y resultados. Se trata <strong>de</strong> superar esteenfoque para permitir juzgar el valor y el mérito atribuible a una <strong>de</strong>terminadaintervención. Para ello resulta clave que el proceso sea sensible a la diversidad <strong>de</strong> actoresy usuarios que –con miradas, experiencias y percepciones distintas– <strong>de</strong>ben concurrir eneste tipo <strong>de</strong> <strong>procesos</strong> (evaluación participativa), adoptando un enfoque prospectivo yestratégico mediante el establecimiento <strong>de</strong> distintos planos y dimensiones objeto <strong>de</strong>observación en profundidad.Lo señalado apunta la conveniencia <strong>de</strong> que estos <strong>procesos</strong> se sustenten en un importantegrado <strong>de</strong> consenso <strong>de</strong> todas las partes implicadas en torno a <strong>los</strong> aspectos metodológicos,dimensiones y objetivos que se asignan a la evaluación, para no incurrir en falsasexpectativas. En paralelo, se advierte la necesidad <strong>de</strong> optimizar las técnicas e instrumentos9


<strong>de</strong> evaluación existentes que vendrán convenientemente seleccionadas y aplicadas <strong>de</strong> formaflexible y combinada. En pocas palabras, se trata <strong>de</strong> adoptar un enfoque <strong>de</strong>l procesoevaluativo que prime la reflexión conjunta, la participación y cooperación <strong>de</strong> <strong>los</strong> diversosactores implicados en la intervención <strong>de</strong> que se trate. Des<strong>de</strong> esta perspectiva, <strong>los</strong> problemasy dificulta<strong>de</strong>s <strong>de</strong> índole técnica y metodológica, así como la multiplicidad <strong>de</strong> aspectos ycomplejidad que pue<strong>de</strong>n llegar a revestir este tipo <strong>de</strong> <strong>procesos</strong>, se podrán conducir <strong>de</strong>forma a<strong>de</strong>cuada y, en última instancia, conseguir que las prácticas <strong>de</strong> evaluaciónconduzcan a resultados útiles que se aplicarán e integrarán en la gestión diaria.Se trata así mismo <strong>de</strong> ofrecer respuestas <strong>de</strong> carácter integral y específico a lascuestiones más relevantes. Por tanto, <strong>los</strong> <strong>procesos</strong> <strong>de</strong> trabajo a implementar se sustentaránen principios, criterios y métodos lógicos y aceptados por todas las partes. Si esto no seconsigue la evaluación, estará, <strong>de</strong>s<strong>de</strong> su inicio, con<strong>de</strong>nada al fracaso.El presente Cua<strong>de</strong>rno <strong>de</strong> Trabajo comienza por <strong>de</strong>limitar el concepto <strong>de</strong> evaluación y<strong>de</strong>finir cuáles son las prácticas que <strong>de</strong>ben consi<strong>de</strong>rarse como verda<strong>de</strong>ras evaluaciones, lasrazones que han llevado a su institucionalización así como <strong>los</strong> principios y criterios que<strong>de</strong>ben guiar <strong>los</strong> <strong>procesos</strong> evaluativos.A partir <strong>de</strong> aquí se entra <strong>de</strong> lleno en el terreno <strong>de</strong> las cuestiones más prácticas–Capítu<strong>los</strong> 2, 3 y 4– acotadas a <strong>los</strong> programas europeos. Abordando básicamente lassiguientes cuestiones: organización <strong>de</strong>l proceso, etapas básicas y contenidos; la necesidad<strong>de</strong> articular el control, el seguimiento y la evaluación <strong>de</strong> programas; la manera <strong>de</strong> diseñarel sistema <strong>de</strong> seguimiento a todo lo cual se aña<strong>de</strong> una panorámica <strong>de</strong> <strong>los</strong> enfoques ytécnicas <strong>de</strong> evaluación existentes. A continuación se <strong>de</strong>scriben las dificulta<strong>de</strong>s que suelenplantearse para i<strong>de</strong>ntificar y medir <strong>los</strong> efectos <strong>de</strong> <strong>los</strong> programas estructurales, lasproblemáticas vinculadas a estos y las recomendaciones que conviene tener presente paraabordarlas. Como cierre, se presenta un caso <strong>de</strong> mo<strong>de</strong>lización <strong>de</strong>l proceso evaluativo y unaserie <strong>de</strong> prácticas <strong>de</strong> evaluación consi<strong>de</strong>radas como ejemplares por <strong>los</strong> expertos encargados<strong>de</strong> valorar la calidad <strong>de</strong> las evaluaciones en la U.E.Por último se ofrecen una serie <strong>de</strong> Consi<strong>de</strong>raciones Finales que, partiendo <strong>de</strong> lasprincipales lagunas y problemáticas que presentan las evaluaciones, vienen a establecer lalógica que <strong>de</strong>be presidir el diseño metodológico, organizativo y operacional sobre el quesoportar las evaluaciones. Complementariamente, en forma <strong>de</strong> Anexo, se ofrecen tresmétodos <strong>de</strong> evaluación que aportan esquemas <strong>de</strong> razonamiento y conceptos <strong>de</strong> gran utilidad.Donostia-San Sebastián, Julio <strong>de</strong> 1999Juan José DE ANDRÉS GILSPresi<strong>de</strong>nte <strong>de</strong> CIDEC10


1. La evaluaciónConceptos


1. La evaluaciónConceptosCon carácter previo a la formulación <strong>de</strong> <strong>los</strong> <strong>procesos</strong> <strong>de</strong> evaluación<strong>de</strong> las intervenciones públicas, conviene efectuaralgunas aproximaciones previas <strong>de</strong> carácter general parasituar las siguientes cuestiones: qué se entien<strong>de</strong> por evaluación, cualha sido la génesis <strong>de</strong> su institucionalización, qué principios y criterios<strong>de</strong>ben guiar el proceso <strong>de</strong> evaluación, cuáles son <strong>los</strong> distintosmomentos para su implementación.1.1. CONCEPTUALIZACIÓNUn primera consi<strong>de</strong>ración hace referencia al hecho <strong>de</strong> que laevaluación no <strong>de</strong>be concebirse como una investigación, a pesar <strong>de</strong>que toda evaluación implica recogida sistemática <strong>de</strong> información yanálisis <strong>de</strong> datos. La evaluación <strong>de</strong> programas 1 <strong>de</strong>be ir más allá <strong>de</strong>la investigación aplicada aunque parta <strong>de</strong> ella y, para po<strong>de</strong>r efectuarla,resultará necesario el acopio <strong>de</strong> información fiable y válida.Evaluar significa, en esencia, emitir juicios sobre el valor y elmérito <strong>de</strong> un programa o aspectos <strong>de</strong>l mismo. Como señala Scriven,para po<strong>de</strong>r conducir el proceso <strong>de</strong> evaluación se requieren unos criterios<strong>de</strong> valor, unos estándares respectos a <strong>los</strong> mismos, una medición<strong>de</strong> la información referida a esos criterios o dimensiones <strong>de</strong> valor ycontrastes diversos para po<strong>de</strong>r emitir juicios. Aunque evaluar suponeemitir juicios ello no <strong>de</strong>berá impedir que <strong>los</strong> <strong>procesos</strong> <strong>de</strong> evaluaciónse apoyen en la objetividad y la neutralidad. Dicho esto, las discrepanciaspue<strong>de</strong>n surgir en <strong>los</strong> criterios <strong>de</strong> valor a utilizar.En linea con estos primeros rasgos apuntados se proce<strong>de</strong> a <strong>de</strong>limitarconceptualmente qué tipo <strong>de</strong> prácticas <strong>de</strong>ben ser consi<strong>de</strong>radascomo evaluaciones. La diversidad <strong>de</strong> formas <strong>de</strong> concebir la evaluacióny enfoques utilizados para afrontar este tipo <strong>de</strong> <strong>procesos</strong>, danlugar a lo que <strong>los</strong> teóricos vienen a <strong>de</strong>nominar como:• Pseudoevaluaciones• Cuasievaluaciones• EvaluacionesMientras las pseudoevaluaciones conducen normalmente aconclusiones pre<strong>de</strong>terminadas, las cuasievaluaciones incluyenestudios e investigaciones encaminados a dar respuestas a ciertascuestiones <strong>de</strong> interés, pero no alcanzan a <strong>de</strong>terminar el valor <strong>de</strong>Evaluar significa, enesencia, emitir juiciossobre el valor y elmérito <strong>de</strong> un programao aspectos <strong>de</strong>l mismo1. A lo largo <strong>de</strong> este Cua<strong>de</strong>rno se emplearán indistintamente <strong>los</strong> términos “programa”. “proyecto”e “intervención”, referidos todos al objeto <strong>de</strong>l proceso <strong>de</strong> evaluación.12


una intervención, proyecto o programa. Por su parte, las verda<strong>de</strong>rasevaluaciones incluyen estudios e investigaciones que se centranen examinar el valor y el mérito <strong>de</strong> una intervención, proyectoo programa. Como ha quedado prece<strong>de</strong>ntemente señalado, nobasta con conocer <strong>los</strong> efectos o resultados sino que a<strong>de</strong>más <strong>de</strong>medir<strong>los</strong> hay que otorgarles un valor: “Evaluar es enjuiciar unmérito” C.H. Weis, 1991.1.1.1. PseudoevaluacionesEn ocasiones, <strong>los</strong> evaluadores y sus clientes se ponen <strong>de</strong> acuerdopara llevar a cabo un tipo <strong>de</strong> evaluación que concuer<strong>de</strong> con <strong>los</strong> resultadosprevistos; en otros casos, <strong>los</strong> evaluadores, creyendo que realizanuna valoración objetiva, <strong>de</strong>scubren que sus clientes esperabanotros resultados. Así, el cliente pue<strong>de</strong> intentar intervenir para dirigirel proceso evaluativo y extraer <strong>de</strong>l mismo <strong>de</strong>terminado tipo <strong>de</strong> resultados.Los evaluadores tienen que estar alertas, más <strong>de</strong> lo que suelenestarlo, ante este tipo <strong>de</strong> conflictos latentes, para solventar<strong>los</strong> anticipadamentey conseguir que el proceso <strong>de</strong> evaluación se <strong>de</strong>sarrollecorrectamente, con objetividad y neutralidad.Cabe señalar dos tipos <strong>de</strong> <strong>procesos</strong> que conducen a una pseudoevaluación:• Las Investigaciones encubiertas (o <strong>procesos</strong> <strong>de</strong> evaluaciónpolíticamente controlados): normalmente el cliente quiere quela información obtenida sea técnicamente sólida pero tambiénque se le garantice la posibilidad <strong>de</strong> controlar la difusión <strong>de</strong> <strong>los</strong>resultados obtenidos. La información pue<strong>de</strong> ser revelada selectivamentepara crear una imagen <strong>de</strong>terminada <strong>de</strong>l valor <strong>de</strong> unprograma, o incluso no revelada, para ocultar situaciones no<strong>de</strong>seadas o imprevistas.• Los Estudios dirigidos: estudios planificados, realizados y utilizadospara satisfacer propósitos establecidos. La intención <strong>de</strong>este tipo <strong>de</strong> estudios es ayudar al cliente a crear una imagenpositiva <strong>de</strong> una institución, programa, etc., que le ayu<strong>de</strong> a mantenero incrementar el apoyo público.El cliente pue<strong>de</strong>intentar intervenir paradirigir el procesoevaluativo y extraer <strong>de</strong>lmismo <strong>de</strong>terminadotipo <strong>de</strong> resultados. Losevaluadores tienen queestar alertas, más <strong>de</strong> loque suelen estarlo,ante este tipo <strong>de</strong>conflictos latentes,para solventar<strong>los</strong>anticipadamente yconseguir que elproceso <strong>de</strong> evaluaciónse <strong>de</strong>sarrollecorrectamente, conobjetividad yneutralidad1.1.2. CuasievaluacionesLas cuasievaluaciones se inician con el planteamiento <strong>de</strong> un problemaconcreto y luego buscan la metodología apropiada para darsolución al mismo. El hecho <strong>de</strong> que la información obtenida sea suficientepara apoyar un juicio sobre el valor <strong>de</strong> la intervención pasa, eneste tipo <strong>de</strong> prácticas, a segundo plano.13


En todo caso, las cuasievaluaciones pue<strong>de</strong>n tener usos legítimos.Por tanto, la principal cautela a adoptar es la <strong>de</strong> no consi<strong>de</strong>rarlasequivalentes a una evaluación.Entre <strong>los</strong> <strong>procesos</strong> más habituales asimilados a las cuasievaluacionesse encuentran <strong>los</strong> Estudios basados en objetivos y <strong>los</strong>Estudios basados en la experimentación.• Los Estudios basados en objetivos han impulsado el movimiento<strong>de</strong> sistematización <strong>de</strong>l trabajo evaluativo 2 . Su propósitomás común es <strong>de</strong>terminar si <strong>los</strong> objetivos han sido alcanzadosy, <strong>de</strong> acuerdo con esto, concluir si se ha tenido éxito o no. Esprecisamente este tipo <strong>de</strong> estudios el que más frecuentementese califica como evaluación: disponen <strong>de</strong> una construcciónracional, se acumula experiencia mediante su utilización yemplean las técnicas propias <strong>de</strong> la evaluación por objetivosrecogiendo información <strong>de</strong> forma regular.Las principales críticas apuntan a que producen una informaciónque llega con frecuencia <strong>de</strong>masiado tar<strong>de</strong> para ser utilizada en elperfeccionamiento <strong>de</strong> las intervenciones, y lo que es más importante,esta información tien<strong>de</strong> a tener un alcance <strong>de</strong>masiado limitadocomo para constituir una base sólida a la hora <strong>de</strong> emitir juiciossobre el valor y el mérito <strong>de</strong> una intervención.• Los Estudios basados en la experimentación pue<strong>de</strong>n ser clasificados<strong>de</strong>ntro <strong>de</strong> las cuasievaluaciones porque incluyenaspectos y metodologías en ocasiones relacionadas, aunque nosiempre, con un juicio <strong>de</strong> valor. La investigación experimentaltrae a colación la advertencia <strong>de</strong> Kaplan ante la llamada “ley<strong>de</strong>l instrumento”, según la cual un método se equipara a unainvestigación. Como consecuencia, el campo <strong>de</strong> estudio sereduce a <strong>los</strong> problemas que pue<strong>de</strong>n ser solucionados medianteun método <strong>de</strong>terminado. El propósito más común es <strong>de</strong>terminaro <strong>de</strong>mostrar víncu<strong>los</strong> causales entre ciertas variables <strong>de</strong>pendientese in<strong>de</strong>pendientes.La principal ventaja <strong>de</strong> <strong>los</strong> estudios experimentales en el procesoevaluativo es que pue<strong>de</strong>n llegar a proporcionar métodossólidos para la <strong>de</strong>terminación <strong>de</strong> relaciones causales relativamenteinequívocas entre una intervención (proyecto o programa)y sus resultados. Los problemas que plantea, no obstante,Las cuasievaluacionesse inician con elplanteamiento <strong>de</strong> unproblema concreto yluego buscan lametodologíaapropiada para darsolución al mismo. Laprincipal cautela aadoptar es la <strong>de</strong> noconsi<strong>de</strong>rarlasequivalentes a unaevaluación2. Los métodos utilizados en <strong>los</strong> estudios basados en objetivos incluyen esencialmente la recopilacióny el análisis <strong>de</strong> <strong>los</strong> datos sobre el trabajo en cuestión, relativas a objetivos específicos.Ralph Tyler es generalmente admitido como pionero <strong>de</strong> este tipo <strong>de</strong> estudios.14


adican en que <strong>los</strong> métodos utilizados proporcionan con frecuenciauna información mucho más restringida <strong>de</strong> la que esnecesaria para evaluar actuaciones <strong>de</strong> gran alcance en <strong>los</strong>ámbitos social, educativo, sanitario, etc. A<strong>de</strong>más, <strong>los</strong> estudiosexperimentales tien<strong>de</strong>n a proporcionar una información finalexcesivamente <strong>de</strong>scriptiva que no siempre resulta útil comoguía para el <strong>de</strong>sarrollo <strong>de</strong> futuras intervenciones.1.1.3. EvaluacionesLas <strong>de</strong>nominadas verda<strong>de</strong>ras evaluaciones, oponiéndose a laspseudoevaluaciones, subrayan la necesidad <strong>de</strong> evitar <strong>los</strong> estudiosdirigidos y, en contraste con las cuasievaluaciones, recomiendan larealización <strong>de</strong> investigaciones integrales objetivas y neutras cubriendouna multiplicidad <strong>de</strong> planos y aspectos que permitan abordar lascuestiones <strong>de</strong> valor y mérito. De forma general, <strong>de</strong>ntro <strong>de</strong> las verda<strong>de</strong>rasevaluaciones se pue<strong>de</strong>n i<strong>de</strong>ntificar cinco gran<strong>de</strong>s grupos ocategorías <strong>de</strong> análisis:• Estudios orientados a la toma <strong>de</strong> <strong>de</strong>cisiones: básicamente suobjetivo consiste en proporcionar conocimientos y bases valorativasque permitan tomar y justificar <strong>de</strong>cisiones a <strong>los</strong> responsables<strong>de</strong> <strong>los</strong> programas o intervenciones evaluados.• Estudios centrados en el cliente: dirigidos, principalmente, aayudar a quienes prestan un servicio a valorar y perfeccionarsus contribuciones en función <strong>de</strong> la percepción que el serviciogenera entre sus diversas clientelas.• Estudios basados en el método holístico: y, en particular, lainvestigación innovativa que, a partir <strong>de</strong> diagnosticar la insuficiencia<strong>de</strong> <strong>los</strong> métodos <strong>de</strong> evaluación tradicionales en el ámbitoeducativo (experimentales, psicométricos, etc.) plantean lanecesidad <strong>de</strong> un estudio intensivo <strong>de</strong> <strong>los</strong> programas en su totalidad,utilizando más la <strong>de</strong>scripción que <strong>los</strong> números.• Estudios políticos: su propósito básico consiste en <strong>de</strong>scribir yvalorar <strong>los</strong> costos y beneficios potenciales <strong>de</strong> diversas políticasaplicables.• Estudios basados en el consumidor: su finalidad principal esjuzgar el valor relativo <strong>de</strong> bienes y servicios alternativos y,como, consecuencia ayudar a <strong>los</strong> usuarios y clientes a perfeccionarla forma <strong>de</strong> elección y el uso <strong>de</strong> <strong>los</strong> mismos.Los evaluadores <strong>de</strong>ben tener particularmente en cuenta que quizáse encuentren con importantes dificulta<strong>de</strong>s si la concepción <strong>de</strong>l pro-Las <strong>de</strong>nominadasverda<strong>de</strong>rasevaluaciones,oponiéndose a laspseudoevaluaciones,subrayan la necesidad<strong>de</strong> evitar <strong>los</strong> estudiosdirigidos y, encontraste con lascuasievaluaciones,recomiendan larealización <strong>de</strong>investigacionesintegrales objetivas yneutras cubriendo unamultiplicidad <strong>de</strong>planos y aspectos quepermitan abordar lascuestiones <strong>de</strong> valor ymérito <strong>de</strong> unaintervención15


pio proceso <strong>de</strong> evaluación que preten<strong>de</strong>n llevar a cabo difiere <strong>de</strong> la<strong>de</strong> sus clientes o audiencias.Si <strong>los</strong> evaluadores ignoran este tipo <strong>de</strong> posibles conflictos, la evaluación,probablemente, estará con<strong>de</strong>nada al fracaso <strong>de</strong>s<strong>de</strong> el principio.La ética <strong>de</strong>be ser lo primero. Los evaluadores <strong>de</strong>ben aten<strong>de</strong>rtanto a lo que el<strong>los</strong> piensan como a la concepción y expectativassobre el contenido y alcance <strong>de</strong> la evaluación <strong>de</strong> <strong>los</strong> clientes y <strong>los</strong>diversos actores implicados (gestores, beneficiarios directos e indirectosy sociedad en general). Es más, <strong>los</strong> evaluadores <strong>de</strong>ben prevenira las partes implicadas <strong>de</strong> <strong>los</strong> posibles conflictos que pue<strong>de</strong>n producirseen lo que se refiere a <strong>los</strong> propósitos y <strong>de</strong>sarrollo <strong>de</strong>l proceso<strong>de</strong> evaluación, llegando, <strong>de</strong>s<strong>de</strong> un primer momento, a un acuerdocomún sobre <strong>los</strong> principios que van a guiar el mismo y <strong>los</strong> objetivosque se preten<strong>de</strong> alcanzar.Lo señalado vendría así mismo a garantizar la utilización <strong>de</strong> <strong>los</strong>resultados <strong>de</strong> la evaluación. Maximizar esta utilización pue<strong>de</strong> requeriradoptar principios realistas, en función <strong>de</strong>l tiempo y <strong>los</strong> recursosdisponibles, lo que lleva en ocasiones a seleccionar métodos que,aunque no sean <strong>los</strong> óptimos, reúnan las necesarias condiciones <strong>de</strong>credibilidad y fiabilidad.Para finalizar estas consi<strong>de</strong>raciones, se señalan <strong>de</strong> forma sintética<strong>los</strong> rasgos característicos <strong>de</strong>l planteamiento metodológico querequiere una verda<strong>de</strong>ra evaluación:• Determinar hasta qué punto han sido alcanzadas las metas,ayudar a distinguir las virtu<strong>de</strong>s y <strong>los</strong> <strong>de</strong>fectos <strong>de</strong> un programa,y proporcionar <strong>los</strong> conocimientos suficientes y unabase valorativa para orientar la toma <strong>de</strong> <strong>de</strong>cisiones.• Enmarcar el estudio <strong>de</strong> las intervenciones en su contextooperacional y socioeconómico, para lo cual se <strong>de</strong>berán estudiarlas condiciones previas a las mismas, <strong>los</strong> cambios producidosy las posibles relaciones causa-efecto.• Situar la evaluación en un proceso dinámico y comparativocon relación a otros momentos o fases.• Ofrecer un marco <strong>de</strong> análisis adaptado a la necesidad <strong>de</strong>evaluar la interacción entre <strong>los</strong> diversos agentes intervinientes,así como el nivel <strong>de</strong> coordinación que presentan,respondiendo <strong>de</strong> forma a<strong>de</strong>cuada a la existencia <strong>de</strong> múltiplesactores <strong>de</strong> diversos niveles (públicos y privados,comunitarios y estatales, regionales y locales…), atendiendoa la complejidad <strong>de</strong> sus relaciones.Los evaluadores <strong>de</strong>benprevenir a las partesimplicadas <strong>de</strong> <strong>los</strong>posibles conflictos quepue<strong>de</strong>n producirse enlo que se refiere a <strong>los</strong>propósitos y <strong>de</strong>sarrollo<strong>de</strong>l proceso <strong>de</strong>evaluación, llegando,<strong>de</strong>s<strong>de</strong> un primermomento, a unacuerdo común sobre<strong>los</strong> principios que van aguiar el mismo y <strong>los</strong>objetivos que sepreten<strong>de</strong> alcanzar16


• Captar <strong>los</strong> efectos e impactos producidos por las intervencionesen <strong>los</strong> beneficiarios directos, <strong>los</strong> colectivos sociolaboralesimplicados y, en términos más amplios, en el contextosocioecónomico en el que tienen lugar.• Enmarcar <strong>los</strong> aspectos evaluatorios parciales, vinculados aaspectos específicos (colectivos, subprogramas, etc), <strong>de</strong>s<strong>de</strong>una perspectiva que priorice la valoración integral.Des<strong>de</strong> este planteamiento, la evaluación preten<strong>de</strong> contribuir alperfeccionamiento <strong>de</strong> <strong>los</strong> programas mediante la i<strong>de</strong>ntificación <strong>de</strong>sus <strong>de</strong>ficiencias y la presentación <strong>de</strong> las recomendaciones pertinentespara su modificación, generando la información cuantitativa ycualitativa necesaria para orientar la toma <strong>de</strong> <strong>de</strong>cisiones y llevar acabo las oportunas reprogramaciones.1.2. INSTITUCIONALIZACIÓN DE LAS PRÁCTICASDE EVALUACIÓNLa Administración Pública, en su mo<strong>de</strong>lo más tradicional, no estabaconcebida para organizarse como un sistema <strong>de</strong> prestación <strong>de</strong> servicioseficaz y eficiente, sino que su criterio fundamental <strong>de</strong> actuación consistía,inicialmente, en velar por el cumplimiento <strong>de</strong>l principio <strong>de</strong> legalidad.Por ello, sus mecanismos <strong>de</strong> control se focalizaban, en mayor medida,hacia la conformidad administrativa <strong>de</strong> sus actuaciones.En este or<strong>de</strong>n <strong>de</strong> cosas, y siguiendo a Ballart 3 , se pue<strong>de</strong>n constatarritmos diferenciados en el <strong>de</strong>sarrollo, institucionalización e innovaciónen la evaluación <strong>de</strong> políticas y programas públicos. EE.UU.pue<strong>de</strong> consi<strong>de</strong>rarse como el país con una tradición más rica y unainstitucionalización más temprana <strong>de</strong> las prácticas <strong>de</strong> evaluación enel seno <strong>de</strong> las administraciones públicas, mientras que en el resto <strong>de</strong>países se aprecian ritmos diversos y un proceso <strong>de</strong> institucionalizaciónacor<strong>de</strong> a su tradición y a su propio mo<strong>de</strong>lo <strong>de</strong> AdministraciónPública.La evaluación preten<strong>de</strong>contribuir alperfeccionamiento <strong>de</strong><strong>los</strong> programasmediante lai<strong>de</strong>ntificación <strong>de</strong> sus<strong>de</strong>ficiencias y lapresentación <strong>de</strong> lasrecomendacionespertinentes para sumodificación,generando lainformacióncuantitativa ycualitativa necesariapara orientar la toma<strong>de</strong> <strong>de</strong>cisiones y llevar acabo sureprogramación1.2.1. La génesis <strong>de</strong> la evaluación en <strong>los</strong> EE.UU.Como ha quedado señalado, EE.UU. se ha caracterizado <strong>de</strong>s<strong>de</strong> <strong>los</strong>años 60 por una constante innovación metodológica y un elevadonivel <strong>de</strong> institucionalización <strong>de</strong> la evaluación <strong>de</strong> las políticas y <strong>los</strong>programas públicos. El éxito <strong>de</strong> la implementación en elDepartamento <strong>de</strong> Defensa <strong>de</strong>l Sistema <strong>de</strong> Presupuestación y Gestiónpor Programas “Programing, Planning and Budgeting System(PPBS)”, uno <strong>de</strong> cuyos componentes esenciales era la evaluación3. X.Ballart. ¿Cómo evaluar programas y servicios públicos?. MAP.199217


“ex-ante” <strong>de</strong> la eficacia y eficiencia <strong>de</strong> programas alternativos, llevóa exten<strong>de</strong>r su implantación a todas las agencias <strong>de</strong>l gobierno fe<strong>de</strong>ral.La <strong>de</strong>finitiva institucionalización <strong>de</strong> la evaluación se produce conla creación <strong>de</strong> las unida<strong>de</strong>s <strong>de</strong> evaluación <strong>de</strong> las oficinas fe<strong>de</strong>rales yla promulgación <strong>de</strong> leyes que requerían a la General AccountingOffice (GAO) la realización <strong>de</strong> análisis <strong>de</strong> la eficacia <strong>de</strong> <strong>los</strong> programaspúblicos 4 . En el ámbito <strong>de</strong>l <strong>de</strong>sarrollo e innovación metodológicas,se crea en 1980 un instituto propio <strong>de</strong> evaluación <strong>de</strong>ntro <strong>de</strong> laGAO <strong>de</strong>nominado División <strong>de</strong> Evaluación <strong>de</strong> Programas yMetodología.De esta forma, a lo largo <strong>de</strong> las tres últimas décadas, la evaluación<strong>de</strong> programas en ámbitos <strong>de</strong> actuación pública tan cruciales como laeducación o la salud ha sido una referencia clave en el marco <strong>de</strong> <strong>los</strong><strong>de</strong>bates públicos en EE.UU., generando información valiosa tantopara <strong>los</strong> <strong>de</strong>tractores <strong>de</strong> la intervención pública como para <strong>los</strong> partidarios<strong>de</strong> la misma.En este or<strong>de</strong>n <strong>de</strong> cosas, se ha consi<strong>de</strong>rado la oportunidad <strong>de</strong> recogeren forma <strong>de</strong> anexo gran parte <strong>de</strong> esta experiencia, mediante la <strong>de</strong>scripción<strong>de</strong> una serie <strong>de</strong> mo<strong>de</strong><strong>los</strong> <strong>de</strong> evaluación diseñados por autores norteamericanoscomo Stufflebeam o Stake, preocupados por encontrardiseños metodológicos que permitieran ir más allá <strong>de</strong> la evaluación centradaen el mero cumplimiento <strong>de</strong> <strong>los</strong> objetivos planificados, proporcionandouna base valorativa para la toma y justificación <strong>de</strong> <strong>de</strong>cisiones yposibilitando el perfeccionamiento <strong>de</strong> las actuaciones públicas.EE.UU. se hacaracterizado <strong>de</strong>s<strong>de</strong> <strong>los</strong>años 60 por unaconstante innovaciónmetodológica y unelevado nivel <strong>de</strong>institucionalización <strong>de</strong>la evaluación <strong>de</strong> laspolíticas y <strong>los</strong>programas públicos1.2.2. La extensión a otros paísesDes<strong>de</strong> que en <strong>los</strong> años 60 se pone en marcha el movimiento evaluadoren EE.UU, el <strong>de</strong>sarrollo e institucionalización <strong>de</strong> la evaluaciónen otros países se manifiesta más tardíamente y <strong>de</strong> forma incipiente.De hecho, la adopción <strong>de</strong> prácticas evaluativas está directamente vinculadaal <strong>de</strong>sarrollo <strong>de</strong> las políticas <strong>de</strong> bienestar y cohesión social,planes sanitarios, educativos, etc. y/o ligada a la participación en programasfinanciados por organizaciones internacionales como laONU, el Banco Mundial, la FAO o, más recientemente en el casoespecífico europeo, por la Administración Comunitaria.Países como Canadá, Alemania, Suecia o Gran Bretaña comenzarona <strong>de</strong>sarrollar iniciativas para la evaluación <strong>de</strong> las actuacionespúblicas a mediados <strong>de</strong> <strong>los</strong> setenta, mientras que Francia, Noruega,Dinamarca o Holanda no lo hicieron hasta <strong>los</strong> años ochenta. Al igual4 Como la “Economic Opportunity Act” <strong>de</strong> 1967.18


que en el caso norteamericano, el <strong>de</strong>sarrollo <strong>de</strong> estas prácticas evaluativasvino impulsado por la generalización <strong>de</strong> las políticas <strong>de</strong>bienestar social y la introducción <strong>de</strong> reformas presupuestarias.Por tanto, aunque el proceso <strong>de</strong> adopción <strong>de</strong> prácticas evaluativasatien<strong>de</strong> a las mismas razones en <strong>los</strong> diversos países, su grado <strong>de</strong> utilizacióne institucionalización, así como la cultura <strong>de</strong> evaluaciónalcanzada, es muy diferente. Estas diferencias se relacionan, por unlado, con el hecho <strong>de</strong> que sean <strong>los</strong> parlamentos quienes cuenten concompetencias en el ámbito <strong>de</strong> la evaluación o, por el contrario, éstasrecaigan únicamente sobre <strong>los</strong> niveles ejecutivos. Por otro lado, tambiénestá relacionado con <strong>los</strong> distintos niveles <strong>de</strong> centralización o<strong>de</strong>scentralización existentes 5 .Es en 1988 cuando la evaluación queda institucionaliza en la U.E.La reglamentación europea introduce la obligatoriedad <strong>de</strong> evaluar <strong>los</strong>programas cofinanciados por sus fondos que cubren una gran variedad<strong>de</strong> ámbitos <strong>de</strong> actuación. Des<strong>de</strong> entonces, se han llevado a caboun gran número <strong>de</strong> evaluaciones en todos <strong>los</strong> países miembros. Comose irá <strong>de</strong>sgranando a lo largo <strong>de</strong>l documento, la institucionalización<strong>de</strong> las prácticas está requiriendo <strong>de</strong> un cuerpo común más unificadoy un direccionamiento a<strong>de</strong>cuado, siempre <strong>de</strong>s<strong>de</strong> un planteamientoflexible que ayu<strong>de</strong> a la mejora generalizada en la concepción <strong>de</strong> <strong>los</strong><strong>procesos</strong> evaluativos y, por extensión, en la obtención <strong>de</strong> resultadosútiles y en la aplicación/integración <strong>de</strong> <strong>los</strong> mismos.1.3. PRINCIPIOS DE LA EVALUACIÓNLa complejidad que pue<strong>de</strong> llegar a revestir una evaluación requiereestablecer un marco conceptual en el que soportar el diseño metodológicoy operacional <strong>de</strong> la misma. Dentro <strong>de</strong> este marco conceptualtienen cabida una serie <strong>de</strong> principios básicos y criterios que <strong>de</strong>benguiar a <strong>los</strong> diversos actores participantes en el proceso evaluativo.De forma general, e in<strong>de</strong>pendientemente <strong>de</strong>l tipo y característicasprecisas <strong>de</strong> la evaluación <strong>de</strong> que se trate, ésta <strong>de</strong>bería respon<strong>de</strong>r alcumplimiento <strong>de</strong> cuatro principios básicos: rigor y credibilidad, neutralidad,utilidad y transparencia.De forma general, ein<strong>de</strong>pendientemente<strong>de</strong>l tipo ycaracterísticas precisas<strong>de</strong> la evaluación <strong>de</strong> quese trate, ésta <strong>de</strong>beríarespon<strong>de</strong>r alcumplimiento <strong>de</strong>cuatro principiosbásicos: rigor ycredibilidad,neutralidad, utilidad ytransparencia❏ Rigor y CredibilidadEl principio <strong>de</strong>l rigor <strong>de</strong> las evaluaciones se concreta en la necesidad<strong>de</strong> efectuar una <strong>de</strong>finición metodológica objetiva y cientí-5. Países como Canadá y Suecia, <strong>de</strong>s<strong>de</strong> mediados <strong>de</strong> <strong>los</strong> años setenta, y Gran Bretaña en 1983,han llegado a constituir unida<strong>de</strong>s especializadas en el control y la evaluación <strong>de</strong> las políticaspúblicas siguiendo el mo<strong>de</strong>lo <strong>de</strong> la GAO norteamericana.19


fica <strong>de</strong>l proceso. La credibilidad se materializa básicamente enla necesidad <strong>de</strong> adoptar marcos organizativos y <strong>de</strong> consenso claros,sobre la base <strong>de</strong> un enfoque <strong>de</strong> trabajo participativo, pluralistae interactivo. Lo señalado vendría, así mismo, a garantizarla utilidad y uso <strong>de</strong> <strong>los</strong> resultados <strong>de</strong> la evaluación.❏ NeutralidadEl principio <strong>de</strong> neutralidad o in<strong>de</strong>pen<strong>de</strong>ncia pasa por situar a launidad, organismo o equipo evaluador <strong>de</strong> forma externa alorganismo gestor o ejecutor <strong>de</strong>l programa objeto <strong>de</strong> evaluación,dotándole <strong>de</strong> autonomía para el ejercicio <strong>de</strong> sus funciones yseleccionándolo <strong>de</strong> forma imparcial.Este principio <strong>de</strong> in<strong>de</strong>pen<strong>de</strong>ncia no implica necesariamente larealización <strong>de</strong> la evaluación por personas ajenas al programaobjeto <strong>de</strong> evaluación o a la administración responsable <strong>de</strong>lmismo. Es más, en ocasiones la evaluación por parte <strong>de</strong> institucioneso empresas externas pue<strong>de</strong> ser percibida por sus ejecutoresnegativamente como un control externo que se inmiscuyeen sus funciones. Esta percepción viene dada por el carácter<strong>de</strong> <strong>de</strong>terminados <strong>procesos</strong> evaluativos que han puesto elacento en <strong>los</strong> mecanismos <strong>de</strong> control.Sin embargo, aún optando por una evaluación realizada <strong>de</strong>ntro<strong>de</strong> la propia estructura organizacional responsable <strong>de</strong>l programa,lo que siempre <strong>de</strong>be observarse es la externalidad funcional<strong>de</strong> la evaluación, es <strong>de</strong>cir, la in<strong>de</strong>pen<strong>de</strong>ncia total <strong>de</strong> la unidad<strong>de</strong> evaluación <strong>de</strong> las unida<strong>de</strong>s responsables <strong>de</strong> la programación,gestión y ejecución <strong>de</strong>l programa.❏ UtilidadEl principio <strong>de</strong> utilidad <strong>de</strong> la evaluación requiere la necesariaparticipación a lo largo <strong>de</strong>l proceso evaluador <strong>de</strong> <strong>los</strong> diversosactores implicados (beneficiarios directos e indirectos, gestoresy ejecutores, organismos e instituciones concernidas) y,para ello, pue<strong>de</strong> llegar a requerirse la integración <strong>de</strong>l organismoque promueve la evaluación en la estructura institucionalque dirige el proceso <strong>de</strong> evaluación.Del mismo modo, resulta necesario la aptitud <strong>de</strong>l equipo evaluadorque, como culminación <strong>de</strong>l proceso, genere una serie<strong>de</strong> conclusiones, recomendaciones y aprendizajes; así como elestablecimiento <strong>de</strong> unos canales <strong>de</strong> retroalimentación fluidospara lograr que dichas conclusiones puedan ser integradas<strong>de</strong>ntro <strong>de</strong> la gestión diaria <strong>de</strong>l programa.El principio <strong>de</strong>neutralidad oin<strong>de</strong>pen<strong>de</strong>ncia pasapor situar a la unidad,organismo o equipoevaluador <strong>de</strong> formaexterna al organismogestor o ejecutor <strong>de</strong>lprograma objeto <strong>de</strong>evaluación, dotándole<strong>de</strong> autonomía para elejercicio <strong>de</strong> susfunciones yseleccionándole <strong>de</strong>forma imparcial.El principio <strong>de</strong> utilidad<strong>de</strong> la evaluaciónrequiere la necesariaparticipación a lo largo<strong>de</strong>l proceso evaluador<strong>de</strong> <strong>los</strong> diversos actoresimplicados20


❏ TransparenciaEl principio <strong>de</strong> transparencia requiere <strong>de</strong> una difusión suficientementeamplia <strong>de</strong> <strong>los</strong> resultados <strong>de</strong> la evaluación entretodos <strong>los</strong> actores implicados y el público en general, así como,en ciertos casos, la puesta en juicio <strong>de</strong>l propio sistema <strong>de</strong> evaluación( o metaevalaución), y <strong>de</strong>l equipo evaluador.El principio <strong>de</strong>transparencia requiere<strong>de</strong> una difusiónsuficientemente amplia<strong>de</strong> <strong>los</strong> resultados <strong>de</strong> laevaluación1.4. CRITERIOS DE LA EVALUACIÓNSe parte <strong>de</strong> la i<strong>de</strong>a <strong>de</strong> que <strong>los</strong> criterios <strong>de</strong> evaluación <strong>de</strong>ben proporcionarun referente para la obtención <strong>de</strong> conocimientos útiles alobjeto <strong>de</strong> po<strong>de</strong>r tomar <strong>de</strong>cisiones sobre las intervenciones evaluadas.Hay que subrayar que <strong>los</strong> criterios no <strong>de</strong>ben ser consi<strong>de</strong>radoscomo categorías excluyentes o exhaustivas sino como elementos guíapara enfocar las evaluaciones, sus correspondientes <strong>procesos</strong> y parámetros<strong>de</strong> referencia.A continuación se <strong>de</strong>finen <strong>los</strong> criterios que son empleados <strong>de</strong>forma más habitual en <strong>los</strong> <strong>procesos</strong> <strong>de</strong> evaluación:❏ EficaciaSe trata <strong>de</strong> medir el grado <strong>de</strong> alcance <strong>de</strong>l objetivo/s establecidosy <strong>de</strong> <strong>los</strong> resultados esperados <strong>de</strong> un programa acotado a unperíodo <strong>de</strong> tiempo pre<strong>de</strong>finido y un público objetivo, sin teneren cuenta <strong>los</strong> costes en <strong>los</strong> que se incurre para obtener<strong>los</strong>.Por tanto, la medición <strong>de</strong> la eficacia será más sencilla <strong>de</strong> realizarcuanto mejor <strong>de</strong>finidos se encuentren <strong>los</strong> objetivos yresultados esperados, <strong>los</strong> beneficiarios directos e indirectos,así como <strong>los</strong> indicadores básicos y las fuentes <strong>de</strong> verificacióncorrespondientes. En este sentido, la información necesariapara realizar la valoración <strong>de</strong> la eficacia provendrá <strong>de</strong> <strong>los</strong>diversos informes <strong>de</strong> seguimiento disponibles, siendo necesario,cuando esta información no resulte suficiente, proce<strong>de</strong>ra comprobaciones adicionales sobre el terreno.En consecuencia, el sistema <strong>de</strong> seguimiento resulta clave en elsuministro <strong>de</strong> datos e información necesaria para po<strong>de</strong>r llevara cabo el proceso <strong>de</strong> evaluación.Asimismo, la <strong>de</strong>finición <strong>de</strong> <strong>los</strong> objetivos y <strong>de</strong> <strong>los</strong> resultados quese preten<strong>de</strong> alcanzar <strong>de</strong>be estar realizada <strong>de</strong> forma que resultenoperativos para su logro y su evaluación, siendo necesario que ensu formulación resulten precisos, verificables y realistas.No es infrecuente que la <strong>de</strong>finición <strong>de</strong> objetivos se haya realizado<strong>de</strong> una forma ambigua o poco clara, siendo necesarioLa eficacia trata <strong>de</strong>medir el grado <strong>de</strong>alcance <strong>de</strong>l objetivo/sestablecidos y <strong>de</strong> <strong>los</strong>resultados esperados<strong>de</strong> un programaacotado a un período<strong>de</strong> tiempo pre<strong>de</strong>finidoy un público objetivo,sin tener en cuenta <strong>los</strong>costes en <strong>los</strong> que seincurre para obtener<strong>los</strong>21


poner <strong>de</strong> manifiesto este hecho y proce<strong>de</strong>r a su clarificaciónrecurriendo a otras informaciones disponibles y/o la realización<strong>de</strong> entrevistas a informantes clave.Del mismo modo pue<strong>de</strong> resultar que <strong>de</strong>l análisis <strong>de</strong> la eficacia se<strong>de</strong>duzca que el programa ha resultado ineficaz respecto al objetivou objetivos planteados, pero eficaz respecto a <strong>los</strong> resultadosprogramados para el cumplimiento <strong>de</strong> dichos objetivos. Estaaparente paradoja pue<strong>de</strong> estar indicando la existencia <strong>de</strong> <strong>de</strong>ficienciasen la formulación <strong>de</strong>l proyecto y/o cambios en el contexto<strong>de</strong>bidos al surgimiento <strong>de</strong> aspectos y factores no previstos.❏ EficienciaEs una medida <strong>de</strong>l logro <strong>de</strong> <strong>los</strong> resultados en relación con <strong>los</strong>recursos consumidos. Por tanto, viene a complementar el criterio<strong>de</strong> eficacia, valorando el nivel <strong>de</strong> utilización <strong>de</strong> todos <strong>los</strong> recursosdisponibles: financieros, materiales, físicos, técnicos yhumanos.Aplicar el criterio <strong>de</strong> eficiencia lleva a contrastar <strong>los</strong> resultadoscon <strong>los</strong> recursos empleados; así, si <strong>los</strong> resultados están pre<strong>de</strong>terminadosla intervención será más eficiente cuantos menosrecursos se utilicen en la misma, mientras que si <strong>los</strong> recursosestán pre<strong>de</strong>terminados, la intervención será más eficientecuando se alcancen mayores o mejores resultados.Pue<strong>de</strong> suce<strong>de</strong>r que <strong>de</strong> <strong>los</strong> documentos programático-presupuestalesdisponibles no se <strong>de</strong>duzca necesariamente <strong>los</strong>recursos imprescindibles para llevar a cabo el programa y,por tanto, no se puedan calcular <strong>los</strong> costes con el <strong>de</strong>bidorigor. En este caso, el proceso se complica y es necesarioreforzar <strong>los</strong> mecanismos e instrumentos <strong>de</strong> obtención <strong>de</strong>información previa. Del mismo modo, en algunos casosresulta pertinente la i<strong>de</strong>ntificación <strong>de</strong> posibles costes indirectosgenerados por la intervención y, también, la consi<strong>de</strong>ración<strong>de</strong> <strong>los</strong> costes <strong>de</strong> oportunidad en contraste con otrasalternativas posibles.Las herramientas que tradicionalmente se vinculan al análisis <strong>de</strong>la eficiencia son: el Análisis Coste-Beneficio (ACB), el AnálisisCoste-Efectividad (ACE) y el Análisis Coste-Utilidad (ACU).En el ACB se requiere una expresión monetaria <strong>de</strong> <strong>los</strong> costesy efectos <strong>de</strong> la intervención; en el ACE únicamente serequiere una expresión monetaria <strong>de</strong> <strong>los</strong> costes mientras <strong>los</strong>efectos pue<strong>de</strong>n ser medidos mediante otro tipo <strong>de</strong> unida<strong>de</strong>sLa eficienciaes una medida <strong>de</strong>llogro <strong>de</strong> <strong>los</strong> resultadosen relación con <strong>los</strong>recursos consumidos.Por tanto, viene acomplementar alcriterio <strong>de</strong> eficaciavalorando el nivel <strong>de</strong>utilización <strong>de</strong> todos <strong>los</strong>recursos disponibles:financieros, materiales,técnicos y humanos22


no monetarias; en el ACU <strong>los</strong> efectos pue<strong>de</strong>n ser medidosen escalas no cuantificables.❏ PertinenciaLa pertinencia refleja el grado <strong>de</strong> a<strong>de</strong>cuación/ina<strong>de</strong>cuación <strong>de</strong> <strong>los</strong>resultados y <strong>los</strong> objetivos al contexto en el que se implementa elprograma objeto <strong>de</strong> evaluación. En esta valoración se <strong>de</strong>be consi<strong>de</strong>rartanto el contexto en el que fue formulado el programa comoel contexto posterior en el que se lleva a cabo, analizando <strong>los</strong> posiblescambios surgidos entre esos dos momentos.De esta forma, el criterio <strong>de</strong> pertinencia abre la reflexión a unenfoque más cualitativo que la eficacia y la eficiencia, centrándose,fundamentalmente, en el análisis <strong>de</strong> <strong>los</strong> objetivosbásicos <strong>de</strong>l programa. En el marco <strong>de</strong> este análisis <strong>de</strong>berántenerse en cuenta también <strong>los</strong> objetivos colaterales a<strong>de</strong>más <strong>de</strong><strong>los</strong> planteados explícitamente.❏ ImpactoEl análisis <strong>de</strong>l impacto <strong>de</strong> un programa hace referencia a la valoración<strong>de</strong> <strong>los</strong> efectos producidos por el mismo en sentido amplio.Por tanto, este es un criterio que va más allá <strong>de</strong> la eficacia ya que:• Incluye el análisis tanto <strong>de</strong> <strong>los</strong> efectos directos como <strong>de</strong> <strong>los</strong>indirectos 6 .• No se limitará a examinar <strong>los</strong> efectos previstos sino que<strong>de</strong>berá tener en cuenta <strong>los</strong> no previstos 7 .• No se circunscribe a <strong>los</strong> efectos <strong>de</strong>seados, sino que tiene encuenta <strong>los</strong> no <strong>de</strong>seados.• No se reduce al análisis <strong>de</strong> <strong>los</strong> efectos sobre la población i<strong>de</strong>ntificadacomo beneficiaria sino que tiene en cuenta a <strong>los</strong> públicosno incluidos en la programación <strong>de</strong> la intervención.La pertinencia reflejael grado <strong>de</strong>a<strong>de</strong>cuación/ina<strong>de</strong>cuación<strong>de</strong> <strong>los</strong> resultados y<strong>los</strong> objetivos alcontexto en el que seimplementa elprograma objeto <strong>de</strong>evaluaciónEl análisis <strong>de</strong>l impacto<strong>de</strong> un programa hacereferencia a lavaloración <strong>de</strong> <strong>los</strong>efectos producidos porel mismo en sentidoamplio6. Los efectos indirectos son aquel<strong>los</strong> efectos inducidos por la intervención, en especial <strong>de</strong> carácterpsicosocial (cambios <strong>de</strong> autopercepción, motivación, etc.), vinculados particularmente aaspectos <strong>de</strong> percepción y actitud en relación al proyecto, tanto por parte <strong>de</strong> <strong>los</strong> colectivos <strong>de</strong> usuariosúltimos o <strong>de</strong> <strong>los</strong> operadores intervinientes en el programa.7. Como efectos no previstos se pue<strong>de</strong>n citar <strong>los</strong> siguientes:• Efectos multiplicadores <strong>de</strong> la oferta/<strong>de</strong>manda: incrementos en la oferta/<strong>de</strong>manda impulsada porun programa concreto.• Efecto <strong>de</strong> sustitución: resultados generados por un programa que evaluados <strong>de</strong> forma aisladaresultan positivos pero que, analizados en su contexto van en <strong>de</strong>trimento <strong>de</strong> <strong>los</strong> objetivos establecidosen otra o en otros segmentos <strong>de</strong> población.• Efecto <strong>de</strong> peso muerto: porcentaje <strong>de</strong> subsidios, asignaciones o beneficios producidos en unbeneficiario que, sin embargo, no logran mejorar su status social.• Efecto <strong>de</strong> <strong>de</strong>splazamiento: beneficiarios <strong>de</strong> un programa que <strong>de</strong>splazan en su status a <strong>los</strong> nobeneficiarios.23


Mediante el criterio <strong>de</strong> impacto se trata <strong>de</strong> llegar a i<strong>de</strong>ntificar<strong>los</strong> efectos netos <strong>de</strong> la intervención objeto <strong>de</strong> evaluación, comprobandola relación <strong>de</strong> causalidad existente entre ésta y elimpacto, in<strong>de</strong>pendientemente <strong>de</strong> <strong>los</strong> efectos provocados porotras acciones o intervenciones.❏ ViabilidadLa viabilidad hace referencia al grado en que <strong>los</strong> efectos positivos<strong>de</strong>rivados <strong>de</strong> la intervención continúan <strong>de</strong>spués <strong>de</strong> finalizada lamisma. Por tanto, se trata <strong>de</strong> valorar en qué medida y bajo qué condiciones<strong>los</strong> beneficiarios o las instituciones que han actuado comocontraparte, asumen o están en condiciones <strong>de</strong> proseguir con elcumplimiento <strong>de</strong> <strong>los</strong> objetivos planteados en la intervención.Para efectuar el análisis <strong>de</strong> la viabilidad se <strong>de</strong>ben tener en cuenta<strong>los</strong> diversos factores que configuran el contexto en el que seimplementa el programa, bien sean económicos, sociales, culturales,tecnológicos, políticos o institucionales, poniendoespecial énfasis en el análisis <strong>de</strong> aquel<strong>los</strong> que en cada casoresultan <strong>de</strong>terminantes.1.5. MOMENTOS DE LA EVALUACIÓNLas particularida<strong>de</strong>s <strong>de</strong>l proceso evaluativo vienen dadas, a<strong>de</strong>más,por el momento en que la misma se implementa; es <strong>de</strong>cir, en función<strong>de</strong>l ámbito temporal que cubre la misma.En <strong>los</strong> proyectos <strong>de</strong> gran relevancia y alcance social se i<strong>de</strong>ntificancuatro momentos para la evaluación asociados a una <strong>de</strong>terminadafase <strong>de</strong> <strong>de</strong>sarrollo <strong>de</strong>l proyecto:• Evaluación ex-ante o previa• Evaluación intermedia• Evaluación final• Evaluación ex-post o posteriorLa viabilidad hacereferencia al grado enque <strong>los</strong> efectospositivos <strong>de</strong>rivados <strong>de</strong>la intervencióncontinúan <strong>de</strong>spués <strong>de</strong>finalizada la mismaLas particularida<strong>de</strong>s<strong>de</strong>l proceso evaluativovienen dadas, a<strong>de</strong>más,por el momento en quela misma seimplementa; es <strong>de</strong>cir,en función <strong>de</strong>l ámbitotemporal que cubre lamisma❏ La evaluación ex-anteSe centra en el análisis <strong>de</strong> varias medidas o intervencionesalternativas para la solución <strong>de</strong> un problema <strong>de</strong>terminado o lasatisfacción <strong>de</strong> <strong>de</strong>terminadas carencias/necesida<strong>de</strong>s colectivas.Planificar y evaluar son <strong>procesos</strong> estrechamente interrelacionadose inter<strong>de</strong>pendientes que se complementan y se condicionanmutuamente, <strong>de</strong> ahí la importancia <strong>de</strong> este tipo <strong>de</strong> evaluación.Si el diagnóstico <strong>de</strong> necesida<strong>de</strong>s es <strong>de</strong>s<strong>de</strong> toda lógica elpaso previo a cualquier intervención, una vez que se ha elabo-24


ado un plan o un programa resulta obvio proce<strong>de</strong>r a una evaluación<strong>de</strong>l mismo; diseño, conceptualización, etc..; la evaluaciónse entrelaza <strong>de</strong> esta forma con la planificación y al revés.Para ello, en este tipo <strong>de</strong> evaluación el criterio predominante esel <strong>de</strong> la pertinencia <strong>de</strong> la intervención que se está planteandollevar a cabo, estableciendo diferentes planos <strong>de</strong> observaciónanalítica que permitan i<strong>de</strong>ntificar, por ejemplo:• La importancia para la población beneficiaria y el contextoeconómico y social en el que se va a llevar a cabo.• La factibilidad y viabilidad financiera, técnica e institucional<strong>de</strong>l proyecto en la coyuntura y contexto en el que se preten<strong>de</strong>implementar.• La a<strong>de</strong>cuación <strong>de</strong>l diseño <strong>de</strong> la intervención a <strong>los</strong> objetivosque se preten<strong>de</strong>n alcanzar.• El grado <strong>de</strong> legitimación social que se le atribuye, etc.La evaluación ex-antese centra en el análisis<strong>de</strong> varias medidas ointervencionesalternativas para lasolución <strong>de</strong> unproblema <strong>de</strong>terminadoo la satisfacción <strong>de</strong><strong>de</strong>terminadascarencias/necesida<strong>de</strong>scolectivas❏ La evaluación intermediaSe lleva a cabo durante la ejecución <strong>de</strong>l programa aprovechandoel final <strong>de</strong> una etapa o fase <strong>de</strong>l mismo en la que ya se han<strong>de</strong>bido producir resultados significativos o que pue<strong>de</strong>n serrelevantes para retroalimentar la formulación y ejecución <strong>de</strong> lafase siguiente.Conviene distinguir la evaluación intermedia <strong>de</strong>l seguimiento<strong>de</strong>l programa. La evaluación intermedia tiene una fecha <strong>de</strong>comienzo y una duración que está previamente programada,mientras que el sistema <strong>de</strong> seguimiento se construye al inicio yse <strong>de</strong>sarrolla <strong>de</strong> forma continuada a lo largo <strong>de</strong> todo el programa.Del mismo modo, el seguimiento y la evaluación intermediadifieren en <strong>los</strong> términos <strong>de</strong> referencia a partir <strong>de</strong> <strong>los</strong> que se <strong>de</strong>sarrollany en sus usuarios finales; el seguimiento tiene, <strong>de</strong> formageneral, un carácter continuista y más vinculado al control y lagestión interna, mientras que la evaluación intermedia se <strong>de</strong>stinaa valorar <strong>de</strong> manera integral el estado <strong>de</strong> <strong>de</strong>sarrollo alcanzado.Por tanto, <strong>de</strong> <strong>los</strong> resultados, conclusiones y aprendizajes extraídosmediante la evaluación intermedia se preten<strong>de</strong> corregir ymejorar, en la medida <strong>de</strong> lo posible, el programa evaluado,adoptando una perspectiva integral <strong>de</strong>l mismo.La evaluaciónintermediase lleva a cabo durantela ejecución <strong>de</strong>lprogramaaprovechando el final<strong>de</strong> una etapa o fase <strong>de</strong>lmismo en la que ya sehan <strong>de</strong>bido producirresultadossignificativos❏ La evaluación finalComo su mismo nombre indica, se realiza en el momento en elque finaliza el programa. Esta evaluación se centra en analizar25


la consecución <strong>de</strong> <strong>los</strong> resultados y <strong>de</strong> <strong>los</strong> objetivos <strong>de</strong>l programa.A<strong>de</strong>más <strong>de</strong> emplear <strong>los</strong> diversos criterios <strong>de</strong> evaluación, alsituarse una vez finalizado el programa, <strong>los</strong> resultados, conclusionesy aprendizajes serán <strong>de</strong>finitivos y <strong>de</strong>ci<strong>de</strong>n el valor y elmérito <strong>de</strong> la intervención.❏ La evaluación ex-postEsta evaluación se realiza un tiempo <strong>de</strong>spués <strong>de</strong> finalizado elprograma. A<strong>de</strong>más <strong>de</strong> emplear <strong>los</strong> criterios <strong>de</strong> eficacia, eficiencia,pertinencia…, en esta fase se analiza <strong>de</strong> forma profundael impacto que ha producido, si ha resultado viable yqué tipo <strong>de</strong> efectos ha producido sobre la población i<strong>de</strong>ntificadaen un principio como beneficiaria, así como sobre elresto <strong>de</strong> la ciudadanía.Este tipo <strong>de</strong> evaluación <strong>de</strong>ci<strong>de</strong> normalmente la extensión/generalización<strong>de</strong> la intervención.La evaluación final secentra en analizar laconsecución <strong>de</strong> <strong>los</strong>resultados y <strong>de</strong> <strong>los</strong>objetivos <strong>de</strong>l programaCon la evaluaciónex-post se analiza <strong>de</strong>forma profunda elimpacto que haproducido laintervención y <strong>de</strong>ci<strong>de</strong>normalmente laextensión/generalización<strong>de</strong> la misma26


2. La evaluación <strong>de</strong> programasen la Unión EuropeaOrientaciones para proce<strong>de</strong>r a suorganización y diseño


2. La evaluación <strong>de</strong> programas enla Unión EuropeaOrientaciones para proce<strong>de</strong>r a suorganización y diseñoTeniendo en cuenta que la evaluación se ha constituido en parteintegrante <strong>de</strong>l diseño <strong>de</strong> las intervenciones públicas en el seno<strong>de</strong> la U.E. <strong>de</strong>stinada a conocer qué resultados tiene la accióngubernamental, qué efectos e impactos reales produce, etc. y que,paralelamente, el propio concepto <strong>de</strong> evaluación y su función evolucionan,el presente capítulo dirige la mirada a Europa y, más concretamente,al modo <strong>de</strong> organizar y diseñar un proceso óptimo para laevaluación <strong>de</strong> las intervenciones estructurales comunitarias 8 .2.1. MARCO GENERALLa evaluación <strong>de</strong> las intervenciones cofinanciadas por <strong>los</strong> fondosestructurales se enmarca en un entramado institucional complejo queconviene abordarlo, aunque sea <strong>de</strong> forma sucinta, por su influencia directaen la configuración <strong>de</strong> <strong>los</strong> <strong>procesos</strong> evaluativos.Como es sabido, estas intervenciones se inscriben en un marco <strong>de</strong>programación establecido para períodos <strong>de</strong> duración pre<strong>de</strong>terminada.Así, actualmente nos encontramos en el final <strong>de</strong>l período <strong>de</strong> programación1994-1999.Cada uno <strong>de</strong> <strong>los</strong> fondos estructurales tiene un ámbito <strong>de</strong> actuaciónpre<strong>de</strong>finido. A gran<strong>de</strong>s rasgos, el FEDER está vinculado a la cofinanciación<strong>de</strong> inversiones, el FSE a la inserción en el mercado <strong>de</strong> trabajoy la formación, el FEOGA-O al sector agrícola, gana<strong>de</strong>ro yforestal, y el IFOP al sector pesquero.Durante el período 1994-1999 <strong>los</strong> fondos estructurales se han configuradoen torno a <strong>los</strong> siguientes Objetivos Prioritarios:El presente capítulodirige la mirada aEuropa y, másconcretamente, almodo <strong>de</strong> organizar ydiseñar un procesoóptimo para laevaluación <strong>de</strong> lasintervencionesestructuralescomunitarias• Objetivo nº 1: Desarrollo y ajuste estructural <strong>de</strong> las regionesmenos <strong>de</strong>sarrolladas.• Objetivo nº 2: Reconversión <strong>de</strong> las regiones o zonas gravementeafectadas por el <strong>de</strong>clive industrial.• Objetivo nº 3: Lucha contra el paro <strong>de</strong> larga duración, inserciónprofesional <strong>de</strong> <strong>los</strong> jóvenes e integración <strong>de</strong> las personasexpuestas a la exclusión <strong>de</strong>l mercado laboral, promoción <strong>de</strong>la igualdad <strong>de</strong> oportunida<strong>de</strong>s entre hombres y mujeres en elmercado laboral.8. Se recogen las orientaciones emanadas <strong>de</strong> la Comisión Europea así como diversas aportacionesmetodológicas <strong>de</strong>sarrolladas en el marco <strong>de</strong>l Programa MEANS (Métodos <strong>de</strong> Evaluación <strong>de</strong> lasAcciones <strong>de</strong> Naturaleza Estructural).28


• Objetivo nº 4: Adaptación <strong>de</strong> <strong>los</strong> trabajadores a las mutacionesindustriales y a la evolución <strong>de</strong> <strong>los</strong> sistemas <strong>de</strong> producción.• Objetivo nº 5: Desarrollo rural mediante:• Objetivo 5a): La adaptación <strong>de</strong> las estructuras agrariasen el marco <strong>de</strong> la reforma <strong>de</strong> la PAC; mo<strong>de</strong>rnización yreestructuración <strong>de</strong> la pesca.• Objetivo 5b): El <strong>de</strong>sarrollo y ajuste estructural <strong>de</strong> laszonas rurales.En el <strong>de</strong>bate presupuestario que se viene <strong>de</strong>sarrollando durante<strong>los</strong> últimos meses <strong>de</strong> cara a la nueva configuración <strong>de</strong> <strong>los</strong> FondosEstructurales, y vista la necesidad <strong>de</strong> concentrar las ayudas paramejorar su eficacia, ha quedado planteada la necesidad <strong>de</strong> reducira tres el número <strong>de</strong> Objetivos Prioritarios.• Objetivo nº 1: Ayuda a las regiones menos <strong>de</strong>sarrolladas.• Objetivo nº 2: Reconversión económica y social <strong>de</strong> zonasindustriales, urbanas, rurales o pesqueras con importantes<strong>de</strong>ficiencias estructurales.La responsabilidad enmateria <strong>de</strong> evaluaciónen la U.E. correspon<strong>de</strong>tanto a la Comisióncomo a cada Estadomiembro.• Objetivo nº 3: Mejora <strong>de</strong> <strong>los</strong> sistemas <strong>de</strong> educación, formacióny empleo.• Institucionalización <strong>de</strong> la evaluaciónLa reforma <strong>de</strong> <strong>los</strong> Fondos Estructurales llevada a cabo en 1988introdujo la obligatoriedad <strong>de</strong> evaluar las políticas estructuraleseuropeas. En 1993 esta obligatoriedad queda reforzadamediante la reglamentación modificada resultante <strong>de</strong> la revisión<strong>de</strong> <strong>los</strong> Fondos Estructurales 1994-1999 y las cláusulasnormalizadas <strong>de</strong> <strong>los</strong> Marcos Comunitarios <strong>de</strong> Apoyo (MCA) y<strong>de</strong> <strong>los</strong> Documentos Únicos <strong>de</strong> Programación (DOCUP).La responsabilidad en materia <strong>de</strong> evaluación correspon<strong>de</strong> tantoa la Comisión como a cada Estado miembro. La Comisión presentaun informe trienal <strong>de</strong> evaluación sobre <strong>los</strong> progresos efectuadosen materia <strong>de</strong> cohesión social y económica y la contribución<strong>de</strong> <strong>los</strong> Fondos Estructurales a este objetivo fundamental.La Comisión presentaun informe trienal <strong>de</strong>evaluación sobre <strong>los</strong>progresos efectuadosen materia <strong>de</strong> cohesiónsocial y económica y lacontribución <strong>de</strong> <strong>los</strong>Fondos Estructurales aeste objetivofundamental• Concepción <strong>de</strong> la evaluaciónEn las principales disposiciones reglamentarias sobre <strong>los</strong>Fondos Estructurales 9 , la evaluación se <strong>de</strong>fine como una apreciación<strong>de</strong> la eficacia a tres niveles:9. Art. 6 <strong>de</strong>l Reglamento marco nº 2052/88 (modificado por el nº 2081/93) sobre las funciones<strong>de</strong> <strong>los</strong> fondos con finalidad estructural y la coordinación <strong>de</strong> sus intervenciones.29


a) el impacto <strong>de</strong>l conjunto <strong>de</strong> las acciones estructurales sobre<strong>los</strong> objetivos contemplados (Art. 130 A <strong>de</strong>l Tratado).b) el impacto <strong>de</strong>l conjunto <strong>de</strong> las acciones propuestas en <strong>los</strong>planes y empresas en cada marco comunitario <strong>de</strong> apoyo(MCA).c) el impacto específico <strong>de</strong> cada intervención operativa (programasy formas <strong>de</strong> intervención).En este sentido, el Reglamento <strong>de</strong> coordinación establece que,tanto en lo que concierne a la apreciación como a la evaluación,se utilicen <strong>los</strong> distintos elementos que pueda ofrecer elsistema <strong>de</strong> seguimiento para apreciar el efecto socioeconómico<strong>de</strong> las acciones, en su caso en estrecha colaboración con <strong>los</strong>Comités <strong>de</strong> Seguimiento. De esta forma, según proceda, laapreciación y la evaluación se <strong>de</strong>berán realizar comparando<strong>los</strong> objetivos con <strong>los</strong> resultados obtenidos atendiendo a:• Los objetivos e indicadores macroeconómicos y sectorialesbasados en datos regionales y nacionales.• Los datos generados por estudios analíticos y <strong>de</strong>scriptivos.• Los análisis <strong>de</strong> carácter cualitativo.• El Programa MEANSDes<strong>de</strong> 1994, el programa MEANS (Métodos <strong>de</strong> Evaluación <strong>de</strong>las Acciones <strong>de</strong> Naturaleza Estructural), promovido por laComisión Europea, ha contribuido <strong>de</strong>cisivamente a la difusión<strong>de</strong> la cultura evaluativa.El programa MEANS se establece con el objetivo <strong>de</strong> propiciarun <strong>de</strong>sarrollo metodológico uniforme y coherente a aplicar en<strong>los</strong> Estados miembros y la presentación <strong>de</strong> buenas prácticastransferibles.En principio, la diversa documentación metodológica producidaen el marco <strong>de</strong>l citado programa se llevará a textos pedagógicos<strong>de</strong>stinados a incrementar el nivel medio <strong>de</strong> la culturaevaluativa <strong>de</strong> las diversas administraciones nacionales yregionales.Está previsto que antes <strong>de</strong>l 2000 la Comisión publique una serie<strong>de</strong> informes sobre diversos aspectos metodológicos don<strong>de</strong> quedaránrecopiladas las aportaciones metodológicas producidas alo largo <strong>de</strong> estos años. Los documentos que se prevé publicarabordarán aspectos metodológicos como la selección y utiliza-La apreciación y laevaluación se <strong>de</strong>beránrealizar comparando<strong>los</strong> objetivos con <strong>los</strong>resultados obtenidosatendiendo a:• Los objetivos eindicadoresmacroeconómicos ysectoriales basados endatos regionales ynacionales.• Los datos generadospor estudios analíticosy <strong>de</strong>scriptivos.• Los análisis <strong>de</strong>carácter cualitativo.10. Reglamento nº 4253/88 modificado por el nº 2082/93.30


ción <strong>de</strong> <strong>los</strong> indicadores, las técnicas principales <strong>de</strong> evaluacióno la evaluación <strong>de</strong>l impacto producido por las intervenciones<strong>de</strong> naturaleza estructural sobre el medioambiente, el empleo yotra serie <strong>de</strong> ámbitos <strong>de</strong> actuación prioritarios en la políticacomunitaria. A la espera <strong>de</strong> estas publicaciones el seguimientopróximo efectuado por CIDEC <strong>de</strong> ésta y otras actuaciones llevadasa cabo por la Comisión permiten presentar una serie <strong>de</strong>avances importantes.2.2. CÓMO ORGANIZAR EL PROCESO DE EVALUA-CIÓNLa organización y el diseño <strong>de</strong>l proceso <strong>de</strong> evaluación resultaclave para el buen fin <strong>de</strong> la misma y la obtención <strong>de</strong> resultados útilesy fiables. En <strong>los</strong> últimos años, <strong>de</strong>s<strong>de</strong> las instancias comunitarias,se han producido avances substanciales en el <strong>de</strong>sarrollo metodológicoy en el establecimiento <strong>de</strong> orientaciones comunes.Buena parte <strong>de</strong> las aportaciones efectuadas en el marco <strong>de</strong>lPrograma MEANS 11 están orientadas hacia la <strong>de</strong>finición <strong>de</strong>l importantepapel que <strong>de</strong>ben jugar <strong>los</strong> gestores <strong>de</strong> <strong>los</strong> programas y las autorida<strong>de</strong>sque tiene la facultad <strong>de</strong> <strong>de</strong>cidir la puesta en marcha <strong>de</strong> unproceso evaluativo para que éste pueda <strong>de</strong>sarrollarse, <strong>de</strong>s<strong>de</strong> sucomienzo, <strong>de</strong> forma óptima.El punto <strong>de</strong> partida sobre el que <strong>de</strong>be construirse el proceso <strong>de</strong>evaluación pasa porque <strong>los</strong> responsables y gestores <strong>de</strong> <strong>los</strong> programastengan una i<strong>de</strong>a clara y realista <strong>de</strong> las expectativas que pue<strong>de</strong>n <strong>de</strong>positaren dicho proceso y <strong>de</strong> cómo pue<strong>de</strong>n ser utilizados <strong>los</strong> resultadosy las conclusiones que <strong>de</strong>l mismo se <strong>de</strong>riven.Del mismo modo, la organización <strong>de</strong>l proceso <strong>de</strong>be partir <strong>de</strong> la diversidad<strong>de</strong> actores implicados en <strong>los</strong> diferentes niveles <strong>de</strong> responsabilidady ejecución, siendo consistente con el carácter <strong>de</strong> partenariado <strong>de</strong> lasintervenciones comunitarias, tanto en su vertiente vertical o <strong>de</strong> financiación12 como en su vertiente horizontal 13 . De esta forma, se <strong>de</strong>beráimplicar en el proceso <strong>de</strong> evaluación a las diversas partes procurando suparticipación en el seno <strong>de</strong>l Grupo <strong>de</strong> Pilotaje <strong>de</strong>l Programa.El punto <strong>de</strong> partidasobre el que <strong>de</strong>beconstruirse el proceso<strong>de</strong> evaluación pasaporque <strong>los</strong>responsables y gestores<strong>de</strong> <strong>los</strong> programastengan una i<strong>de</strong>a clara yrealista <strong>de</strong> lasexpectativas quepue<strong>de</strong>n <strong>de</strong>positar endicho proceso y <strong>de</strong>cómo pue<strong>de</strong>n serutilizados <strong>los</strong>resultados y lasconclusiones que <strong>de</strong>lmismo se <strong>de</strong>riven11. En esta dirección se enmarcarían el manual nº 1 “Organising Intermediate Evaluation in thecontext of Parthership” (1995) y el nº 5 “Quality Assessment of Evalaution Reports: aFramework” (1996).12. Generalmente compuesta por la Comisión, las autorida<strong>de</strong>s nacionales y las autorida<strong>de</strong>s regionalesy locales.13. En la que se incluyen aquel<strong>los</strong> actores que pue<strong>de</strong>n intervenir legítimamente en la <strong>de</strong>finicióno implementación <strong>de</strong> <strong>los</strong> programas.31


PARTENARIADO VERTICALFigura 1PARTENARIADO VERTICAL Y HORIZONTALResponsablesAutorida<strong>de</strong>snacionalesAutorida<strong>de</strong>slocalesAgentessocialesGrupo <strong>de</strong>PilotajeSectorprivadoPARTENARIADO HORIZONTAL2.3. LAS ETAPAS BÁSICAS Y SU CONTENIDODes<strong>de</strong> la perspectiva <strong>de</strong>l gestor <strong>de</strong>l programa, la organización <strong>de</strong>la evaluación cabe estructurarla en cinco etapas básicas que aparecenreflejadas en el siguiente esquema y cuyo contenido se <strong>de</strong>tallamás a<strong>de</strong>lante.Figura 2ETAPAS BÁSICAS DE LA EVALUACIÓNFASE AMandato <strong>de</strong> evaluacióny estructuración <strong>de</strong>l procesoLa organización <strong>de</strong>lproceso <strong>de</strong>be partir<strong>de</strong> la diversidad <strong>de</strong>actores implicadosen <strong>los</strong> diferentesniveles <strong>de</strong>responsabilidad yejecución, siendoconsistente con elcarácter <strong>de</strong>partenariado <strong>de</strong> lasintervencionescomunitarias, tantoen su vertientevertical o <strong>de</strong>financiación 12 comoen su vertientehorizontalFASE BPreparación <strong>de</strong> <strong>los</strong> términos <strong>de</strong>referencia y convocatoria <strong>de</strong>l concursoFASE CSelección <strong>de</strong> evaluadoresy plan <strong>de</strong> evaluaciónFASE DGestión <strong>de</strong> la evaluacióny <strong>de</strong> su calidadFASE EDifusión y puesta en práctica<strong>de</strong> <strong>los</strong> resultados32


2.3.1. Fase A : Mandato <strong>de</strong> Evaluación y Estructuración<strong>de</strong>l ProcesoUno <strong>de</strong> <strong>los</strong> factores fundamentales para lograr el éxito en el proceso<strong>de</strong> evaluación resi<strong>de</strong> en conseguir la implicación <strong>de</strong> <strong>los</strong> diversosagentes concernidos. Una a<strong>de</strong>cuada estructura organizativa y laelaboración <strong>de</strong> un mandato <strong>de</strong> evaluación en el que dichos agentesi<strong>de</strong>ntifiquen la información y las cuestiones que requieren ser evaluadasa lo largo <strong>de</strong>l proceso constituyen <strong>los</strong> elementos centrales <strong>de</strong>esta fase.A1. Formulación <strong>de</strong> un mandato <strong>de</strong> evaluaciónDon<strong>de</strong> se clarifiquen las orientaciones, priorida<strong>de</strong>s y responsabilida<strong>de</strong>s<strong>de</strong>l proceso <strong>de</strong> evaluación, i<strong>de</strong>ntificando:• Quién es el responsable <strong>de</strong> la organización y <strong>de</strong>l <strong>de</strong>sarrollo <strong>de</strong>lproceso.• Cuáles van a ser las cuestiones clave que <strong>de</strong>berán abordarse yse incluirán en <strong>los</strong> términos <strong>de</strong> referencia, diferenciando claramentela evaluación <strong>de</strong>l sistema <strong>de</strong> seguimiento y sus correspondientescontenidos.Este mandato formalizado por escrito constituye un elementofundamental para dotar <strong>de</strong> mayor credibilidad a la evaluación y promoverel diálogo siempre que se formule <strong>de</strong> forma consensuadamediante la participación <strong>de</strong> <strong>los</strong> diversos actores. Del mismo modo,el mandato se configura como el documento que va a servir <strong>de</strong> referentepara la propia evaluación <strong>de</strong>l trabajo <strong>de</strong> <strong>los</strong> evaluadores.A2. I<strong>de</strong>ntificación <strong>de</strong> <strong>los</strong> objetivos y <strong>de</strong> las cuestiones a las que sepreten<strong>de</strong> dar respuesta mediante la evaluaciónPara po<strong>de</strong>r <strong>de</strong>sarrollar <strong>los</strong> términos <strong>de</strong> referencia <strong>de</strong> la fasesiguiente, las cuestiones que hayan sido incluidas en el mandato<strong>de</strong>ben quedar concretadas y <strong>de</strong>talladas, atendiendo a las implicacionesmetodológicas que las mismas conllevan.A3. Estructuración <strong>de</strong>l procesoDe cara al seguimiento específico <strong>de</strong>l proceso <strong>de</strong> evaluación esconveniente establecer un grupo <strong>de</strong> trabajo formado a partir <strong>de</strong>lpropio Grupo <strong>de</strong> Pilotaje que actúe como Subcomité <strong>de</strong> evaluación.En él tomarán parte no sólo <strong>los</strong> miembros <strong>de</strong>l propio Grupo <strong>de</strong>Pilotaje sino también expertos en metodologías <strong>de</strong> evaluación, asesoresexternos, etc.Este subcomité permitirá:Uno <strong>de</strong> <strong>los</strong> factoresfundamentales paralograr el éxito en elproceso <strong>de</strong> evaluaciónresi<strong>de</strong> en conseguir laimplicación <strong>de</strong> <strong>los</strong>diversos agentesconcernidosadoptando unaa<strong>de</strong>cuada estructuraorganizativa y unmandato <strong>de</strong> evaluacióndon<strong>de</strong> se clarifiquenlas orientaciones,priorida<strong>de</strong>s yresponsabilida<strong>de</strong>s <strong>de</strong>lproceso evaluativo33


• Involucrar más activamente al Grupo <strong>de</strong> Pilotaje en el proceso<strong>de</strong> evaluación.• Liberar a <strong>los</strong> responsables <strong>de</strong> <strong>los</strong> programas <strong>de</strong> una excesiva responsabilida<strong>de</strong>n la organización <strong>de</strong> la evaluación.• Integrar la aportación técnica <strong>de</strong> <strong>los</strong> expertos externos.2.3.2. Fase B: Elaboración <strong>de</strong> <strong>los</strong> Términos <strong>de</strong> Referenciay Convocatoria <strong>de</strong>l ConcursoCon el fin <strong>de</strong> garantizar que las cuestiones a evaluar resultan suficientementerelevantes y precisas conviene dar contenido a <strong>los</strong>siguientes aspectos: en primer término, la i<strong>de</strong>ntificación <strong>de</strong> las relacionesexistentes entre <strong>los</strong> objetivos; en segundo lugar, la elaboración<strong>de</strong> <strong>los</strong> términos <strong>de</strong> referencia para la convocatoria <strong>de</strong>l concurso.B1. I<strong>de</strong>ntificación <strong>de</strong> <strong>los</strong> objetivos y <strong>de</strong> las relaciones implícitas adiversos nivelesResulta muy recomendable que la formulación <strong>de</strong> <strong>los</strong> objetivosincluya su estructuración en diferentes niveles jerárquicos, i<strong>de</strong>ntificandolas relaciones causa-efecto existentes entre dichos objetivos.Ello va a permitir:• Clarificar las relaciones causa-efecto implícitas y explícitas que<strong>de</strong>ben ser tenidas especialmente en cuenta en la evaluación.• I<strong>de</strong>ntificar <strong>los</strong> puntos don<strong>de</strong> van a interactuar <strong>los</strong> efectos provocadospor las diversas medidas y subprogramas.Con el fin <strong>de</strong> garantizarque las cuestiones aevaluar resultansuficientementerelevantes y precisas,conviene darcontenido a lasrelaciones existentesentre objetivos y a <strong>los</strong>términos <strong>de</strong> referenciaque guiarán el procesoevaluativo• Establecer puentes entre <strong>los</strong> objetivos <strong>de</strong> <strong>los</strong> subprogramas y <strong>los</strong>programas.• Clarificar <strong>los</strong> objetivos <strong>de</strong>finidos al inicio <strong>de</strong>l programa y cómohan ido variando a lo largo <strong>de</strong> su implementación.B2. Elaboración <strong>de</strong> <strong>los</strong> términos <strong>de</strong> referencia y convocatoria <strong>de</strong>lconcurso <strong>de</strong> tal forma que se presenten propuestas metodológicamentea<strong>de</strong>cuadasEl contenido <strong>de</strong> <strong>los</strong> términos <strong>de</strong> referencia <strong>de</strong>be incluir una serie<strong>de</strong> aspectos básicos.Introducción: breve caracterización <strong>de</strong>l programa a evaluar y <strong>de</strong>sus objetivos principales.La normativa sobre la que se sustenta el proceso <strong>de</strong> evaluación allevar a cabo.Una sucinta, pero completa, <strong>de</strong>scripción <strong>de</strong>l programa a evaluar:34


• Cuáles son <strong>los</strong> problemas económicos y sociales que motivaronsu puesta en marcha.• Cuáles son <strong>los</strong> objetivos <strong>de</strong>l programa.• Cuáles son <strong>los</strong> efectos que se esperan obtener <strong>de</strong>l mismo.• Cuáles son sus beneficiarios.• Cómo va a ser implementada la evaluación.Breve <strong>de</strong>scripción <strong>de</strong> la estructura organizacional que acompañaa la evaluación, especificando:• Las relaciones estructurales con el Grupo <strong>de</strong> Pilotaje.• Las funciones que <strong>de</strong>be <strong>de</strong>sarrollar el equipo evaluador.• Los procedimientos requeridos para asegurar que <strong>los</strong> resultados<strong>de</strong> la evaluación sean discutidos y difundidos convenientemente.El contenido <strong>de</strong> la evaluación en términos <strong>de</strong> pertinencia, eficacia,eficiencia, coherencia, impactos, mecanismos <strong>de</strong> gestión, etc.Una aproximación al plan <strong>de</strong> trabajo que incluya consi<strong>de</strong>racionesrelativas al enfoque a seguir en la evaluación, métodos <strong>de</strong> evaluación,herramientas <strong>de</strong> análisis, duración <strong>de</strong>l proceso, productosesperados, presupuesto, etc.Por último, se <strong>de</strong>berán incluir <strong>los</strong> criterios que van a ser empleadospara la selección <strong>de</strong>l equipo evaluador.2.3.3. Fase C: Selección <strong>de</strong> Evaluadores y Elaboración<strong>de</strong>l Plan <strong>de</strong> EvaluaciónLa calidad <strong>de</strong> la evaluación <strong>de</strong>pen<strong>de</strong>, en buena medida, <strong>de</strong> tres factores:la capacidad <strong>de</strong>l Grupo <strong>de</strong> Pilotaje para especificar a<strong>de</strong>cuadamentesus necesida<strong>de</strong>s y expectativas en torno a la evaluación, la <strong>de</strong>signación<strong>de</strong> un equipo <strong>de</strong> evaluadores cualificado y el establecimiento <strong>de</strong>una comunicación fluida entre el Grupo <strong>de</strong> Pilotaje y <strong>los</strong> evaluadores.Esta relación comienza por la selección y la <strong>de</strong>finición conjunta<strong>de</strong> un plan <strong>de</strong> trabajo <strong>de</strong>tallado que va a permitir ahorrar tiempo yesfuerzos más a<strong>de</strong>lante e incrementar la credibilidad y aplicabilidad<strong>de</strong>l informe final <strong>de</strong> la evaluación.C1. Realizar una óptima selección <strong>de</strong> <strong>los</strong> evaluadores, para lo quese requiere asegurar que:El contenido <strong>de</strong> <strong>los</strong>términos <strong>de</strong> referenciadibujan el marco guíapara el <strong>de</strong>sarrollo <strong>de</strong>lcorrespondiente plan<strong>de</strong> evaluación• Las metodologías propuestas se ajustan a las cuestiones que se<strong>de</strong>sean evaluar.35


• El Grupo <strong>de</strong> Pilotaje se involucra en la selección <strong>de</strong>finitiva <strong>de</strong><strong>los</strong> evaluadores.• La in<strong>de</strong>pen<strong>de</strong>ncia <strong>de</strong> <strong>los</strong> evaluadores, garantizando su no vinculacióncon la formulación <strong>de</strong>l programa y su implementación.C2. Concretar <strong>los</strong> términos <strong>de</strong> referencia en un plan <strong>de</strong> evaluacióncoherente, pasa por:• Formular un cronograma <strong>de</strong> la evaluación que se ajuste a <strong>los</strong>momentos clave <strong>de</strong>l ciclo <strong>de</strong>l programa.• Establecer <strong>los</strong> criterios para la selección <strong>de</strong> las medidas y subprogramasque <strong>de</strong>ben ser evaluados en profundidad y el momentoen que <strong>de</strong>berán realizarse.• Llegar a un acuerdo sobre el formato <strong>de</strong>l informe final <strong>de</strong> evaluación.• Lograr que el Grupo <strong>de</strong> Pilotaje vali<strong>de</strong> el plan <strong>de</strong> trabajo <strong>de</strong>sarrollado.2.3.4. Fase D: Gestión <strong>de</strong>l Proceso y Evaluación <strong>de</strong> su CalidadCualquier tipo <strong>de</strong> evaluación requiere <strong>de</strong> un contacto fluido y permanenteentre <strong>los</strong> evaluadores y el Grupo <strong>de</strong> Pilotaje o el subcomitécreado al efecto. Para ello, una vez iniciado el proceso <strong>de</strong> evaluación,<strong>los</strong> responsables <strong>de</strong>l programa <strong>de</strong>ben:D1. Gestionar la evaluación como un proceso <strong>de</strong> diálogo y adaptacióncontinúa, lo que implica:La calidad <strong>de</strong> laevaluación <strong>de</strong>pen<strong>de</strong>,en buena medida, <strong>de</strong>tres factores: lacapacidad <strong>de</strong>l Grupo<strong>de</strong> Pilotaje paraespecificara<strong>de</strong>cuadamente susnecesida<strong>de</strong>s yexpectativas en torno ala evaluación, la<strong>de</strong>signación <strong>de</strong> unequipo <strong>de</strong> evaluadorescualificado y elestablecimiento <strong>de</strong> unacomunicación fluidaentre el Grupo <strong>de</strong>Pilotaje y <strong>los</strong>evaluadores• Mantener a <strong>los</strong> miembros <strong>de</strong>l Grupo <strong>de</strong> Pilotaje informados <strong>de</strong><strong>los</strong> avances experimentados por el proceso <strong>de</strong> evaluación.• Asegurar que la evaluación se realiza conforme a <strong>los</strong> términos<strong>de</strong> referencia y al plan <strong>de</strong> evaluación establecido.• Controlar el cumplimiento <strong>de</strong>l cronograma.• Reservar un tiempo para la incorporación <strong>de</strong> sugerencias y observacionesen <strong>los</strong> informes entregados por el equipo evaluador.• Verificar la metodología empleada a lo largo <strong>de</strong>l proceso <strong>de</strong> evaluación.D2. Evaluar la calidad <strong>de</strong>l proceso <strong>de</strong> evaluación, lo que implica:• Verificar que <strong>los</strong> criterios <strong>de</strong> objetividad e in<strong>de</strong>pen<strong>de</strong>ncia hansido respetados.36


• Asegurar que se han cumplido <strong>los</strong> términos <strong>de</strong> referencia y, encaso contrario, justificar <strong>los</strong> cambios realizados.• Animar a lo evaluadores a presentar sus resultados <strong>de</strong> formaque resulten útiles para <strong>los</strong> responsables <strong>de</strong>l programa.Criterios para evaluar la calidad <strong>de</strong> la evaluaciónLa valoración cualitativa <strong>de</strong> <strong>los</strong> resultados <strong>de</strong> una evaluaciónquedará articulada en torno a <strong>los</strong> siguientes criterios (ProgramaMEANS):Grado <strong>de</strong> cumplimiento <strong>de</strong> las necesida<strong>de</strong>s expresadas¿La evaluación cumple con las necesida<strong>de</strong>s <strong>de</strong> información <strong>de</strong>lGrupo <strong>de</strong> Pilotaje y se ajusta a <strong>los</strong> términos <strong>de</strong> referencia?Enfoque relevante¿Se evalúan sistemáticamente <strong>los</strong> resultados, realizaciones eimpactos producidos por el programa, incluyendo <strong>los</strong> efectosprevistos y no previstos, así como las interacciones con otrosprogramas y políticas similares?Gestionar la evaluacióncomo un proceso <strong>de</strong>diálogo y adaptacióncontinua y evaluar lapropia calidad <strong>de</strong>lproceso evaluativo <strong>de</strong>acuerdo a criteriosestablecidos sonetapas que, por sutrascen<strong>de</strong>ncia, se<strong>de</strong>stacan sobre el restoDiseño apropiado¿Resulta a<strong>de</strong>cuado el diseño implementado en la evaluacióncara a asegurar que las conclusiones alcanzadas permiten respon<strong>de</strong>ra las principales cuestiones planteadas?Fiabilidad <strong>de</strong> <strong>los</strong> datos recopilados y procesados¿Hasta qué punto <strong>los</strong> datos recogidos y seleccionados, resultanapropiados y ofrecen un nivel <strong>de</strong> fiabilidad suficiente?Análisis apropiado¿Resulta a<strong>de</strong>cuada y sistemáticamente analizada la informacióncuantitativa y cualitativa, <strong>de</strong> forma que las cuestiones <strong>de</strong>la evaluación son respondidas correctamente?Resultados fiables¿Se pue<strong>de</strong> afirmar que <strong>los</strong> resultados y las conclusiones <strong>de</strong> laevaluación se fundamentan y justifican a partir <strong>de</strong> análisis einterpretaciones basadas en hipótesis lógicas y cuidadosamente<strong>de</strong>scritas?Conclusiones imparciales¿Las conclusiones obtenidas resultan justas, imparciales, noinfluidas por la opinión <strong>de</strong> <strong>los</strong> diversos actores y suficientemente<strong>de</strong>talladas para po<strong>de</strong>r ser aplicadas?37


Claridad expositiva <strong>de</strong>l informe¿El informe <strong>de</strong>scribe claramente el contexto y el propósito <strong>de</strong>lprograma evaluado, incluyendo <strong>los</strong> procedimientos y resultados<strong>de</strong> la evaluación, <strong>de</strong> manera que la información provista puedaser comprendida fácilmente?2.3.5. Fase E: Difusión <strong>de</strong> Resultados y Puesta en PrácticaLa difusión <strong>de</strong> <strong>los</strong> resultados alcanzados tras el proceso <strong>de</strong> evaluación<strong>de</strong>be aten<strong>de</strong>r a dos criterios básicos: transparencia y confi<strong>de</strong>ncialidad.E1. Difusión <strong>de</strong> <strong>los</strong> resultados <strong>de</strong> la evaluación.• Todos <strong>los</strong> miembros <strong>de</strong>l Grupo <strong>de</strong> Pilotaje <strong>de</strong>ben recibir elinforme completo <strong>de</strong> la evaluación.• Cualquier difusión <strong>de</strong>l informe o <strong>de</strong> sus resultados más allá <strong>de</strong>lpropio Grupo <strong>de</strong> Pilotaje, <strong>de</strong>be ser aprobado previamente poreste grupo <strong>de</strong> forma que se asegure la confi<strong>de</strong>ncialidad y laconfianza mutua.• Los evaluadores <strong>de</strong>ben generar diferentes tipos <strong>de</strong> documentosadaptados a <strong>los</strong> diversos tipos <strong>de</strong> audiencia, sin alterar la integridad<strong>de</strong> su trabajo.• Debe tomarse en consi<strong>de</strong>ración la posibilidad <strong>de</strong> utilizar otrosmedios <strong>de</strong> difusión a<strong>de</strong>más <strong>de</strong> <strong>los</strong> tradicionales tales como conferencias,seminarios, vi<strong>de</strong>os, etc., <strong>de</strong> forma que se facilite ladifusión horizontal entre <strong>los</strong> grupos objetivo.E2. Utilización óptima <strong>de</strong> <strong>los</strong> resultados <strong>de</strong> la evaluación, para loque conviene asegurarse <strong>de</strong> que:• Las conclusiones y <strong>los</strong> juicios <strong>de</strong> valor que aparecen en el informese sustentan en evi<strong>de</strong>ncias suficientemente i<strong>de</strong>ntificadas enel mismo.La difusión <strong>de</strong> <strong>los</strong>resultados alcanzadostras el proceso <strong>de</strong>evaluación <strong>de</strong>beaten<strong>de</strong>r a dos criteriosbásicos: transparenciay confi<strong>de</strong>ncialidad.• Las conclusiones incluyen referencias directas a las <strong>de</strong>cisionesque se <strong>de</strong>ben tomar sobre la reprogramación y la redistribución<strong>de</strong> <strong>los</strong> fondos.2.4. ARTICULAR EL CONTROL, SEGUIMIENTO YEVALUACIÓNDe forma adicional a <strong>los</strong> avances metodológicos realizados en elmarco <strong>de</strong>l Programa MEANS, la propia Comisión establece en38


1996 14 una serie <strong>de</strong> orientaciones comunes para llevar a a cabo elseguimiento y las evaluaciones intermedias principalmente.Se ha procedido a su examen y a sintetizar <strong>los</strong> aspectos másrelevantes <strong>de</strong> las mismas. Estas orientaciones comunes <strong>de</strong>benenten<strong>de</strong>rse como el marco <strong>de</strong> referencia sobre el que construirmo<strong>de</strong><strong>los</strong> y <strong>procesos</strong> evaluativos concretos. En este sentido, seapunta explícitamente la necesidad <strong>de</strong> combinar la flexibilidad <strong>de</strong><strong>los</strong> métodos <strong>de</strong> seguimiento y evaluación con su coherencia interna.Para ello, conviene utilizar estas orientaciones <strong>de</strong> forma rigurosapero flexible, en función <strong>de</strong> las realida<strong>de</strong>s específicas <strong>de</strong> lasdistintas regiones o Estados miembros concernidos. La siguienteFigura visualiza cómo se plantea la articulación entre el control,seguimiento y la evaluación.Estas orientacionescomunes <strong>de</strong>benenten<strong>de</strong>rse como elmarco <strong>de</strong> referenciasobre el que construirmo<strong>de</strong><strong>los</strong> y <strong>procesos</strong>evaluativos concretosFigura 3ARTICULAR EL CONTROL, SEGUIMIENTO Y EVALUACIÓNMediosInputControlRealizacionesOutputSeguimiento (<strong>de</strong> gestión)Evaluación (<strong>de</strong> <strong>los</strong> efectos)RepercusionesOutcomeReferentesConformidad a <strong>los</strong>textos administrativosNormas <strong>de</strong> buenagestiónSatisfacción <strong>de</strong> laciudadaníaEn términos <strong>de</strong> contenido <strong>de</strong> la evaluación, ésta <strong>de</strong>berá articularse<strong>de</strong> forma coherente a la estructura <strong>de</strong> <strong>los</strong> programas comunitarios,haciendo correspon<strong>de</strong>r a cada ámbito o elemento <strong>de</strong>l programa (objetivos,medios, realizaciones) unos criterios <strong>de</strong> evaluación específicos.La Figura 4 esquematiza las relaciones que se pue<strong>de</strong>n establecer parajuzgar el valor <strong>de</strong> un programa.2.4.1. La lógica <strong>de</strong> la programación y su inci<strong>de</strong>ncia en elseguimiento y la evaluaciónLa propia programación <strong>de</strong> las intervenciones cofinanciadas por<strong>los</strong> Fondos Estructurales presenta una articulación en “cascada” quepreten<strong>de</strong> facilitar su seguimiento y evaluación.La programación se realiza a partir <strong>de</strong> un cierto número <strong>de</strong> hipótesisque permiten esperar que las acciones planificadas van a producir<strong>de</strong>terminados resultados y generar <strong>de</strong>terminado tipo <strong>de</strong> impactos.Así, las intervenciones se programan:14. Orientaciones comunes para el seguimiento y las evaluaciones intermedias.ComisiónEuropea.39


Figura 4JUZGAR EL VALOR DE UN PROGRAMASOCIEDADACCIÓN PÚBLICANECESIDADESP e r t i n e n c i aOBJETIVOSESPECÍFICOSGLOBALESU t i l i d a dRESULTADOSE f i c a c i aE f i c i e n c i aE f i c a c i aMEDIOSRECURSOSINTERVENCIONESREALIZACIONESEFECTOS-IMPACTOS• En un contexto <strong>de</strong>terminado y atendiendo a un objetivo globalque ofrece la perspectiva básica <strong>de</strong>s<strong>de</strong> la que <strong>de</strong>berán implementarselas intervenciones.• Este objetivo global supone la consecución <strong>de</strong> una serie <strong>de</strong> objetivosespecíficos que permiten precisar la naturaleza y características<strong>de</strong> las intervenciones a realizar.• La ejecución <strong>de</strong> estas intervenciones implica la realización concreta<strong>de</strong> un cierto número <strong>de</strong> acciones que, a su vez, van a produciruna serie <strong>de</strong> resultados que <strong>de</strong>ben permitir alcanzar <strong>los</strong>objetivos específicos programados.En las Figuras 5 y 6 se esquematizan las etapas <strong>de</strong> esta lógica y suaplicación a una intervención concreta en el ámbito <strong>de</strong> <strong>los</strong> recursoshumanos:El objetivo básico que se asigna al sistema <strong>de</strong> seguimiento <strong>de</strong> <strong>los</strong>programas consiste en verificar con regularidad su realización progresivay efectiva, tanto física como financiera, así como su impacto respectoa <strong>los</strong> objetivos prefijados. Como refuerzo al sistema <strong>de</strong> seguimientolas evaluaciones intermedias <strong>de</strong>ben aportar un juicio crítico sobre <strong>los</strong>resultados obtenidos y contribuir, con regularidad, a una gestión eficaz.El objetivo básico quese asigna al sistema <strong>de</strong>seguimiento <strong>de</strong> <strong>los</strong>programas consiste enverificar conregularidad surealización progresivay efectiva, tanto físicacomo financiera, asícomo su impactorespecto a <strong>los</strong>objetivos prefijados40


Figura 5SEGUIMIENTOREALIZACIÓN(Ejecución financiera)(Realizaciones físicas)Resultados(Efectos directos o inmediatos)(Calidad, rendimiento)Impacto específicoImpacto globalFigura 6INTERVENCIÓN EN RECURSOS HUMANOSIntervenciónDescripciónRealizaciónResultadosCursos <strong>de</strong> formaciónNúmero <strong>de</strong> beneficiarios que han finalizadoy superado la acción <strong>de</strong> formaciónObjetivo específicoObjetivo globalPerfiles mejor adaptados a las necesida<strong>de</strong>s<strong>de</strong>l mercado laboralIncremento <strong>de</strong> empleabilidadDe esta forma, el seguimiento <strong>de</strong>l programa sigue la lógicaesquematizada:• Las acciones realizadas, consumidoras <strong>de</strong> una cantidad<strong>de</strong>terminada <strong>de</strong> recursos, producen unos resultados o efectosdirectos con <strong>los</strong> que juzgar el rendimiento o calidad <strong>de</strong> lasmismas.A la hora <strong>de</strong> evaluar <strong>los</strong>impactos generadospor el programaconviene tenerpresente que éstos noson ni mecánicos niautomáticos y pue<strong>de</strong>nhaberse vistoafectados por factores<strong>de</strong> inci<strong>de</strong>ncia externosal propio programa• Los resultados generan un impacto que <strong>de</strong>be contrastarse con<strong>los</strong> objetivos específicos prefijados.• Estos impactos coadyuvan a la generación <strong>de</strong> un impacto globalque es el que <strong>de</strong>be compararse con el objetivo global propuestoen el programa.41


A la hora <strong>de</strong> evaluar <strong>los</strong> impactos generados por el programa convienetener presente que éstos no son ni mecánicos ni automáticos ypue<strong>de</strong>n haberse visto afectados por factores <strong>de</strong> inci<strong>de</strong>ncia externos alpropio programa. En este sentido, se apunta el interés <strong>de</strong> comprobarpor el sistema <strong>de</strong> seguimiento las relaciones <strong>de</strong> causalidad (indicadores)entre las acciones y <strong>los</strong> resultados, así como entre <strong>los</strong> resultadosy <strong>los</strong> impactos.En las intervenciones cofinanciadas por <strong>los</strong> FondosEstructurales este esquema lógico <strong>de</strong> articulación en cascada sematerializa en base a <strong>los</strong> diversos niveles <strong>de</strong> programación que configuranel marco <strong>de</strong> apoyo comunitario (MCA), estableciendo unosejes prioritarios <strong>de</strong> actuación. Cada eje pue<strong>de</strong> exigir la puesta enmarcha <strong>de</strong> cierto número <strong>de</strong> programas operativos y, a su vez, cadaprograma diversas medidas que <strong>de</strong>ben permitir alcanzar <strong>los</strong> objetivosplanteados en el programa. 15De esta forma, en sentido <strong>de</strong>scen<strong>de</strong>nte, <strong>los</strong> objetivos específicos <strong>de</strong>un nivel <strong>de</strong>ben servir como marco <strong>de</strong> referencia global para la intervenciónen el nivel inferior y constituyen su objetivo básico, mientrasque <strong>los</strong> resultados esperados <strong>de</strong> un <strong>de</strong>terminado nivel constituyen <strong>los</strong>objetivos específicos que han <strong>de</strong> alcanzarse con la intervención en elnivel inferior.A la inversa, en sentido ascen<strong>de</strong>nte, <strong>los</strong> objetivos específicos <strong>de</strong> unnivel constituyen <strong>los</strong> resultados que se espera conseguir en el nivelsuperior y, <strong>de</strong>l mismo modo, el objetivo global <strong>de</strong> un nivel es contribuira la consecución <strong>de</strong>l objetivo específico <strong>de</strong>l nivel superior.En la Figura 7 se incluye un ejemplo práctico que concreta estaarticulación por niveles tomando como referente el eje “competitividad<strong>de</strong> las empresas”. La competitividad empresarial es uno <strong>de</strong> <strong>los</strong>resultados necesarios para que el MCA alcance sus objetivos, pero estambién:En sentido<strong>de</strong>scen<strong>de</strong>nte, <strong>los</strong>objetivos específicos<strong>de</strong> un nivel <strong>de</strong>benservir como marco <strong>de</strong>referencia global parala intervención en elnivel inferior yconstituyen su objetivobásico, mientras que<strong>los</strong> resultadosesperados <strong>de</strong> un<strong>de</strong>terminado nivelconstituyen <strong>los</strong>objetivos específicosque han <strong>de</strong> alcanzarsecon la intervención enel nivel inferior• El objetivo específico <strong>de</strong>l eje correspondiente• El objetivo global <strong>de</strong> un programa operativo dirigido a reforzar<strong>los</strong> servicios tecnológicos a las empresa.La aplicación <strong>de</strong> este lógica <strong>de</strong> intervención no es sencilla y <strong>de</strong>berealizarse caso a caso, teniendo en cuenta <strong>los</strong> recursos movilizados yla propia complejidad <strong>de</strong> las intervenciones.15. Del mismo modo, en algunos casos se establecen subprogramas como una categoría <strong>de</strong> programaciónintermedia entre el Programa y las medidas <strong>de</strong>l mismo.42


Figura 7EJEMPLO DE ARTICULACIÓN “EN CASCADA” DE OBJETIVOS, RESULTADOSY REALIZACIONESMarco comunitario<strong>de</strong> apoyoEje prioritarioCompetitividad <strong>de</strong>las empresasPrograma operativoServiciosTecnológicos <strong>de</strong> lasempresasMedidaREDCentros TecnológicosObjetivo GlobalContribuir a la mo<strong>de</strong>rnizacióneconómica <strong>de</strong>lpaís consolidando unaeconomía dinámica,abierta y competitiva.Objetivo GlobalReducir lasdisparida<strong>de</strong>s y <strong>los</strong> retrasos<strong>de</strong> <strong>de</strong>sarrollo y mejorarla cohesión económicay socialObjetivo GlobalMejorar lacompetitividad <strong>de</strong> lasempresas.Objetivo GlobalReforzamiento <strong>de</strong> <strong>los</strong>servicios tecnológicosa las empresas.Objetivo EspecíficoReducir lasdisparida<strong>de</strong>s y <strong>los</strong> retrasos<strong>de</strong> <strong>de</strong>sarrollo y mejorarla cohesión económicay social (Objetivonº 1)Objetivo EspecíficoMejorar lacompetitividad <strong>de</strong> lasempresas.Objetivo EspecíficoReforzamiento <strong>de</strong> <strong>los</strong>servicios tecnológicosa las empresas.Objetivo EspecíficoCreación <strong>de</strong> Centros <strong>de</strong>Servicios Tecnológicosa las empresas.Resultados (Ejes)Cualificación <strong>de</strong> RecursosHumanos.Competitividad <strong>de</strong> lasempresas.Calidad <strong>de</strong> vida y cohesiónsocial.Reforzamiento <strong>de</strong> la baseeconómica regional.Resultados (Programas)• Reforzamiento <strong>de</strong> I+D• Reforzamiento <strong>de</strong> <strong>los</strong>Servicios Tecnológicos.• Infraestructuras <strong>de</strong> Telecomunicaciones.• Simplificación <strong>de</strong> <strong>los</strong>Procedimientos Administrativos.• …Resultados (Medidas)• Red <strong>de</strong> Centros <strong>de</strong>Servicio• Ayudas para la utilización<strong>de</strong> <strong>los</strong> Servicios• Ayuda para la utilización<strong>de</strong> expertos.• …Resultados (Proyectos)• Centro Telecomunicaciones.• Centro Mecánica• Centro Nuevos Materiales.• Centro Documentación.• …RealizaciónConjunto <strong>de</strong> Programasque constituyen el MCAy el DOCUP.RealizaciónConjunto <strong>de</strong> Medidasque constituyen cadaPO.RealizaciónConjunto <strong>de</strong> Proyectosincluidos en cadamedida.RealizaciónEtapas o fases necesariaspara la creación <strong>de</strong><strong>los</strong> diferentes Centros.2.5. CÓMO DISEÑAR EL SISTEMA DE SEGUIMIENTO.Como norma general, el comité <strong>de</strong> seguimiento <strong>de</strong> cada programarecurre a evaluadores in<strong>de</strong>pendientes para realizar las evaluaciones.En el caso <strong>de</strong>l sistema <strong>de</strong> seguimiento <strong>de</strong> <strong>los</strong> programas, únicamentese recurre a expertos externos cuando se consi<strong>de</strong>ra necesario completarel sistema existente, mejorar las condiciones <strong>de</strong> ejecución uoptimizar la eficacia <strong>de</strong>l mismo.Seguidamente se presentan las orientaciones que establece laComisión cara al diseño <strong>de</strong>l sistema <strong>de</strong> seguimiento. Conviene tenerpresente que las evaluaciones intermedias están planteando (y vienena figurar entre sus objetivos) la necesidad <strong>de</strong> reforzar <strong>los</strong> mecanismos<strong>de</strong> seguimiento para po<strong>de</strong>r disponer <strong>de</strong> un instrumento eficaz cara a lagestión y la toma <strong>de</strong> <strong>de</strong>cisiones. La eficacia <strong>de</strong> las evaluaciones intermedias<strong>de</strong>pen<strong>de</strong> en gran medida <strong>de</strong>l sistema <strong>de</strong> seguimiento. Se trata<strong>de</strong> evitar la concepción exclusiva <strong>de</strong>l seguimiento como un controlLa eficacia <strong>de</strong> lasevaluacionesintermedias <strong>de</strong>pen<strong>de</strong>en gran medida <strong>de</strong>lsistema <strong>de</strong>seguimiento. Se trata<strong>de</strong> evitar la concepciónexclusiva <strong>de</strong>lseguimiento como uncontrol financiero43


financiero y, paralelamente, reforzar ciertas funciones atribuibles almismo en aras <strong>de</strong> alcanzar una mayor operatividad y dinamicidad.Se establecen así tres aspectos básicos que <strong>de</strong>ben ser objeto <strong>de</strong>observación permanente: el seguimiento <strong>de</strong>l contexto operativo, elseguimiento <strong>de</strong> la gestión y el seguimiento <strong>de</strong> las realizaciones, resultadose impacto <strong>de</strong> las mismas.Como ha quedado señalado, las intervenciones estructurales secaracterizan por su articulación en cascada: proyectos, medidas, programas,MCA… Por tanto, para garantizar el a<strong>de</strong>cuado seguimiento yposterior evaluación, se <strong>de</strong>berá i<strong>de</strong>ntificar <strong>de</strong>talladamente en cada uno<strong>de</strong> <strong>los</strong> niveles <strong>los</strong> tres aspectos básicos apuntados.Contexto operativoEl seguimiento <strong>de</strong>l contexto <strong>de</strong>be poner especial énfasis en <strong>los</strong>siguientes aspectos:• Los cambios que se han producido en <strong>los</strong> diversos factores odimensiones que afectan al programa, bien sean <strong>de</strong> tipo económico,social, político, jurídico y que pue<strong>de</strong>n condicionar su ejecucióny <strong>los</strong> resultados <strong>de</strong> las acciones.Tres aspectos básicos<strong>de</strong>ben ser objeto <strong>de</strong>observaciónpermanente: elseguimiento <strong>de</strong>lcontexto operativo, elseguimiento <strong>de</strong> lagestión y elseguimiento <strong>de</strong> lasrealizaciones,resultados e impacto<strong>de</strong> las intervenciones• La coherencia y complementariedad con otras políticas generaleso sectoriales que se están aplicando en la región o en el Estadorespectivo, ya sean <strong>de</strong> origen regional, nacional o comunitario.• El cumplimiento <strong>de</strong> las disposiciones establecidas como condiciónprevia para el éxito <strong>de</strong>l programa.Gestión <strong>de</strong>l ProgramaDel mismo modo, se efectuará un seguimiento particularizadosobre diversos aspectos <strong>de</strong> índole operativa, tales como:• La instrumentación y el funcionamiento <strong>de</strong> <strong>los</strong> mecanismos <strong>de</strong>gestión financiera y administrativa.• La instrumentación y alimentación <strong>de</strong>l sistema <strong>de</strong> seguimiento.• La sistematización <strong>de</strong> la recogida la información y <strong>los</strong> datosnecesarios.• La a<strong>de</strong>cuación <strong>de</strong> <strong>los</strong> criterios para la selección <strong>de</strong> proyectos.• Las activida<strong>de</strong>s <strong>de</strong> difusión.• La participación <strong>de</strong> <strong>los</strong> diversos actores implicados.• Los aspectos normativos y legislativos, así como las políticasque actúan como marco general <strong>de</strong>l programa.44


Realizaciones, resultados e impactoLa estructura <strong>de</strong>l sistema <strong>de</strong> medición <strong>de</strong> la eficacia y eficienciacabe apoyarla en tres gran<strong>de</strong>s grupos <strong>de</strong> indicadores:• Indicadores <strong>de</strong> realización: mi<strong>de</strong>n el grado <strong>de</strong> ejecución financieray/o el nivel <strong>de</strong> utilización <strong>de</strong> <strong>los</strong> medios establecidos, asícomo el grado <strong>de</strong> ejecución física <strong>de</strong>l programa.• Indicadores <strong>de</strong> resultados: mi<strong>de</strong>n <strong>los</strong> resultados, <strong>los</strong> efectosdirectos o inmediatos, la calidad o el rendimiento logrado conla acción.• Indicadores <strong>de</strong> impacto específico y global:• Específico, acotado a las realizaciones y resultados alcanzados.• Global, cuando <strong>los</strong> objetivos específicos han coadyuvadoa producir el objetivo global programado 16El siguiente cuadro ilustra la complementariedad entre indicadoresy medición en términos <strong>de</strong> eficacia y eficiencia.COMPLEMENTARIEDAD ENTRE INDICADORES YMEDICIÓN DE EFICACIA Y EFICIENCIACuadro <strong>de</strong> base Indicadores Medida eficaciaSe trata medir <strong>los</strong>efectos directos yprevistos, <strong>los</strong> efectosindirectos y aquel<strong>los</strong>no previstos pero quese han producidoMedida eficienciaRealizaciónDe realización• Ejecución financiera• Ejecución físicaEjecución realizada/previstaEjecución efectuada/previstaRealizaciones respecto a <strong>los</strong>costesResultadosDe resultadosResultados obtenidos/resultadosprevistosResultados obtenidos respectoa <strong>los</strong> costesObjetivo especificoDe impacto específicoImpacto obtenido/impacto previstoImpacto obtenido respecto a<strong>los</strong> costesObjetivo globalDe impacto globalImpacto obtenido/impacto previstoImpacto obtenido respecto a<strong>los</strong> costesEl seguimiento <strong>de</strong>be realizarse:• De forma cuantitativa, mediante indicadores/ratios.• De forma cualitativa, a partir <strong>de</strong> otro tipo <strong>de</strong> informaciones disponibles,estudios y análisis.16. Este nivel <strong>de</strong> impacto global será medido una vez concluida la ejecución <strong>de</strong>l programa cuandose efectúe la evaluación ex-post <strong>de</strong>l mismo.45


Conviene tener presente que la construcción <strong>de</strong> un sistema <strong>de</strong> indicadores<strong>de</strong> seguimiento plantea una serie <strong>de</strong> dificulta<strong>de</strong>s y limitacionesentre las que cabe <strong>de</strong>stacar las siguientes:• Los problemas para comprobar las relaciones <strong>de</strong> causalida<strong>de</strong>ntre las realizaciones, <strong>los</strong> resultados obtenidos y el impactoproducido; por lo que resulta conveniente tener en cuenta otrosfactores exógenos que han podido afectar a <strong>los</strong> resultados eimpactos observados.• La complejidad <strong>de</strong> medición <strong>de</strong>l impacto que requiere <strong>de</strong> instrumentosapropiados que analicen varias intervenciones realizadasal mismo tiempo.• La dificultad para agregar <strong>de</strong>terminados indicadores comosuce<strong>de</strong> con <strong>los</strong> físicos.• La dificultad para disponer <strong>de</strong> las informaciones y datos necesariosque alimenten el sistema <strong>de</strong> seguimiento y sirvan <strong>de</strong> basepara la evaluación en <strong>los</strong> plazos <strong>de</strong> tiempo previstos.Lo señalado plantea importantes retos y una revisión <strong>de</strong> <strong>los</strong> sistemas<strong>de</strong> seguimiento establecidos, máxime si se quiere dar cumplimientoa la medición <strong>de</strong> <strong>los</strong> efectos directos y previstos, <strong>de</strong> efectosindirectos y <strong>de</strong> efectos no previstos pero que se han producido.2.6. LAS EVALUACIONES INTERMEDIASCon carácter general, las intervenciones cuya duración supera <strong>los</strong>tres años son objeto <strong>de</strong> evaluación intermedia a fin <strong>de</strong> generar las evi<strong>de</strong>nciasque permitan, en su caso, realizar las adaptaciones necesarias.A través <strong>de</strong> este tipo <strong>de</strong> evaluación se preten<strong>de</strong> realizar un análisiscrítico <strong>de</strong> las informaciones proporcionadas por el sistema <strong>de</strong> seguimientoy otras fuentes <strong>de</strong> información, estudiar si se están cumpliendo<strong>los</strong> objetivos planteados, analizando las causas <strong>de</strong> <strong>los</strong> <strong>de</strong>svíos y prever,<strong>de</strong> forma anticipada, <strong>los</strong> resultados e impactos que se está en vías <strong>de</strong>alcanzar.Las intervencionescuya duración supera<strong>los</strong> tres años sonobjeto <strong>de</strong> evaluaciónintermedia a fin <strong>de</strong>generar las evi<strong>de</strong>nciasque permitan, en sucaso, realizar lasadaptacionesnecesarias2.6.1. ContenidoA continuación, con carácter no exhaustivo ni limitativo, se proce<strong>de</strong>a presentar el contenido que se atribuye a las evaluaciones intermedias.Primera etapa, a partir <strong>de</strong> las primeras <strong>de</strong>cisiones <strong>de</strong> ejecución <strong>de</strong>las intervenciones, se <strong>de</strong>stina a:• Verificar la coherencia y relaciones <strong>de</strong> causalidad entre realiza-46


ciones, resultados y objetivos, según <strong>los</strong> niveles <strong>de</strong> intervenciónen cascada.• Examinar la viabilidad, pertinencia y fiabilidad <strong>de</strong> <strong>los</strong> indicadores,así como la disponibilidad <strong>de</strong> las informaciones necesarias,según <strong>los</strong> niveles <strong>de</strong> intervención establecidos.• Analizar <strong>los</strong> diversos procedimientos <strong>de</strong> selección <strong>de</strong> proyectos,su calidad, a<strong>de</strong>cuada aplicación y su coherencia con <strong>los</strong> objetivos<strong>de</strong>l programa.• Analizar <strong>los</strong> mecanismos <strong>de</strong> gestión y ejecución.• Supervisar el sistema <strong>de</strong> seguimiento, garantizando que <strong>de</strong>l mismose pueda obtener la información necesaria para realizar las evaluaciones<strong>de</strong>l programa en base a <strong>los</strong> diversos criterios <strong>de</strong> evaluaciónestablecidos.Segunda etapa, realización <strong>de</strong> la evaluación <strong>de</strong> medio camino:• Reactualización <strong>de</strong> <strong>los</strong> análisis llevados a cabo en la etapa anterior;analizando la puesta en práctica <strong>de</strong> las propuestas elaboradasen la misma.• Análisis <strong>de</strong> la pertinencia <strong>de</strong> la estrategia seleccionada inicialmenteatendiendo a <strong>los</strong> cambios producidos en el contexto.Las evaluacionesintermedias abordaránel análisis crítico <strong>de</strong> lasinformacionesproporcionadas por elsistema <strong>de</strong>seguimientoexaminando si se estáncumpliendo <strong>los</strong>objetivos planteados,analizando las causas<strong>de</strong> <strong>los</strong> <strong>de</strong>svíos yanticipando <strong>los</strong>resultados e impactosque se estánalcanzando• Evaluación <strong>de</strong> la eficacia alcanzada por el programa: comparación<strong>de</strong> <strong>los</strong> resultados y realizaciones alcanzadas en el momento<strong>de</strong> la evaluación respecto a las previstas.• Evaluación <strong>de</strong> la eficiencia <strong>de</strong>l programa: realizaciones efectuadasy resultados obtenidos en comparación con <strong>los</strong> mediosempleados.• Presentación <strong>de</strong> propuestas rectificativas con el fin <strong>de</strong> reforzarlas intervenciones futuras <strong>de</strong>l programa y su viabilidad.• Análisis <strong>de</strong> <strong>los</strong> mecanismos <strong>de</strong> ejecución y gestión.• Análisis <strong>de</strong> las políticas comunitarias vinculadas al programa.Tercera etapa, con el objetivo <strong>de</strong> proseguir las propuestas <strong>de</strong>ajuste <strong>de</strong> <strong>los</strong> programas y la evaluación final y ex-post:• Análisis <strong>de</strong> la eficacia <strong>de</strong> las intervenciones respecto a <strong>los</strong> objetivosiniciales y las adaptaciones y cambios realizados.47


• Análisis <strong>de</strong> la eficiencia respecto a <strong>los</strong> medios empleados.• Análisis <strong>de</strong>l impacto <strong>de</strong> la intervención.• Análisis <strong>de</strong> la viabilidad futura.• Análisis <strong>de</strong> <strong>los</strong> mecanismos <strong>de</strong> ejecución y seguimiento, asícomo <strong>de</strong> <strong>los</strong> progresos alcanzados.2.6.2. Metodología. Enfoques y técnicasA continuación se presentan cuales han sido <strong>los</strong> enfoques y técnicas<strong>de</strong> evaluación que se vienen implementando a lo largo <strong>de</strong> estosúltimos años en las prácticas <strong>de</strong> evaluación <strong>de</strong>sarrolladas en la U.E.Conviene tener en cuenta que, en su mayor parte, las evaluaciones quese han llevado a cabo durante el período 1994-1999 han sido evaluacionesintermedias (<strong>de</strong> medio camino).Debido en parte a la dificultad intrínseca <strong>de</strong> evaluar el impactoproducido por <strong>los</strong> resultados solamente dos años <strong>de</strong>spués <strong>de</strong> la puestaen marcha <strong>de</strong> <strong>los</strong> programas, este tipo <strong>de</strong> evaluaciones no se hanrealizado <strong>de</strong> la forma más a<strong>de</strong>cuada: las evaluaciones intermedias hanprivilegiado el análisis <strong>de</strong> <strong>los</strong> <strong>procesos</strong> <strong>de</strong> gestión y ejecución programáticaasí como el reparto <strong>de</strong> <strong>los</strong> fondos entre las diversas priorida<strong>de</strong>sestablecidas 17 , <strong>de</strong>jando <strong>de</strong> lado otros aspectos relevantes.Consi<strong>de</strong>rando que en la evaluación <strong>de</strong> <strong>los</strong> programas cofinanciadospor <strong>los</strong> Fondos Estructurales se otorga la misma importancia a laevaluación ex-ante, intermedia y ex-post, a las evaluaciones intermedias,<strong>de</strong>bido al momento <strong>de</strong> su realización, se les asigna una influenciadirecta en la configuración <strong>de</strong> <strong>los</strong> programas para lo cual <strong>de</strong>benayudar a la i<strong>de</strong>ntificación <strong>de</strong> sus <strong>de</strong>ficiencias y presentar recomendacionesque favorezcan su mejora y/o modificación 18 .Las evaluaciones intermedias quedan así estrechamente relacionadas,por un lado, con las evaluaciones ex-ante (con el objeto <strong>de</strong> <strong>de</strong>ter-Las evaluacionesintermedias hanprivilegiado el análisis<strong>de</strong> <strong>los</strong> <strong>procesos</strong> <strong>de</strong>gestión y ejecuciónprogramática así comoel reparto <strong>de</strong> <strong>los</strong>fondos entre lasdiversas priorida<strong>de</strong>sestablecidas, <strong>de</strong>jando<strong>de</strong> lado otros aspectosrelevantes17. Conferencia Europea sobre las prácticas <strong>de</strong> evaluación <strong>de</strong> programas cofinanciados por <strong>los</strong>Fondos Estructurales Sevilla, 1998.18. Tal y como la propia Comisión entien<strong>de</strong> las evaluaciones intermedias, éstas <strong>de</strong>ben generar lainformación y <strong>los</strong> datos necesarios para posteriores evaluaciones, recomendaciones sobre <strong>los</strong> problemas<strong>de</strong> organización <strong>de</strong>l programa y sobre la reprogramación a llevar a cabo (i<strong>de</strong>ntificandoaquel<strong>los</strong> <strong>de</strong>stinos para <strong>los</strong> fondos que resultan más a<strong>de</strong>cuados). Para ello, estas evaluaciones <strong>de</strong>benincluir seis elementos básicos:• análisis <strong>de</strong> la absorción <strong>de</strong> <strong>los</strong> fondos por cada medida programada;• i<strong>de</strong>ntificación <strong>de</strong>l output físico alcanzado hasta la fecha en comparación con <strong>los</strong> objetivosplanteados;• análisis <strong>de</strong> la eficiencia;• evaluación <strong>de</strong>l impacto;• evaluación <strong>de</strong>l impacto sobre <strong>los</strong> indicadores socioeconómicos;• análisis <strong>de</strong> la calidad <strong>de</strong>l sistema <strong>de</strong> gestión.48


minar si <strong>los</strong> objetivos fijados en la fase <strong>de</strong> planificación se estánalcanzando) y, por otro lado, con las evaluaciones finales/ex-post(con el objeto <strong>de</strong> incluir las disposiciones necesarias para la medición<strong>de</strong>l output bruto final). Cuando estas relaciones son débiles,bien por la falta <strong>de</strong> un nivel <strong>de</strong> precisión a<strong>de</strong>cuado en la <strong>de</strong>finición ycuantificación <strong>de</strong> <strong>los</strong> objetivos en las apreciaciones ex-ante, bien por<strong>de</strong>ficiencias en el propio sistema <strong>de</strong> seguimiento, tanto las evaluacionesintermedias como las finales/ex-post se resienten y no llegana cumplir plenamente su función.Enfoques <strong>de</strong> evaluación: Evaluación ascen<strong>de</strong>nte (botton up) y<strong>de</strong>scente (top down)Aunque estos dos enfoques no resulten excluyentes (más a<strong>de</strong>lantese incluye un caso práctico que combina ambos), con el objeto <strong>de</strong>facilitar la estructuración metodológica, la propia Comisión diferenciael contenido <strong>de</strong> las evaluaciones realizadas bajo estos dos tipos<strong>de</strong> enfoques.En la evaluación ascen<strong>de</strong>nte (botton up), el evaluador recopilala información a nivel <strong>de</strong> proyecto para ser tratada e interpretada,posteriormente, a nivel <strong>de</strong> medida y a nivel <strong>de</strong>l programa.Dado que el número <strong>de</strong> proyectos que compren<strong>de</strong> unprograma suele ser elevado, se <strong>de</strong>fine una muestra <strong>de</strong> proyectosque serán objeto <strong>de</strong> evaluación específica.Este tipo <strong>de</strong> enfoque resulta apropiado máxime cuando <strong>los</strong>datos y la información generada por el sistema <strong>de</strong> seguimiento<strong>de</strong>l programa no resulta suficiente y no se pue<strong>de</strong> adoptar unenfoque <strong>de</strong>scen<strong>de</strong>nte. Por tanto, <strong>de</strong> esta forma se genera informaciónadicional a la disponible sobre <strong>los</strong> resultados alcanzadosy el impacto generado por <strong>los</strong> mismos. Este enfoque se sustenta,fundamentalmente, en la realización <strong>de</strong> encuestas directas a<strong>los</strong> beneficiarios y entrevistas en profundidad a testigos privilegiadose informantes clave. Este tipo <strong>de</strong> enfoque requiere que se<strong>de</strong>dique suficiente atención al trabajo <strong>de</strong> campo cuya fiabilidad<strong>de</strong>pen<strong>de</strong>, en buena medida, <strong>de</strong> la representatividad <strong>de</strong> las muestrasestablecidas e informantes seleccionados.El enfoque <strong>de</strong>scen<strong>de</strong>nte (top down) permite la observación<strong>de</strong>l programa en su conjunto, no requiriendo <strong>de</strong> la selección <strong>de</strong>una muestra <strong>de</strong> proyectos ya que las informaciones son tratadasa nivel agregado (por medida). Por ello la calidad <strong>de</strong> <strong>los</strong>datos generados por el sistema <strong>de</strong> seguimiento es primordialya que el evaluador no analiza directamente <strong>los</strong> proyectos indi-En la evaluaciónascen<strong>de</strong>nte, elevaluador recopila lainformación a nivel <strong>de</strong>proyecto para sertratada e interpretada,posteriormente, a nivel<strong>de</strong> medida y a nivel <strong>de</strong>lprograma49


viduales sino que utiliza la información generada por dicho sistema<strong>de</strong> seguimiento para evaluar las medidas.Para profundizar en <strong>los</strong> aspectos señalados, el enfoque <strong>de</strong>scen<strong>de</strong>nterecurre al análisis <strong>de</strong> caso o análisis en profundidad relacionadoscon priorida<strong>de</strong>s o medidas específicas que permitenrecoger información a nivel <strong>de</strong> proyecto. Este tipo <strong>de</strong> enfoquesuele requerir <strong>de</strong> menos tiempo y <strong>de</strong> menos recursos financierosque el ascen<strong>de</strong>nte y permite centrar la atención en la contribuciónglobal <strong>de</strong>l programa al cumplimiento <strong>de</strong> <strong>los</strong> objetivos finales.La <strong>de</strong>terminación <strong>de</strong>l enfoque <strong>de</strong> evaluación y las correspondientesherramientas <strong>de</strong> análisis es un factor clave <strong>de</strong>ntro <strong>de</strong>l diseño <strong>de</strong>lproceso <strong>de</strong> evaluación, <strong>de</strong> tal forma que <strong>los</strong> resultados generados porcada uno <strong>de</strong> <strong>los</strong> dos enfoques resultan diferentes. En la elección influyendiversos factores como el presupuesto y el tiempo disponible, elcontexto institucional en el que se <strong>de</strong>sarrolla la evaluación, etc.El equipo evaluador efectuará su propio diseño metodológico y setrata <strong>de</strong> incluir en él una combinación <strong>de</strong> técnicas y herramientas <strong>de</strong>análisis vinculadas a ambos enfoques 19 con el fin <strong>de</strong> lograr un equilibrioóptimo entre la observación a nivel <strong>de</strong> programa y medida(macro) y la realizada a nivel <strong>de</strong> proyecto (micro).A continuación se efectúa un recorrido por las diversas técnicas yherramientas <strong>de</strong> evaluación (<strong>de</strong>s<strong>de</strong> las vinculadas más estrechamentecon el análisis micro, a las relacionadas con el análisis macro), a partir<strong>de</strong> las cuales el equipo evaluador <strong>de</strong>berá proce<strong>de</strong>r a seleccionar lasmás a<strong>de</strong>cuadas para el programa específico objeto <strong>de</strong> evaluación.El enfoque<strong>de</strong>scen<strong>de</strong>nte permite laobservación <strong>de</strong>lprograma en suconjunto, norequiriendo <strong>de</strong> laselección <strong>de</strong> unamuestra <strong>de</strong> proyectosya que lasinformaciones sontratadas a nivelagregadoTécnicasLas diversas técnicas <strong>de</strong> evaluación existentes pue<strong>de</strong>n estructurarse<strong>de</strong> acuerdo a <strong>los</strong> dos enfoques <strong>de</strong> evaluación presentados (ascen<strong>de</strong>ntey <strong>de</strong>scen<strong>de</strong>nte), partiendo <strong>de</strong> las técnicas vinculadas más estrechamentecon el nivel micro <strong>de</strong> la evaluación hasta las correspondientesal análisis macro, tal y como se recoge en la Figura 8.Como ya se ha indicado, uno <strong>de</strong> <strong>los</strong> mayores problemas que surgenen el momento <strong>de</strong> llevar a cabo las evaluaciones es la <strong>de</strong>ficientecalidad <strong>de</strong> la información generada por <strong>los</strong> sistemas <strong>de</strong> seguimiento.Frente a estas situaciones se recurre a técnicas diversas quepermitan generar información cuantitativa y cualitativa complementariaa la suministrada por el sistema <strong>de</strong> seguimiento: estudios <strong>de</strong>19. Como, por ejemplo, la realización <strong>de</strong> estudios <strong>de</strong> casos junto a la aplicación <strong>de</strong> un mo<strong>de</strong>lo econométricoo el análisis <strong>de</strong> información estadística.50


Figura 8ESTIMACIÓN DE EFECTOS E IMPACTOSDesagregación <strong>de</strong>l impacto globalDESCENDENTE Nivel Macro: Estimación <strong>de</strong>l impacto globalMo<strong>de</strong><strong>los</strong> EconométricosTablas Inpout/OutputAnálisis estadísticosMultiplicadores, coeficientesEstudios y análisis <strong>de</strong> casoNivel Micro: Estimación <strong>de</strong> efectos específicosASCENDENTEcaso, análisis en profundidad o estudios monográficos, entrevistas yencuestas.Este tipo <strong>de</strong> técnicas permiten observaciones precisas y la extracción<strong>de</strong> evi<strong>de</strong>ncias que van más allá <strong>de</strong> la evaluación <strong>de</strong> <strong>los</strong> efectosdirectos simples y que resulta especialmente útil para profundizar enel análisis <strong>de</strong> las relaciones causa-efecto, <strong>de</strong> <strong>los</strong> efectos indirectos,complejos o no previstos, así como en la validación <strong>de</strong> <strong>los</strong> resultadosobtenidos mediante otras técnicas e instrumentos 20 .La entrevista es uno <strong>de</strong> <strong>los</strong> instrumentos que se han utilizado conmayor frecuencia en la evaluación <strong>de</strong> programas cofinanciados por<strong>los</strong> Fondos Estructurales. Se realizan con el fin <strong>de</strong> recopilar informacióncualitativa sobre el proceso <strong>de</strong> gestión <strong>de</strong>l programa (entrevistandoa <strong>los</strong> responsables, ejecutores) o sobre la opinión que tienen <strong>los</strong>beneficiarios en relación al mismo.Sin llegar a la complejidad <strong>de</strong> <strong>los</strong> mo<strong>de</strong><strong>los</strong> econométricos, se vienenaplicando diversas técnicas estadísticas. Estas técnicas permitenla recogida <strong>de</strong> información cualitativa y cuantitativa, y resultan necesariascuando el número <strong>de</strong> beneficiarios es elevado y el sistema <strong>de</strong>seguimiento no ha generado la información necesaria. Para ello se formalizauna muestra <strong>de</strong> proyectos o acciones representativas <strong>de</strong> cadaAgregación <strong>de</strong> <strong>los</strong> efectos específicosUno <strong>de</strong> <strong>los</strong> mayoresproblemas que surgenen el momento <strong>de</strong>llevar a cabo lasevaluaciones es la<strong>de</strong>ficiente calidad <strong>de</strong> lainformación generadapor <strong>los</strong> sistemas <strong>de</strong>seguimiento. Frente aestas situaciones serecurre a técnicasdiversas que permitangenerar informacióncuantitativa ycualitativacomplementaria a lasuministrada por elsistema <strong>de</strong>seguimiento: estudios<strong>de</strong> caso, análisis enprofundidad o estudiosmonográficos,entrevistas y encuestas20. En el marco <strong>de</strong> estas técnicas pue<strong>de</strong>n formularse preguntas que analizan, en profundidad, <strong>los</strong>efectos producidos por <strong>los</strong> programas. Por ejemplo, al evaluar <strong>los</strong> efectos sobre el empleo pue<strong>de</strong>n formularsecuestiones para recoger la motivación o la percepción <strong>de</strong> <strong>los</strong> beneficiarios, si el empresariohubiera contratado al trabajador en ausencia <strong>de</strong> programa, etc.51


medida y <strong>de</strong>l programa sobre la que se aplicarán las encuestas. A partiraquí, el equipo evaluador pue<strong>de</strong> estimar con rigor el impacto ycobertura alcanzados.Un caso particular <strong>de</strong> análisis estadístico es la realización <strong>de</strong> unacomparación entre un grupo <strong>de</strong> beneficiarios <strong>de</strong>l programa y grupos<strong>de</strong> control (cuyos miembros no han sido favorecidos por el programapese a presentar rasgos similares a <strong>los</strong> <strong>de</strong> <strong>los</strong> beneficiarios). Esto permiteobservar en profundidad <strong>los</strong> efectos atribuibles al programa. Sinembargo, su utilización implica establecer con rigor el carácter <strong>de</strong>este grupo <strong>de</strong> control para que pueda ser comparado <strong>de</strong> forma apropiadacon el <strong>de</strong> <strong>los</strong> beneficiarios 21 .En el caso <strong>de</strong> observaciones a gran escala (nivel estatal oregional 22 ) se utilizan técnicas más complejas <strong>de</strong> mo<strong>de</strong>lizacióny simulación (mo<strong>de</strong><strong>los</strong> econométricos o tablas input/output).Este tipo <strong>de</strong> técnicas son habitualmente utilizadas en la evaluación<strong>de</strong> <strong>los</strong> efectos generados por <strong>los</strong> programas comunitariossobre el empleo.Los mo<strong>de</strong><strong>los</strong> econométricos permiten simular la interacción entrediversas variables socioeconómicas mediante diversas ecuaciones enlas que se distinguen las variables exógenas 23 y las variables endógenas24 . Estas variables se relacionan mediante parámetros <strong>de</strong> pon<strong>de</strong>racióny se validan a través <strong>de</strong>l procesamiento <strong>de</strong> series temporales.Las tablas input/output permiten obtener una visión pormenorizada<strong>de</strong> <strong>los</strong> impactos generados por una intervención a nivel <strong>de</strong> cadauno <strong>de</strong> <strong>los</strong> sectores que conforman la economía, i<strong>de</strong>ntificando bajouna estructura matricial <strong>los</strong> coeficientes que representan las relacioneseconómicas entre <strong>los</strong> diversos sectores 25 .Un caso particular <strong>de</strong>análisis estadístico esla realización <strong>de</strong> unacomparación entre ungrupo <strong>de</strong> beneficiarios<strong>de</strong>l programa y grupos<strong>de</strong> control (cuyosmiembros no han sidofavorecidos por elprograma pese apresentar rasgossimilares a <strong>los</strong> <strong>de</strong> <strong>los</strong>beneficiarios)21. Un caso práctico en la aplicación <strong>de</strong> esta técnica fue la evaluación <strong>de</strong> <strong>los</strong> efectos sobre el nivel<strong>de</strong> ingreso y el empleo <strong>de</strong> un programa <strong>de</strong> formación <strong>de</strong>sarrollado en Suecia durante 1995. Endicha evaluación se estableció un grupo <strong>de</strong> análisis con 4.000 personas formadas en 1992 y otrogrupo <strong>de</strong> 6.000 personas formadas en 1994. Del mismo modo, se configuró un grupo <strong>de</strong> controlcompuesto por personas que no habían recibido ningún curso <strong>de</strong> formación. De esta forma sepudieron obtener conclusiones sobre <strong>los</strong> efectos comparados <strong>de</strong>l programa entre las personas formadasen 1992 y 1994, así como <strong>de</strong> ambos grupos en comparación al grupo <strong>de</strong> control, mediantela aplicación <strong>de</strong> herramientas estadísticas como el análisis <strong>de</strong> regresión. Estas conclusiones pusieron<strong>de</strong> manifiesto la existencia <strong>de</strong> un nivel <strong>de</strong> empleo similar entre <strong>los</strong> grupos <strong>de</strong> 1992 y 1994, asícomo una diferencia significativa <strong>de</strong> ambas respecto al grupo <strong>de</strong> control.22. Por ejemplo, la evaluación <strong>de</strong> <strong>los</strong> efectos generados por el FSE a nivel nacional o por <strong>los</strong> programas<strong>de</strong>sarrollados en el marco <strong>de</strong> un Objetivo comunitario concreto.23. Variables cuyo valor se <strong>de</strong>termina fuera <strong>de</strong>l mo<strong>de</strong>lo.24. Variables cuyo valor es <strong>de</strong>terminado por el mo<strong>de</strong>lo.25. Una experiencia concreta <strong>de</strong> aplicación <strong>de</strong> esta técnica, fue la evaluación <strong>de</strong>l ProgramaOperativo correspondiente al Objetivo 1 en Italia. En este caso, se utilizó la matriz conocida comoSAM (Social Accounting Matrix) que permite integrar <strong>los</strong> multiplicadores keynesianos <strong>de</strong>ntro <strong>de</strong>la tabla input-output.52


Por su parte, las técnicas <strong>de</strong> <strong>los</strong> multiplicadores y <strong>los</strong> coeficientesresultan particularmente útiles para poner en relación <strong>los</strong> nivelesmicro y <strong>los</strong> niveles macro <strong>de</strong>ntro <strong>de</strong>l proceso <strong>de</strong> evaluación. Dada susencillez se aplican en la evaluación <strong>de</strong> programas <strong>de</strong> gran y pequeñadimensión. Tanto <strong>los</strong> multiplicadores como <strong>los</strong> coeficientes sonvalores provenientes <strong>de</strong> análisis realizados con anterioridad, <strong>de</strong>carácter macroeconómico <strong>los</strong> primeros, o <strong>de</strong>l estudio <strong>de</strong> casos ymonográficos <strong>los</strong> segundos. Estos valores quedan estandarizados enforma <strong>de</strong> coeficientes o <strong>de</strong> multiplicadores y aplicados en la evaluación<strong>de</strong> nuevas intervenciones y programas.En cualquier caso, hay que tener en cuenta las limitaciones propiasa cualquier mo<strong>de</strong>lización por lo que estas tienen <strong>de</strong> simplificación<strong>de</strong> la realidad.Por último, conviene subrayar que la metodología <strong>de</strong>be ser flexibley adaptada a las particularida<strong>de</strong>s espaciales, funcionales y/o temporalesexistentes lo que lleva a priorizar el uso <strong>de</strong> metodologías eclécticasy combinadas que permitan plantear <strong>de</strong> modo explícito <strong>los</strong> resultados,ten<strong>de</strong>ncias, limitaciones y virtu<strong>de</strong>s <strong>de</strong> las intervenciones.La metodología <strong>de</strong>beser flexible y adaptadaa las particularida<strong>de</strong>sespaciales, funcionalesy/o temporalesexistentes53


3. Programa MEANSI<strong>de</strong>ntificación y medición <strong>de</strong>efectos estructurales


3. Programa MEANSI<strong>de</strong>ntificación y medición <strong>de</strong>efectos estructuralesLas intervenciones comunitarias <strong>de</strong> carácter estructural vienenimplementadas con el fin <strong>de</strong> que produzcan una serie <strong>de</strong> efectosbeneficiosos, <strong>de</strong> mayor o menor calado en las estructuras socioeconómicas,que perduren en el tiempo una vez finalizadas las mismas.A continuación se ofrecen algunas consi<strong>de</strong>raciones metodológicasprovenientes <strong>de</strong> <strong>los</strong> trabajos realizados en el marco <strong>de</strong>l ProgramaMEANS 26 para proce<strong>de</strong>r a la i<strong>de</strong>ntificación <strong>de</strong> <strong>los</strong> efectos estructuralesy, más concretamente, a la evaluación <strong>de</strong> su contribución a lageneración <strong>de</strong> empleo.3.1. IDENTIFICACIÓN DE EFECTOS ESTRUC-TURALES Y SU MEDICIÓN. DIFICULTADES,LIMITACIONES Y RECOMENDACIONES.El término “efecto” resulta, prácticamente, sinónimo <strong>de</strong>l término“impacto”. Sin embargo, la i<strong>de</strong>ntificación <strong>de</strong> efectos pone un mayorénfasis en la relación <strong>de</strong> causalidad. De forma que, tal y como semuestra en el siguiente esquema para el caso <strong>de</strong> una intervenciónconsistente en una serie <strong>de</strong> acciones <strong>de</strong> formación, <strong>los</strong> efectos estructuralesproducidos por <strong>los</strong> programas comunitarios constituyen elúltimo eslabón <strong>de</strong> la ca<strong>de</strong>na formada por <strong>los</strong> recursos, las realizacioneso outputs y <strong>los</strong> resultados.Los efectosestructuralesproducidos por <strong>los</strong>programascomunitariosconstituyen el últimoeslabón <strong>de</strong> la ca<strong>de</strong>naformada por <strong>los</strong>recursos, lasrealizaciones o outputsy <strong>los</strong> resultadosFigura 9CADENA RECURSOS-OUTPUTS-RESULTADOSRecursos Outputs ResultadosAsignaciónpresupuestariaOferta <strong>de</strong>cursos <strong>de</strong>formaciónPersonas quehan concluidocon éxitola formaciónEfectosestructuralesCohesióneconómicay socialLos recursos hacen principalmente referencia a <strong>los</strong> recursos financierosdisponibles. Los outputs a lo que <strong>los</strong> operadores (autorida<strong>de</strong>s oinstancias que implementan el programa) producen directamente yofrecen a <strong>los</strong> beneficiarios. Los resultados entendidos como <strong>los</strong> cam-26. Las consi<strong>de</strong>raciones que aparecen a continuación proce<strong>de</strong>n <strong>de</strong> las aportaciones realizadas enel marco <strong>de</strong>l Programa MEANS y, más concretamente, <strong>de</strong> <strong>los</strong> manuales:• Nº 2. I<strong>de</strong>ntifying the Structuring Effects of Community Interventions(1995)• Nº 3. Measuring the Employment Effects of Community Structural Interventions (1995)• Nº 6. Evaluating the Contribution of the Structural Funds to Employment55


ios que se generan, por ejemplo, en el comportamiento <strong>de</strong> <strong>los</strong> beneficiarios,pue<strong>de</strong>n calificarse como impactos inmediatos. Por último,el término efecto se aplica a cualquier cambio ulterior (no inmediato)o <strong>de</strong> carácter indirecto al que se califica como “impacto intermedio”o “impacto global”.En la Figura 10 se presenta el esquema lógico ilustrativo <strong>de</strong> <strong>los</strong> mecanismosmediante <strong>los</strong> que, <strong>de</strong>s<strong>de</strong> diversos ejes <strong>de</strong> intervención (recursoshumanos, estructuras productivas e infraestructura básica), se alcanza elobjetivo final <strong>de</strong> incrementar la cohesión económica y social.Figura 10EFECTOS ESTRUCTURALESInversión enRecursos HumanosInversión eninfraestructuras productivasInversión eninfraestructuras básicasDesarrolloendógenoReducción<strong>de</strong>l <strong>de</strong>sempleoFactores <strong>de</strong> <strong>de</strong>sarrolloa corto plazoFactores <strong>de</strong> <strong>de</strong>sarrolloa largo plazoIncremento<strong>de</strong> <strong>los</strong> ingresosCohesión económicay socialDesarrolloexógenoMejora <strong>de</strong>las condiciones <strong>de</strong> vidaUna cuestión esi<strong>de</strong>ntificarteóricamente la ca<strong>de</strong>na<strong>de</strong> relaciones que va <strong>de</strong>la inversión al impactoy otra llegar aconcretizarla en unproceso <strong>de</strong> evaluación.La práctica muestra laexistencia una serie <strong>de</strong>dificulta<strong>de</strong>s ylimitacionesmetodológicas paraefectuar este tipo <strong>de</strong>análisis3.1.1. Dificulta<strong>de</strong>s y limitacionesUna cuestión es i<strong>de</strong>ntificar teóricamente la ca<strong>de</strong>na <strong>de</strong> relacionesque va <strong>de</strong> la inversión al impacto y otra llegar a concretizarla en unproceso <strong>de</strong> evaluación. La práctica muestra la existencia una serie <strong>de</strong>dificulta<strong>de</strong>s y limitaciones metodológicas para efectuar este tipo <strong>de</strong>análisis, por ejemplo:• ¿Cómo <strong>de</strong>finir la situación <strong>de</strong> partida e i<strong>de</strong>ntificar <strong>los</strong> efectosproducidos por el programa cuando se carece <strong>de</strong> la informacióny registros necesarios?• ¿Cómo aislar <strong>los</strong> efectos netos producidos por el programa?• ¿Cómo evaluar lo que hubiera sucedido <strong>de</strong> no existir el programa?56


• ¿Cómo distinguir <strong>los</strong> efectos estructurales atribuibles a las políticascomunitarias y <strong>los</strong> que producen otro tipo <strong>de</strong> políticas enel contexto socioeconómico?Por tanto, conviene tener presente este tipo <strong>de</strong> limitaciones para noincurrir en falsas expectativas. En este sentido, resulta necesario efectuaralgunas precisiones relativas a <strong>los</strong> diversos tipos <strong>de</strong> relaciones <strong>de</strong>causalidad i<strong>de</strong>ntificables que vienen a <strong>de</strong>spejar algunos <strong>de</strong> <strong>los</strong> obstácu<strong>los</strong>con que suelen tropezar las prácticas evaluativas:• Relaciones <strong>de</strong> causalidad lineales: resulta factible su i<strong>de</strong>ntificacióny análisis siempre que se esté dispuesto a asumir el coste <strong>de</strong> llevara cabo una evaluación en profundidad.• Relaciones <strong>de</strong> causalidad circulares: estas relaciones resultandifíciles <strong>de</strong> establecer con rigor, al no po<strong>de</strong>r i<strong>de</strong>ntificar claramentecual es la causa y cual la consecuencia <strong>de</strong> un efecto observado.• Relaciones <strong>de</strong> causalidad estructuradas <strong>de</strong> forma reflexiva: ensistemas en <strong>los</strong> que existen multitud <strong>de</strong> factores interactuando resultamuy complejo <strong>de</strong>tectar relaciones <strong>de</strong> causalidad. Sin embargo, en sistemasestables, pue<strong>de</strong>n aislarse (mediante análisis <strong>de</strong> correlación)variables explicativas que van a po<strong>de</strong>r ser utilizadas para la predicciónfutura <strong>de</strong>l comportamiento <strong>de</strong> otra serie <strong>de</strong> variables 27 .• Relaciones <strong>de</strong> causalidad irreversibles: <strong>los</strong> sistemas estables permitenla i<strong>de</strong>ntificación <strong>de</strong> <strong>de</strong>terminadas relaciones causa-efecto pero sólohasta el momento en que <strong>de</strong>jan <strong>de</strong> ser estables. El problema es que no pue<strong>de</strong>pre<strong>de</strong>cirse cuando <strong>de</strong>jarán <strong>de</strong> serlo. En este or<strong>de</strong>n <strong>de</strong> cosas, resulta especialmenteintrincado evaluar el impacto producido a nivel micro en organizacionesque se <strong>de</strong>senvuelven en mercados altamente competitivos y, portanto, caracterizados por su comportamiento errático e impre<strong>de</strong>cible.3.1.2. Recomendaciones para la evaluación <strong>de</strong> efectosestructuralesCuando <strong>los</strong> evaluadores tienen serias dificulta<strong>de</strong>s para evaluar <strong>los</strong>efectos estructurales, cabe trasladar esta valoración bien a <strong>los</strong> beneficiarios,bien a <strong>los</strong> <strong>de</strong>stinatarios <strong>de</strong> la evaluación, <strong>de</strong> forma que sean<strong>los</strong> propios beneficiarios y <strong>de</strong>stinatarios quienes respondan a estascuestiones, encargándose el equipo evaluador <strong>de</strong> recoger y sintetizarlas opiniones vertidas por aquel<strong>los</strong> 28 .Cuando <strong>los</strong>evaluadores tienenserias dificulta<strong>de</strong>s paraevaluar <strong>los</strong> efectosestructurales, cabetrasladar estavaloración bien a <strong>los</strong>beneficiarios, bien a <strong>los</strong><strong>de</strong>stinatarios <strong>de</strong> laevaluación, <strong>de</strong> formaque sean <strong>los</strong> propiosbeneficiarios y<strong>de</strong>stinatarios quienesrespondan a estascuestiones27. Un ejemplo <strong>de</strong> ello fue el comportamiento <strong>de</strong> la economía irlan<strong>de</strong>sa cuando, al ser evaluado suPrograma Operativo, mostró un perfil <strong>de</strong> comportamiento a partir <strong>de</strong>l cual se pudo comprobar (estudiando<strong>los</strong> últimos veinte años) que la competitividad ( medida en términos <strong>de</strong> cuota <strong>de</strong> mercado) <strong>de</strong>la economía irlan<strong>de</strong>sa estaba correlacionada positivamente con el nivel competitivo <strong>de</strong> sus costes.28. Sin embargo, hay que tener en cuenta que en contextos caracterizados por la incapacidad paraformular ciertas predicciones e i<strong>de</strong>ntificar relaciones causa-efecto, estas opiniones pue<strong>de</strong>n incluirvaloraciones erráticas o poco fi<strong>de</strong>dignas.57


En estos casos, partiendo <strong>de</strong> que, como se afirmaba al comienzo <strong>de</strong>este capítulo, el objetivo final <strong>de</strong> las políticas y <strong>los</strong> FondosEstructurales consiste en producir efectos positivos en las estructurassocioeconómicas y su permanencia en el tiempo, la evaluación <strong>de</strong>berácentrarse en juzgar si el programa satisface una serie <strong>de</strong> factores críticos<strong>de</strong> sostenibilidad pre<strong>de</strong>finidos Por tanto, <strong>los</strong> evaluadores pue<strong>de</strong>nllegar a obviar la tarea <strong>de</strong> i<strong>de</strong>ntificar cuales son <strong>los</strong> efectos estructuralesque genera el programa, así como sus relaciones <strong>de</strong> causalidad, centrándoseen valorar <strong>los</strong> efectos positivos y negativos y su permanenciaen el tiempo mediante aproximaciones y filtros sucesivos.3.2. EVALUACIÓN DE EFECTOS SOBRE EL EMPLEO.A continuación se aborda la evaluación <strong>de</strong> <strong>los</strong> efectos generadospor <strong>los</strong> Fondos Estructurales en relación con el empleo, dadoque se trata <strong>de</strong> un objetivo central <strong>de</strong> la política comunitaria. Laevaluación <strong>de</strong> <strong>los</strong> efectos generados en términos <strong>de</strong> empleo resultaespecialmente relevante por dos motivos fundamentales: lanecesidad <strong>de</strong> proveer <strong>de</strong> información <strong>de</strong>tallada a <strong>los</strong> responsables<strong>de</strong> la gestión <strong>de</strong> programas y la necesidad <strong>de</strong> contabilizar elimpacto global <strong>de</strong> las políticas financiadas con el fin <strong>de</strong> suministrarinformación a <strong>los</strong> <strong>de</strong>cisores para juzgar si resultan pertinenteso conviene modificarlas, superando el mero contraste entre objetivosy resultados obtenidos.En primer término se presenta la variedad o formas diferentes <strong>de</strong>medir <strong>los</strong> efectos sobre el empleo y, en segundo lugar, se incluye unaserie <strong>de</strong> consi<strong>de</strong>raciones metodológicas sobre la evaluación <strong>de</strong> dichosefectos.3.2.1. Medición <strong>de</strong> efectos sobre el empleoExisten diversas formas <strong>de</strong> categorizar <strong>los</strong> efectos producidossobre el empleo. Así, por ejemplo, se pue<strong>de</strong> analizar la forma en quelas intervenciones <strong>de</strong> carácter estructural producen efectos sobre elempleo atendiendo a:• El empleo generado en términos sectoriales, por ramas <strong>de</strong> actividad,en <strong>de</strong>terminadas zonas y/o colectivos.• El empleo generado como consecuencia directa <strong>de</strong> las intervenciones.Por ejemplo, el generado por las empresas creadas en elmarco <strong>de</strong> la intervención o <strong>los</strong> incrementos <strong>de</strong>l volumen <strong>de</strong> empleologrados a través <strong>de</strong> las ayudas o la financiación ofrecida.• El empleo generado como consecuencia indirecta <strong>de</strong> las intervencionesque pue<strong>de</strong>n tener o no un objetivo inmediato <strong>de</strong> creaciónLa evaluación <strong>de</strong> <strong>los</strong>efectos generados entérminos <strong>de</strong> empleoresulta especialmenterelevante por dosmotivosfundamentales: lanecesidad <strong>de</strong> proveer<strong>de</strong> información<strong>de</strong>tallada a <strong>los</strong>responsables <strong>de</strong> lagestión <strong>de</strong> programasy la necesidad <strong>de</strong>contabilizar el impactoglobal <strong>de</strong> las políticasfinanciadas con el fin<strong>de</strong> suministrarinformación a <strong>los</strong><strong>de</strong>cisores para juzgar siresultan pertinentes58


<strong>de</strong> empleo, provisión <strong>de</strong> nuevas <strong>de</strong>mandas <strong>de</strong> bienes y servicios atribuiblesal programa, incremento <strong>de</strong> la eficiencia <strong>de</strong>l tejido productivo<strong>de</strong> la economía local, etc.• El empleo generado como respuesta al incremento <strong>de</strong> la <strong>de</strong>mandaproducido por el aumento <strong>de</strong> <strong>los</strong> ingresos que ha generado la intervención(efecto multiplicador <strong>de</strong>l ingreso).• En <strong>de</strong>terminadas circunstancias, las intervenciones pue<strong>de</strong>n producirefectos macroeconómicos incluso pue<strong>de</strong>n ralentizar el crecimiento,causando efectos negativos sobre el empleo que no estabanprevistos en el momento <strong>de</strong> la programación.Las intervenciones cofinanciadas por <strong>los</strong> Fondos Estructurales nosolamente producen efectos diversos sobre el empleo sino que tambiénla tipología <strong>de</strong>l empleo generado resulta diferente. A la hora <strong>de</strong>evaluar un programa o intervención, conviene no limitarse a realizarun recuento <strong>de</strong>l número <strong>de</strong> empleos creados sino tener en cuenta tambiénsu tipología distinguiendo:• El empleo estable <strong>de</strong>l empleo temporal. La práctica muestra quebuena parte <strong>de</strong>l empleo generado por las intervenciones no permaneceen el medio plazo. Por tanto, convendría utilizar unida<strong>de</strong>s <strong>de</strong> medidaapropiadas: tasas <strong>de</strong> mortalidad y supervivencia periodificadas,“años <strong>de</strong> empleo” creados, etc.• Las modalida<strong>de</strong>s <strong>de</strong> contratación ya que éstas pue<strong>de</strong>n ser atiempo completo, a tiempo parcial, etc. Resulta, pues, <strong>de</strong> interéstener en cuenta una magnitud que “traduzca” el empleo a tiempoparcial en unida<strong>de</strong>s equivalentes a tiempo completo. Por ejemplo,un empleo a media jornada se podría medir como 0,5 empleos atiempo completo.• La creación <strong>de</strong> empleo o el mantenimiento <strong>de</strong> <strong>los</strong> existentes: consi<strong>de</strong>rando<strong>los</strong> empleos mantenidos o conservados por la intervención,es <strong>de</strong>cir aquel<strong>los</strong> que se hubieran <strong>de</strong>struido en ausencia <strong>de</strong> la mismay/o que se transforman en empleo viable 29 .3.2.2. I<strong>de</strong>ntificación <strong>de</strong> lo que se quiere medirAtendiendo a <strong>los</strong> aspectos señalados y con carácter previo a la evaluaciónes necesario proce<strong>de</strong>r a la clarificación <strong>de</strong> <strong>los</strong> objetivos articuladosen el programa: objetivos globales e intermedios, que vendránesquematizados en un “árbol <strong>de</strong> objetivos” tal y como se recoge,a modo <strong>de</strong> ejemplo, en el siguiente esquema.Las intervencionescofinanciadas por <strong>los</strong>Fondos Estructuralesno solamenteproducen efectosdiversos sobre elempleo sino quetambién la tipología<strong>de</strong>l empleo generadoresulta diferente. Portanto. a la hora <strong>de</strong>evaluar un programa ointervención, convieneno limitarse a realizarun recuento <strong>de</strong>lnúmero <strong>de</strong> empleoscreados sino tener encuenta también sutipología29. Esta distinción resulta especialmente pertinente en el caso <strong>de</strong> las intervenciones que preten<strong>de</strong>nmantener <strong>los</strong> niveles <strong>de</strong> empleo existente mediante la recualificación <strong>de</strong> <strong>los</strong>/las trabajadores/as yla transformación técnica y organizacional <strong>de</strong> las empresas.59


Figura 11OBJETIVOS GLOBALES E INTERMEDIOSRestaurar la empleabilidad en<strong>los</strong> parados <strong>de</strong> larga duraciónInserciónlaboralAumentar la cualificación<strong>de</strong> <strong>los</strong> jóvenesOtrosFomento<strong>de</strong>l empleoApoyar <strong>los</strong> proyectos <strong>de</strong><strong>de</strong>sarrollo <strong>de</strong> las PYMEIncremento <strong>de</strong> lasoportunida<strong>de</strong>s <strong>de</strong> empleoAtraer inversionesextranjerasDesarrollar elsector terciarioOtrosObjetivos globalesObjetivos intermediosUn esquema como el presentado permite, en primer lugar, clarificar<strong>los</strong> objetivos así como las relaciones establecidas entre <strong>los</strong> mismos(su jerarquía); visualizar la coherencia interna <strong>de</strong>l programa,tanto vertical (entre objetivos <strong>de</strong> diferente nivel) como horizontal(entre objetivos <strong>de</strong> diferentes componentes <strong>de</strong>l programa); así comoapreciar la coherencia externa <strong>de</strong>l programa en relación a otras políticaseconómicas y sociales.En este or<strong>de</strong>n <strong>de</strong> cosas, se trata <strong>de</strong> aislar <strong>los</strong> efectos sobre el empleoatribuibles a la intervención o al programa objeto <strong>de</strong> evaluación.Mediante la evaluación <strong>de</strong>be llegarse a i<strong>de</strong>ntificar <strong>los</strong> efectos netos sobreel empleo, entendidos <strong>de</strong> la forma siguiente:Efectos Netos = Efectos Brutos - Pesos Muertos - DesplazamientosEl término “Peso Muerto” correspon<strong>de</strong> a aquel<strong>los</strong> efectos quehabrían existido igualmente en ausencia <strong>de</strong>l programa y, por tanto, nopue<strong>de</strong>n ser atribuidos al mismo 30 .Del mismo modo, puesto que las intervenciones <strong>de</strong> naturalezaestructural se dirigen a colectivos específicos (grupos objetivos) yáreas geográficas <strong>de</strong>terminadas, <strong>de</strong>ben <strong>de</strong>tectarse dos tipos <strong>de</strong> efectos:• Efecto sustitución: se produce cuando, <strong>de</strong>bido a una intervención,se crea empleo entre individuos que, en principio, no eran ele-Se trata <strong>de</strong> aislar <strong>los</strong>efectos sobre elempleo atribuibles ala intervención o alprograma objeto <strong>de</strong>evaluación30. Para su cálculo es necesario elaborar escenarios <strong>de</strong> contraste (counterfactual situation)mediante la proyección <strong>de</strong> las variables clave que <strong>de</strong>finirían dicha situación si la intervención nose hubiera producido.60


gibles como beneficiarios <strong>de</strong> dicha intervención y que, <strong>de</strong> todas formas,hubieran encontrado empleo aún en ausencia <strong>de</strong> la misma.• Efecto <strong>de</strong>splazamiento: se produce cuando una intervenciónincrementa la actividad económica y el empleo en una zona a expensas<strong>de</strong> la actividad económica y el empleo <strong>de</strong> otra.Por último, conviene tener bien presente qué es lo que se preten<strong>de</strong>evaluar. Aunque se evalúen <strong>los</strong> efectos sobre el empleo <strong>de</strong>una forma meticu<strong>los</strong>a, no pue<strong>de</strong> consi<strong>de</strong>rarse que el <strong>de</strong>sempleovaya a disminuir en la misma proporción en que se ha incrementadola ocupación. Así, el incremento <strong>de</strong> la tasa <strong>de</strong> actividad <strong>de</strong>bidoal carácter más atractivo que pue<strong>de</strong> tener el mercado <strong>de</strong> trabajopara segmentos <strong>de</strong> población que permanecen inactivos o parainmigrantes potenciales, estaría impidiendo una visualización <strong>de</strong><strong>los</strong> efectos en algunos indicadores.3.2.3. Indicadores para la evaluación <strong>de</strong> efectos sobre elempleoLos indicadores pue<strong>de</strong>n agruparse en función <strong>de</strong> la fase <strong>de</strong>implementación lo que lleva a consi<strong>de</strong>rar: indicadores <strong>de</strong> recursos,indicadores <strong>de</strong> outputs, indicadores <strong>de</strong> resultados e indicadores <strong>de</strong>impacto. Los indicadores para la evaluación <strong>de</strong> <strong>los</strong> efectos sobre elempleo se sitúan al nivel <strong>de</strong> <strong>los</strong> resultados y <strong>de</strong> <strong>los</strong> impactos. Así,por ejemplo, <strong>los</strong> indicadores correspondientes a <strong>los</strong> principalesejes <strong>de</strong> intervención estructural cabe formular<strong>los</strong> <strong>de</strong> la siguientemanera:Los indicadores para laevaluación <strong>de</strong> <strong>los</strong>efectos sobre elempleo pue<strong>de</strong>nagruparse en función<strong>de</strong> la fase <strong>de</strong>implementación lo quelleva a consi<strong>de</strong>rar:indicadores <strong>de</strong>recursos, indicadores<strong>de</strong> outputs, indicadores<strong>de</strong> resultados eindicadores <strong>de</strong> impactoTipo <strong>de</strong>indicadoresInfraestructuras básicasInfraestructurasproductivasRecursos HumanosResultadosEmpleo generado directamentepor la construcción<strong>de</strong> infraestructurasEmpleo generado por lasnuevas empresas instaladasen el territorio, así comopor <strong>los</strong> incentivos directosal empleoEmpleo creado por <strong>los</strong>nuevos empren<strong>de</strong>doresapoyados por el programaImpactoEmpleo creado y mantenido<strong>de</strong>bido al incremento<strong>de</strong> la actividad económicaatribuida a las nuevasinfraestructurasEmpleo creado o mantenidopor el aumento <strong>de</strong> lacompetitividad <strong>de</strong> las empresasbeneficiariasEmpleo creado <strong>de</strong>bido a lareadaptación/mejora <strong>de</strong> lascualificaciones <strong>de</strong> <strong>los</strong> beneficiariosEn general, <strong>los</strong> programas cofinanciados por <strong>los</strong> FondosEstructurales se caracterizan por presentar un elevado número <strong>de</strong> objetivosy <strong>de</strong> componentes por programa (expresados en términos <strong>de</strong>medidas, submedidas y acciones), no resultando siempre posible lainclusión <strong>de</strong> indicadores vinculados a todos <strong>los</strong> componentes y a todos61


<strong>los</strong> niveles. En estos casos, es necesario proce<strong>de</strong>r a realizar una selección<strong>de</strong> <strong>los</strong> indicadores clave o aspectos esenciales <strong>de</strong>l programa quese ajusten a las necesida<strong>de</strong>s <strong>de</strong> información <strong>de</strong> <strong>los</strong> gestores y <strong>de</strong> <strong>los</strong>responsables <strong>de</strong>l programa y que puedan elaborarse a un coste razonable.Si se quiere disponer <strong>de</strong> un sistema <strong>de</strong> indicadores sobre el empleoque permita un análisis en profundidad <strong>de</strong>l mismo, será necesario diseñarun sistema que recoja el volumen <strong>de</strong> empleo generado y las características<strong>de</strong>l mismo dado que, como ha quedado prece<strong>de</strong>ntemente señalado,no todos <strong>los</strong> empleos creados tienen la misma relevancia. Por ello,el sistema <strong>de</strong> indicadores <strong>de</strong>bería reflejar, entre otros, <strong>los</strong> siguientesaspectos:• El nivel <strong>de</strong> cualificación requerido por el empleo ocupado.• El tipo <strong>de</strong> contrato establecido (temporal o fijo, a tiempo completoo parcial, etc.).• La remuneración salarial.• El perfil económico y social <strong>de</strong> <strong>los</strong> beneficiarios.• El itinerario profesional seguido por <strong>los</strong> beneficiarios.También pue<strong>de</strong> ser conveniente incluir indicadores que permitan elanálisis <strong>de</strong> otros factores externos al programa y que están influyendoen la creación <strong>de</strong> empleo. Por último, conviene tener presente ladimensión temporal <strong>de</strong> <strong>los</strong> indicadores <strong>de</strong>bido al plazo que transcurreentre la adopción <strong>de</strong> una medida y sus efectos sobre el empleo 31 .Una vez recogida la información y construidos <strong>los</strong> indicadores,se proce<strong>de</strong>rá al análisis e interpretación <strong>de</strong> <strong>los</strong> mismos.Si se quiere disponer<strong>de</strong> un sistema <strong>de</strong>indicadores sobre elempleo que permita unanálisis enprofundidad <strong>de</strong>lmismo, será necesariodiseñar un sistema querecoja el volumen <strong>de</strong>empleo generado y lascaracterísticas <strong>de</strong>lmismo31. Por ejemplo, en la evaluación <strong>de</strong> <strong>los</strong> efectos sobre el empleo <strong>de</strong> acciones formativas <strong>de</strong>stinadasal reciclaje profesional (resultados) con el fin <strong>de</strong> mantener la empleabilidad <strong>de</strong> <strong>los</strong>/las beneficiarios/as(impacto), el resultado podría medirse <strong>de</strong>spués <strong>de</strong> transcurridos cierto número <strong>de</strong>meses <strong>de</strong>s<strong>de</strong> la conclusión <strong>de</strong>l curso, mientras que el impacto en términos <strong>de</strong> empleo, <strong>de</strong>berá sermedido dos y tres años <strong>de</strong>spués <strong>de</strong> la finalización <strong>de</strong>l período formativo.62


4. Prácticas <strong>de</strong> evaluación


4. Prácticas <strong>de</strong> evaluaciónComo se ha venido señalando en anteriores capítu<strong>los</strong>, noexiste un mo<strong>de</strong>lo único <strong>de</strong> evaluación. En el Anexo se presentan<strong>de</strong> forma sintética tres mo<strong>de</strong><strong>los</strong> teóricos que hantenido una especial inci<strong>de</strong>ncia en las prácticas evaluativas: elmo<strong>de</strong>lo CIPP (Contexto, Input, Proceso y Producto), uno <strong>de</strong> <strong>los</strong>más completos y encuadrado <strong>de</strong>ntro <strong>de</strong> la orientación para la toma<strong>de</strong> <strong>de</strong>cisiones; el mo<strong>de</strong>lo <strong>de</strong> evaluación respon<strong>de</strong>nte, centrado enel cliente; y el mo<strong>de</strong>lo innovativo, vinculado a la evaluación <strong>de</strong>programas sociales y, más concretamente, al ámbito educativo. Ala diversidad <strong>de</strong> enfoques teóricos conviene añadir el margen <strong>de</strong>variabilidad <strong>de</strong>rivada <strong>de</strong> la diversidad <strong>de</strong> situaciones concretas conlas que se enfrentan las prácticas evaluativas. Esta diversidad haceaconsejable la combinación <strong>de</strong> enfoques teóricos y el mestizajemetodológico con el fin <strong>de</strong> facilitar el acercamiento a realida<strong>de</strong>smúltiples y la obtención <strong>de</strong> resultados lo más útiles y certerosposibles.El presente capítulo se <strong>de</strong>dica, en primer término, a presentar uncaso práctico <strong>de</strong> configuración <strong>de</strong>l proceso <strong>de</strong> evaluación apoyado en<strong>los</strong> planos <strong>de</strong> observación principales que establece el mo<strong>de</strong>lo CIPP.Le siguen una serie <strong>de</strong> ejemp<strong>los</strong> que han sido consi<strong>de</strong>rados comobuenas prácticas en el marco <strong>de</strong>l programa europeo MEANS: la <strong>de</strong>stacadalabor exploratoria y <strong>de</strong> análisis realizada por <strong>los</strong> expertosencargados <strong>de</strong>l citado programa justifica la inclusión <strong>de</strong> estos ejemp<strong>los</strong><strong>los</strong> cuales, por otro lado, permiten dar una i<strong>de</strong>a <strong>de</strong>l momento enque se encuentra las buenas prácticas y el camino que abren parafuturos <strong>procesos</strong> evaluativos.A la diversidad <strong>de</strong>enfoques teóricosconviene añadir elmargen <strong>de</strong> variabilidad<strong>de</strong>rivada <strong>de</strong> ladiversidad <strong>de</strong>situaciones concretascon las que seenfrentan las prácticasevaluativas. Estadiversidad haceaconsejable lacombinación <strong>de</strong>enfoques teóricos y elmestizajemetodológico4.1. EVALUACIÓN INTERMEDIA DE PROGRAMASCOFINANCIADOS POR EL FSEEl mo<strong>de</strong>lo CIPP –Contexto, Input, Proceso, Producto– (verAnexo) facilita la configuración <strong>de</strong>l proceso <strong>de</strong> evaluación y supera<strong>los</strong> planteamientos propios <strong>de</strong> las metodologías evaluativas <strong>de</strong>nominadas“preor<strong>de</strong>nadas” (contraste entre objetivos y logros) para <strong>de</strong>splazarel interés último hacia <strong>los</strong> efectos <strong>de</strong> las intervenciones y latoma <strong>de</strong> <strong>de</strong>cisiones.Este mo<strong>de</strong>lo estructura la evaluación en torno a cuatro dimensionesfundamentales <strong>de</strong>l programa, articulando las diversas variables e indicadoresen función <strong>de</strong> las mismas.64


Figura 12MODELO CIPPCONTEXTOIMPUTPROCESOPRODUCTOA continuación se realiza una aproximación <strong>de</strong> <strong>los</strong> aspectos másrelevantes a evaluar en cada dimensión, así como algunas variables eindicadores por criterio <strong>de</strong> evaluación que serían relevantes a la hora<strong>de</strong> evaluar un programa cofinanciado por el FSE cuyo objetivo básicoconsiste en lograr la inserción laboral <strong>de</strong> diversos colectivos <strong>de</strong>sfavorecidos:parados <strong>de</strong> larga duración, jóvenes sin cualificación,minorías étnicas, etc.• El Contexto: Evolución <strong>de</strong>l escenario <strong>de</strong> <strong>de</strong>sarrollo <strong>de</strong> lasAcciones F.S.E.Análisis <strong>de</strong>l tejido socioeconómico y laboral en el que se sitúan lasintervenciones. Siguiendo las recomendaciones metodológicas establecidas,el análisis <strong>de</strong>l Contexto pondrá el acento en el examen evolutivomás que en su caracterización.• Evolución global y sectorial <strong>de</strong> la economía nacional/regional/local.Indicadores socioeconómicos.• Mercado <strong>de</strong> trabajo y evolución <strong>de</strong> <strong>los</strong> indicadores sociolaborales.• Estrategias, políticas y recursos nacionales/regionales/localesen materia <strong>de</strong> promoción <strong>de</strong>l empleo y formación <strong>de</strong> recursoshumanos.• Otras políticas <strong>de</strong> acompañamiento: PYMEs, Garantía Social,Tercer Sistema, I+D, etc.• El Input: Situación <strong>de</strong> partidaCaracterización <strong>de</strong>l conjunto <strong>de</strong> planteamientos y recursos que apartir <strong>de</strong> un soporte regulador, legislativo y <strong>de</strong> planeamiento, integrainstalaciones y dotaciones físicas con equipos humanos y serviciosEl análisis <strong>de</strong>l contextopondrá el acento en elexamen evolutivo <strong>de</strong>ltejido socioeconómico ylaboral y no tanto en sucaracterizaciónLa caracterización <strong>de</strong> lasituación <strong>de</strong> partida y<strong>de</strong> las diferentes líneas<strong>de</strong> intervenciónprogramadas65


poniendo en marcha diferentes líneas <strong>de</strong> intervención para la ejecución<strong>de</strong>l programa.• Objetivos finales.• Objetivos instrumentales.• Cuantificación <strong>de</strong> resultados previstos.• Estrategias adoptadas para alcanzar <strong>los</strong> objetivos.• Recursos asignados: financieros, materiales, técnicos, etc.• Intervenciones realizadas: estimación <strong>de</strong> resultados por objetivos,acciones y medidas.• Recursos aplicados: financieros, materiales, humanos, etc.• Ajustes, reprogramaciones y grado <strong>de</strong> ejecución financiera.• Procesos <strong>de</strong> gestión.• Participación y seguimiento.• Adicionalida<strong>de</strong>s registradas.• El proceso: Enfoque sistémico <strong>de</strong> la interacción <strong>de</strong> múltiples actoresInteracción <strong>de</strong> las estructuras que soportan a <strong>los</strong> distintos gestoresy ejecutores y las funciones por el<strong>los</strong> <strong>de</strong>sarrolladas. Interacción quegenera todo un sistema relacional –clima– en el que se integran intereses,valores, culturas, roles que es necesario armonizar, consensuary hacer congruentes para el buen fin <strong>de</strong>l proyecto.Su <strong>de</strong>sarrollo se vincula al estudio <strong>de</strong> <strong>los</strong> efectos institucionalesque preten<strong>de</strong> salvar la brecha entre el registro estadístico <strong>de</strong> resultadosy la realidad <strong>de</strong> la actuación. Su análisis se vinculará a intervencionesesencialmente cualitativas y participativas.• Grado <strong>de</strong> compromiso ante el programa.• Nivel <strong>de</strong> conflicto.• Replanteamientos competenciales.• Clima.• El producto: Logros alcanzadosConsecuencias en términos <strong>de</strong> logros alcanzados, productos elaborados,sistemas articulados, aprendizajes y <strong>de</strong>sarrol<strong>los</strong> en relacióna <strong>los</strong> objetivos fijados. Los beneficiarios <strong>de</strong>l Programa son protagonistasy usuarios; y <strong>los</strong> distintos ejecutores, consultores, etc. son proveedoresy/o gestores <strong>de</strong>l sistema.El sistema <strong>de</strong> indicadores pue<strong>de</strong> configurase en términos <strong>de</strong>Cobertura, Eficacia, Eficiencia y Pertinencia. A título indicativo,cabe mencionar algunos posibles indicadores:Análisis <strong>de</strong>l procesocomo enfoquesistémico <strong>de</strong> lainteracción entremúltiples actoresCaracterización <strong>de</strong> <strong>los</strong>logros alcanzados ensentido amplio yatendiendo a unamultiplicidad <strong>de</strong>criterios e indicadores66


• Eficacia: Definida como el grado en el que se alcanzan <strong>los</strong> objetivosprogramados para un período <strong>de</strong>terminado. Este criterio ha <strong>de</strong>aplicarse sobre todos <strong>los</strong> niveles <strong>de</strong>l proyecto.Así, en relación con el proceso <strong>de</strong> ejecución <strong>de</strong>l programa en suintegridad se podrían i<strong>de</strong>ntificar diversas variables a analizar comolas siguientes:• Grado <strong>de</strong> cumplimiento financiero.• Ajuste temporal <strong>de</strong> intervenciones.• Flui<strong>de</strong>z en la gestión: verificación <strong>de</strong> la existencia <strong>de</strong> inci<strong>de</strong>ncias,<strong>de</strong>sfases, interrupciones, etc.• Relación entre recursos humanos/materiales/financieros yusuarios.• Consolidación <strong>de</strong> estructuras: técnicas, metodológicas, burocráticas,organizativas.• Consolidación <strong>de</strong> infraestructuras: espacios, instalaciones,recursos financieros.• Análisis <strong>de</strong> congruencia entre previsión, reprogramación y ejecución.Por su parte, en lo que concierne a <strong>los</strong> resultados, efectos e impactosgenerados sobre <strong>los</strong> beneficiarios pue<strong>de</strong>n estructurarse <strong>los</strong> indicadoressegún <strong>los</strong> objetivos <strong>de</strong>l programa. Por ejemplo, atendiendo a<strong>los</strong> objetivos que, en términos generales, establece el Reglamento <strong>de</strong>lF.S.E. en el ámbito <strong>de</strong> la inserción y resinserción ocupacional <strong>de</strong> <strong>de</strong>sempleados(eje prioritario 4) en su objetivo primero 32 :• Indicadores <strong>de</strong> resultado:• Formación profesional: alumnos formados, número <strong>de</strong> cursos yhoras impartidas.• Formación previa: alumnos formados, formadores, etc.• Orientación, asesoramiento y acompañamiento a la inserción:acciones realizadas, horas y beneficiarios atendidos.• Ayudas al empleo (apoyo a la creación <strong>de</strong> empleo, apoyo a lacontratación in<strong>de</strong>finida, contratos <strong>de</strong> interés social…): ayudaslibradas, plazo <strong>de</strong> entrega <strong>de</strong> las ayudas, contratos efectuados,número <strong>de</strong> beneficiarios, número <strong>de</strong> proyectos.• Estructuras <strong>de</strong> formación, empleo y apoyo a la inserción: acciones<strong>de</strong> formación <strong>de</strong> <strong>los</strong> equipos humanos necesarios para suEl sistema <strong>de</strong>indicadores pue<strong>de</strong>configurase entérminos <strong>de</strong> Cobertura,Eficacia, Eficiencia yPertinencia32. Que preten<strong>de</strong> “facilitar la inserción profesional <strong>de</strong> <strong>los</strong> parados amenazados por una situación<strong>de</strong> <strong>de</strong>sempleo <strong>de</strong> larga duración...”67


funcionamiento así como la consolidación <strong>de</strong> espacios, <strong>de</strong> métodos,<strong>de</strong> instrumentos técnicos y servicios.• Tasa <strong>de</strong> aprovechamiento: porcentaje <strong>de</strong> beneficiarios que hanfinalizado la acción o servicio.• Tasa <strong>de</strong> <strong>de</strong>serción: porcentaje <strong>de</strong> beneficiarios que abandonanla acción o servicio, con indicación expresa <strong>de</strong> motivos.• ...• Indicadores <strong>de</strong> impacto:• Inserción profesional: permanencia sostenida en la ocupacióndurante un período no inferior a tres años.• Indicadores <strong>de</strong> efecto:• Inserción profesional: tasa <strong>de</strong> ocupación.• Tiempo invertido en la búsqueda <strong>de</strong> empleo.• Definición específica <strong>de</strong> un objetivo profesional.• Adquisición <strong>de</strong> cualificación profesional.• Tasa <strong>de</strong> permanencia en la ocupación <strong>de</strong> <strong>los</strong> beneficiarios.• Tasa <strong>de</strong> permanencia <strong>de</strong> establecimientos empresariales creados.• Tasa <strong>de</strong> crecimiento <strong>de</strong> las inversiones.• Tasa <strong>de</strong> incremento <strong>de</strong>l nivel <strong>de</strong> renta.• Grado <strong>de</strong> <strong>de</strong>pen<strong>de</strong>ncia <strong>de</strong> la ayuda social.• Calidad percibida y grado <strong>de</strong> satisfacción <strong>de</strong> <strong>los</strong> beneficiarios.• Eficiencia: Pue<strong>de</strong> <strong>de</strong>finirse como la relación entre el logro <strong>de</strong> <strong>los</strong>objetivos y <strong>los</strong> recursos invertidos en su consecución.• Coste <strong>de</strong> las acciones.• Coste por curso, alumno y hora <strong>de</strong> formación.• Coste por beneficiario..• Coste por beneficiario que ha accedido a la ocupación.• Coste por medida y población objetivo (gasto en la medida/poblaciónobjetivo total).• Cobertura: Proporción entre la población total que tiene la necesidad<strong>de</strong> dicho programa y la que se beneficia <strong>de</strong>l mismo.• Tasa <strong>de</strong> Prevalencia..• Tasa <strong>de</strong> Cobertura..• Grado <strong>de</strong> Especificidad <strong>de</strong>l Programa..• Tasa <strong>de</strong> Eficacia <strong>de</strong> la Cobertura..En lo que concierne a<strong>los</strong> resultados, efectose impactos generadossobre <strong>los</strong> beneficiarios,<strong>los</strong> indicadores pue<strong>de</strong>nestructurarse según <strong>los</strong>objetivos específicos<strong>de</strong>l programa68


• Pertinencia: La evaluación <strong>de</strong> la pertinencia requiere <strong>de</strong> un análisisen profundidad <strong>de</strong> carácter básicamente cualitativo para el quehabrá <strong>de</strong> tenerse en cuenta la diversa información generada a través<strong>de</strong>l resto <strong>de</strong> criterios. La pertinencia se vinculará a la satisfacción<strong>de</strong> las necesida<strong>de</strong>s <strong>de</strong> <strong>los</strong> colectivos <strong>de</strong> particular interés,tales como:• Parados mayores <strong>de</strong> 45 años.• Parados <strong>de</strong> muy larga duración: > 2 años <strong>de</strong>sempleados.• Mujeres jóvenes (


actores <strong>de</strong>s<strong>de</strong> las autorida<strong>de</strong>s regionales y municipales hasta <strong>los</strong>empresarios y las diversas asociaciones regionales. Los objetivos <strong>de</strong>lmismo eran <strong>los</strong> siguientes:• Aumentar el nivel <strong>de</strong> vida.• Crear oportunida<strong>de</strong>s <strong>de</strong> empleo.• Incrementar la actividad empresarial.• Mejorar la formación <strong>de</strong> <strong>los</strong> recursos humanos.• Mejorar la calidad <strong>de</strong> vida y el medio ambiente.• Desarrollar las infraestructuras regionales.En 1996 se <strong>de</strong>ci<strong>de</strong> proce<strong>de</strong>r a evaluar el Plan <strong>de</strong> forma que,simultáneamente, la evaluación contribuyera a su posible modificacióny la renovación <strong>de</strong> sus estrategias, permitiera el lanzamiento<strong>de</strong> nuevos proyectos y motivara el incremento en el compromiso<strong>de</strong> <strong>los</strong> diversos actores implicados para trabajar <strong>de</strong> formamás coordinada.METODOLOGÍAPara alcanzar <strong>los</strong> objetivos <strong>de</strong>finidos más arriba, la metodologíaque se consi<strong>de</strong>raba como más apropiada consistía en la implementación<strong>de</strong> un proceso integral <strong>de</strong> autoevaluación al que se le asignaron<strong>los</strong> siguientes fines principales:• La puesta al día y la re<strong>de</strong>finición <strong>de</strong> las estrategias <strong>de</strong>l PlanRegional <strong>de</strong> Desarrollo.• La promoción <strong>de</strong> la participación e implicación <strong>de</strong> <strong>los</strong> diversosactores en el <strong>de</strong>sarrollo <strong>de</strong> la región.• La promoción <strong>de</strong> la generación <strong>de</strong> nuevos proyectos.Por tanto, la autoevaluación resultó ser una metodología especialmentepertinente para lograr fortalecer y mejorar las relaciones <strong>de</strong> confianzay colaboración entre <strong>los</strong> diversos actores implicados en el Plan,fortaleciendo la i<strong>de</strong>ntidad regional y fomentando la cooperación.La metodología utilizada consistió en la realización <strong>de</strong> 3 cursosdiferentes, <strong>de</strong> 7 días <strong>de</strong> duración cada uno, a <strong>los</strong> que asistieron 25personas representando a <strong>los</strong> municipios, instituciones educativas,asociaciones y algunos empresarios. A lo largo <strong>de</strong> <strong>los</strong> cursos se realizarondiversas activida<strong>de</strong>s:• Exposiciones sobre el Plan Regional <strong>de</strong> Desarrollo, sus estrategias,objetivos e instrumentos para facilitar el <strong>de</strong>sarrollo <strong>de</strong>nuevos proyectos.La metodología que seconsi<strong>de</strong>raba como másapropiada consistía enla implementación <strong>de</strong>un proceso integral <strong>de</strong>autoevaluación al quese le asignaron <strong>los</strong>siguientes objetivosprincipales:• La puesta al día y lare<strong>de</strong>finición <strong>de</strong> lasestrategias <strong>de</strong>l PlanRegional <strong>de</strong> Desarrollo• La promoción <strong>de</strong> laparticipación eimplicación <strong>de</strong> <strong>los</strong>diversos actores en el<strong>de</strong>sarrollo <strong>de</strong> la región• La promoción <strong>de</strong> lageneración <strong>de</strong> nuevosproyectos70


• Grupos <strong>de</strong> trabajo para:• El diagnóstico <strong>de</strong> las fortalezas y <strong>de</strong>bilida<strong>de</strong>s regionales.• La evaluación <strong>de</strong> la pertinencia <strong>de</strong>l propio Plan Regional<strong>de</strong> Desarrollo para lograr resolver <strong>los</strong> problemas y <strong>de</strong>bilida<strong>de</strong>sregionales y aprovechar sus fortalezas.• Las propuestas <strong>de</strong> nuevas estrategias y objetivos paraincluir en el nuevo Plan Regional <strong>de</strong> Desarrollo.De forma más concreta, <strong>los</strong> temas tratados se centraron especialmenteen el análisis <strong>de</strong>:• La posición estratégica provincial (DAFO) y las posibles estrategias<strong>de</strong> <strong>de</strong>sarrollo para el futuro.• Las ventajas comparativas <strong>de</strong> la región y su posible implementaciónen el marco <strong>de</strong>l Plan Regional <strong>de</strong> Desarrollo.• Las posibilida<strong>de</strong>s <strong>de</strong> potenciar la internacionalización <strong>de</strong> laregión.• Las fortalezas y <strong>de</strong>bilida<strong>de</strong>s <strong>de</strong>l propio Plan <strong>de</strong> DesarrolloRegional así como la <strong>de</strong>tección <strong>de</strong> aquel<strong>los</strong> aspectos a priorizaren el mismo.• Las medidas que pue<strong>de</strong>n ser implementadas para promoverentre <strong>los</strong> diversos actores una mayor involucración respecto alPlan <strong>de</strong> Desarrollo Regional que favorezca su implementación.• Las organizaciones, empresas y actores clave que <strong>de</strong>ben participaren <strong>los</strong> diversos proyectos para garantizar el éxito <strong>de</strong> <strong>los</strong>mismos.De forma individual, cada participante fue invitado a evaluar quéelementos o instrumentos <strong>de</strong>l Plan <strong>de</strong> Desarrollo Regional resultabanmás útiles para su aplicación en el seno <strong>de</strong> su organización o empresa,así como qué tipo <strong>de</strong> información necesitarían para proce<strong>de</strong>r aesta aplicación.En la última sesión <strong>los</strong> participantes se concentraron en la planificación<strong>de</strong> proyectos concretos en <strong>los</strong> que estaba implicada laorganización a la que representaban. Del mismo modo, el equipo <strong>de</strong>consultores que actuaron como coordinadores y dinamizadores <strong>de</strong>las reuniones quedó a disposición <strong>de</strong> <strong>los</strong> diversos participantes paraproce<strong>de</strong>r a la realización <strong>de</strong> consultas durante <strong>los</strong> meses posterioresal evento. En total, se analizaron 50 proyectos en diversas fases <strong>de</strong><strong>de</strong>sarrollo, algunos i<strong>de</strong>ados en las propias sesiones, otros en fase <strong>de</strong>formulación y planificación y el resto ya implementados.En la última sesión <strong>de</strong>la evaluación, <strong>los</strong>participantes seconcentraron en laplanificación <strong>de</strong> <strong>los</strong>proyectos concretos en<strong>los</strong> que estabaimplicada laorganización a la querepresentaban. Delmismo modo, el equipo<strong>de</strong> consultores queactuaron comocoordinadores ydinamizadores <strong>de</strong> lasreuniones quedó adisposición <strong>de</strong> <strong>los</strong>diversos participantespara proce<strong>de</strong>r a larealización <strong>de</strong>consultas durante <strong>los</strong>meses posteriores71


APRENDIZAJESLos resultados <strong>de</strong>l proceso fueron ciertamente positivos:• Evaluación y reformulación <strong>de</strong>l Plan <strong>de</strong> Desarrollo Regional.• Puesta en marcha <strong>de</strong> nuevos proyectos y perfeccionamiento <strong>de</strong><strong>los</strong> ya existentes.• Consciencia compartida <strong>de</strong>l diagnóstico regional y <strong>de</strong> nuevasoportunida<strong>de</strong>s potenciales <strong>de</strong> <strong>de</strong>sarrollo.• Rei<strong>de</strong>ntificación <strong>de</strong> nuevas fuentes estratégicas <strong>de</strong> <strong>de</strong>sarrollo.• Fortalecimiento <strong>de</strong> las relaciones entre <strong>los</strong> actores clave para el<strong>de</strong>sarrollo regional.De esta forma el proceso <strong>de</strong> autoevaluación <strong>de</strong>mostró ser un métodosumamente útil para el aprendizaje conjunto, el perfeccionamiento<strong>de</strong>l Plan, y la i<strong>de</strong>ntificación <strong>de</strong> nuevos proyectos y activida<strong>de</strong>s viablesy pertinentes mediante el establecimiento <strong>de</strong> relaciones clavebasadas en la confianza, el diagnóstico compartido y el aprendizaje.Des<strong>de</strong> el punto <strong>de</strong> vista metodológico, la experiencia analizadasirvió para i<strong>de</strong>ntificar una serie <strong>de</strong> factores clave para el buen fin <strong>de</strong>lproceso evaluativo:• La necesidad <strong>de</strong> que la autoridad regional ejerza un li<strong>de</strong>razgoque impulse el proceso y fomente la participación e involucración <strong>de</strong><strong>los</strong> diversos actores, poniendo a disposición <strong>de</strong>l proceso <strong>de</strong> evaluación<strong>los</strong> recursos necesarios en términos <strong>de</strong> personal y financiación.• Los participantes en el proceso <strong>de</strong>ben estar convencidos <strong>de</strong> quesu participación, materializada en sus opiniones y propuestas, estásiendo tomada en cuenta y va a servir para cumplir <strong>los</strong> objetivos inicialmenteprevistos.• Las reuniones <strong>de</strong>ben durar el tiempo suficiente y <strong>de</strong>be crearse elclima <strong>de</strong> participación a<strong>de</strong>cuado.• Los participantes son un importante recursos para el <strong>de</strong>sarrolloregional una vez terminado el proceso <strong>de</strong> evaluación, facilitando sucolaboración en el futuro, tanto en el <strong>de</strong>sarrollo <strong>de</strong>l Plan como en el<strong>de</strong>sarrollo regional.El proceso <strong>de</strong>autoevaluación<strong>de</strong>mostró ser unmétodo sumamenteútil para el aprendizajeconjunto, elperfeccionamiento <strong>de</strong>lPlan, y la i<strong>de</strong>ntificación<strong>de</strong> nuevos proyectos yactivida<strong>de</strong>s viables ypertinentes medianteel establecimiento <strong>de</strong>relaciones clavebasadas en laconfianza, eldiagnósticocompartido y elaprendizaje4.2.2. EVALUACIÓN INTERMEDIA DE LAINICIATIVA COMUNITARIA INTERREG II EN ELALTO RHIN: LA IMPLEMENTACIÓN DE UNAMETODOLOGÍA PARTICIPATIVAANTECEDENTESLas iniciativas comunitarias enmarcadas en Interreg II preten<strong>de</strong>nestimular la cooperación transfronteriza mediante la dinamización72


económica y social <strong>de</strong> las regiones situadas en las fronteras que separana <strong>los</strong> Estados miembros. Por ello, existe, en cada caso, un programaoperativo para cada lado <strong>de</strong> la frontera que agrupa un conjunto<strong>de</strong> objetivos correspondiente a ámbitos diversos (infraestructuras,<strong>de</strong>sarrollo económico, promoción social, etc.), que vienen cofinanciadospor <strong>los</strong> diversos Fondos Estructurales en función <strong>de</strong>l carácterque presente cada objetivo (FEDER, FSE,...).De esta forma, <strong>los</strong> proyectos agrupados bajo estas iniciativascorrespon<strong>de</strong>n a una amplia variedad <strong>de</strong> ámbitos <strong>de</strong> actuación (configurados<strong>de</strong>ntro <strong>de</strong> su programación como ejes <strong>de</strong> <strong>de</strong>sarrollo) querequieren <strong>de</strong> una aproximación evaluativa adaptada a cada tipologíay, finalmente, <strong>de</strong> una evaluación integral <strong>de</strong> <strong>los</strong> objetivos <strong>de</strong>l programaque resulta compleja.En cuanto a la evaluación concreta <strong>de</strong>sarrollada para el AltoRhin, las especificaciones requeridas en <strong>los</strong> términos <strong>de</strong> referencia<strong>de</strong> la evaluación se centraban en cuatro aspectos básicos objeto<strong>de</strong> evaluación:• La consistencia <strong>de</strong> <strong>los</strong> objetivos en <strong>los</strong> diversos niveles <strong>de</strong>l programa.• El logro <strong>de</strong> <strong>los</strong> objetivos <strong>de</strong>l programa.• La eficiencia.• La eficacia.El proceso <strong>de</strong> evaluación se <strong>de</strong>sarrolló entre noviembre <strong>de</strong> 1996 ymayo <strong>de</strong> 1997 y, durante todo el proceso, el equipo <strong>de</strong> evaluación semantuvo en permanente contacto con un grupo <strong>de</strong> trabajo creado alefecto en el que estaban representados diversos responsables <strong>de</strong>l programa.Conviene subrayar que el equipo <strong>de</strong> evaluadores, a<strong>de</strong>más <strong>de</strong>disponer <strong>de</strong> las competencias suficientes en el ámbito <strong>de</strong> la evaluación,<strong>de</strong>stacaba por su profundo conocimiento <strong>de</strong> la zona.Cuando en noviembre <strong>de</strong> 1996 dio comienzo el proceso <strong>de</strong> evaluaciónel equipo evaluador, <strong>de</strong> acuerdo con el grupo <strong>de</strong> trabajo,estableció tres gran<strong>de</strong>s priorida<strong>de</strong>s que orientaran dicho proceso:• La selección <strong>de</strong> objetivos <strong>de</strong>l programa en función <strong>de</strong> su complementariedad,consistencia, <strong>los</strong> grupos a <strong>los</strong> que van dirigidos y <strong>los</strong>conflictos potenciales.• La evaluación y revisión <strong>de</strong> <strong>los</strong> procedimientos <strong>de</strong> ejecución yseguimiento y, en algunos casos, la formulación <strong>de</strong> nuevos indicadores.• La i<strong>de</strong>ntificación <strong>de</strong> <strong>los</strong> déficits existentes en la implementación<strong>de</strong>l programa en todos <strong>los</strong> niveles y la formulación <strong>de</strong> las recomendacionespertinentesDurante todo elproceso, el equipo <strong>de</strong>evaluación se mantuvoen permanentecontacto con un grupo<strong>de</strong> trabajo creado alefecto en el queestaban representadosdiversos responsables<strong>de</strong>l programa.Conviene subrayar queel equipo <strong>de</strong>evaluadores, a<strong>de</strong>más<strong>de</strong> disponer <strong>de</strong> lascompetenciassuficientes en elámbito <strong>de</strong> laevaluación, <strong>de</strong>stacabapor su profundoconocimiento <strong>de</strong> lazona73


Figura 13ESTRUCTURA Y SECUENCIA DE LA EVALUACIÓN SISTÉMICADESARROLLO METODOLÓGICODesarrollo <strong>de</strong>la base <strong>de</strong> datosDiseño <strong>de</strong>lcuestionarioEntrevistasa expertosAnálisis <strong>de</strong>todos <strong>los</strong> proyectos14 grupos <strong>de</strong> trabajosobre proyectosEvaluación5 grupos <strong>de</strong> trabajosobre ejesRetroalimentaciónPropuestassobre indicadoresFinalización <strong>de</strong>la base <strong>de</strong> datosEvaluación final <strong>de</strong> todos<strong>los</strong> proyectos yejes programáticos1 grupo <strong>de</strong> trabajoa nivel <strong>de</strong> programaINFORME FINALMETODOLOGÍAComo contrapunto al sistema <strong>de</strong> programación estructurado <strong>de</strong> arribahacia abajo o top down, el equipo <strong>de</strong> evaluadores diseñó un proceso <strong>de</strong>evaluación <strong>de</strong> abajo hacia arriba o botton up, estableciendo 17 grupos <strong>de</strong>trabajo en <strong>los</strong> diversos niveles <strong>de</strong> gestión y ejecución <strong>de</strong>l programa.La metodología diseñada parte <strong>de</strong>l convencimiento <strong>de</strong> que el evaluadorexterno nunca dispone <strong>de</strong> un conocimiento tan profundo <strong>de</strong>lprograma y <strong>de</strong> las diversas operaciones que lo componen, como puedandisponer las organizaciones y personas implicadas en el mismo.De esta forma, la metodología está presidida por una orientaciónhacia el diálogo y la autoevaluación que resulta especialmente pertinenteen el caso <strong>de</strong> las evaluaciones intermedias. Esta se pue<strong>de</strong> resumiren base a cinco características básicas:• Evaluación <strong>de</strong> abajo hacia arriba, en sentido inverso al procedimiento<strong>de</strong> programación.La metodología estápresidida por unaorientación hacia eldiálogo y laautoevaluación queresulta especialmentepertinente en el caso<strong>de</strong> las evaluacionesintermedias.74


• Utilización <strong>de</strong> diversas fuentes <strong>de</strong> información.• Involucración activa <strong>de</strong> una multiplicidad <strong>de</strong> actores.• Utilización <strong>de</strong> procedimientos estandarizados.• Orientación hacia la autoevaluación y el diálogo.En el esquema <strong>de</strong> la Figura 13 se presenta la estructura y lasdiversas fases <strong>de</strong>l proceso <strong>de</strong> evaluación. Se pue<strong>de</strong> apreciar elimportante papel que tienen en el mismo las técnicas <strong>de</strong> evaluaciónparticipativa, estableciendo grupos <strong>de</strong> trabajo en <strong>los</strong> tres niveles <strong>de</strong>programación: proyecto, eje <strong>de</strong> <strong>de</strong>sarrollo y programa 33 . Comoresultaría ineficiente establecer grupos <strong>de</strong> trabajo para todos <strong>los</strong>proyectos <strong>de</strong>l programa, se configuró una muestra <strong>de</strong> 14 para <strong>los</strong>que se estableció un grupo <strong>de</strong> trabajo, mientras que, para todos <strong>los</strong>proyectos, se aplicó un cuestionario como base <strong>de</strong> generación <strong>de</strong> lainformación necesaria para la evaluación.Toda la información generada a lo largo <strong>de</strong>l proceso quedóincluida en una base <strong>de</strong> datos que se configura como un producto<strong>de</strong> la evaluación adicional al tradicional informe (Ver Figura 13).APRENDIZAJESComo resultados <strong>de</strong>l proceso <strong>de</strong> evaluación se presentaron unaserie <strong>de</strong> recomendaciones y propuestas <strong>de</strong> modificación referidasa la casi totalidad <strong>de</strong> ámbitos que conforman el programa, <strong>de</strong>s<strong>de</strong> suconcepción, objetivos, programación, seguimiento, procedimientosadministrativos y financieros, etc.Se señalan las conclusiones y aprendizajes vinculados <strong>de</strong> maneramás estrecha con el proceso <strong>de</strong> evaluación <strong>de</strong> programas cofinanciadospor la U.E. y, en concreto, relativos a Interreg II, queapunta la necesidad <strong>de</strong>:• Superar la concepción <strong>de</strong> la evaluación como un simplecontrol que evalúa la correcta implementación <strong>de</strong>l programaprefijado.• Que todas las partes implicadas conciban la evaluación como unComo resultados <strong>de</strong>lproceso <strong>de</strong> evaluaciónse presentaron unaserie <strong>de</strong>recomendaciones ypropuestas <strong>de</strong>modificación referidasa la casi totalidad <strong>de</strong>ámbitos queconforman elprograma, <strong>de</strong>s<strong>de</strong> suconcepción, objetivos,programación,seguimiento,procedimientosadministrativos yfinancieros, etc.33. Los grupos <strong>de</strong> trabajo se configuraron bajo la i<strong>de</strong>a básica <strong>de</strong> la necesidad <strong>de</strong> crear un diálogoentre <strong>los</strong> diversos actores basado en la mutua confianza. La duración media no sobrepasabalas tres horas y, a nivel <strong>de</strong> proyecto, <strong>los</strong> evaluadores establecieron una agenda <strong>de</strong> diez puntos básicos<strong>de</strong> discusión que permitían una comparación posterior con <strong>los</strong> resultados <strong>de</strong> cada proyecto.Por su parte, a nivel <strong>de</strong> eje, <strong>los</strong> grupos se centraban en la reflexión en torno a <strong>los</strong> objetivos <strong>de</strong> cadaeje y al logro <strong>de</strong> <strong>los</strong> mismos mediante <strong>los</strong> proyectos programados para el mismo, para lo que seincluía la información generada en la evaluación <strong>de</strong> dichos proyectos. Por último, el grupo <strong>de</strong> trabajo<strong>de</strong>l programa se centró en <strong>los</strong> objetivos <strong>de</strong>l programa y su cumplimiento mediante <strong>los</strong> ejesestablecidos, <strong>los</strong> procedimientos <strong>de</strong> programación, así como <strong>los</strong> procedimientos administrativosy financieros <strong>de</strong>l programa.75


proceso motivador <strong>de</strong>l aprendizaje que ayu<strong>de</strong> al <strong>de</strong>sarrollo <strong>de</strong> nuevasy más eficaces soluciones en todos <strong>los</strong> niveles <strong>de</strong>l programa(proyecto, eje y programa), la modificación y el <strong>de</strong>sarrollo <strong>de</strong> <strong>los</strong>objetivos, y el uso <strong>de</strong> <strong>los</strong> fondos en <strong>los</strong> diversos niveles.• Configurar un proceso <strong>de</strong> evaluación orientado por el diálogo,que promueva la participación y la autoevaluación <strong>de</strong> <strong>los</strong> diversosactores implicados.• Concebir el papel <strong>de</strong>l equipo evaluador como dinamizador <strong>de</strong>lprograma, estimulando y estructurando el diálogo entre <strong>los</strong>diversos actores implicados, estableciendo un lenguaje comúnque permita este diálogo y la comparación entre <strong>los</strong> diversosproyectos que conforman el programa.4.2.3. EVALUACIÓN DE LA INNOVACIÓN EN LAPRIMERA FASE ADAPT. GRECIAANTECEDENTESEn este caso la experiencia <strong>de</strong>sarrollada correspon<strong>de</strong> a la evaluación<strong>de</strong> la primera fase <strong>de</strong> la iniciativa comunitaria ADAPT enGrecia. La iniciativa ADAPT preten<strong>de</strong> adaptar la mano <strong>de</strong> obra a <strong>los</strong>cambios producidos en la industria.La puesta en marcha y ejecución <strong>de</strong> la iniciativa atien<strong>de</strong> a tresfases fundamentales:• Fase 1: Formulación <strong>de</strong> la estrategia <strong>de</strong>l Programa Operativo.• Fase 2: Selección <strong>de</strong> <strong>los</strong> proyectos conforme a <strong>los</strong> criterios establecidos.• Fase 3: Implementación <strong>de</strong> <strong>los</strong> proyectos y acciones que <strong>los</strong>conforman.METODOLOGÍAFases <strong>de</strong> la evaluaciónEsta evaluación se ha <strong>de</strong>sarrollado en dos fases diferenciadas porel enfoque y la metodología adoptada en cada una <strong>de</strong> ellas.La primera fase <strong>de</strong>stinada a generar una <strong>de</strong>scripción completa <strong>de</strong> <strong>los</strong>diversos aspectos que caracterizan la implementación <strong>de</strong>l ProgramaOperativo, <strong>de</strong> <strong>los</strong> proyectos que lo conforman y <strong>de</strong> su grado <strong>de</strong> ejecución,todo ello a partir <strong>de</strong> un seguimiento completo <strong>de</strong> dichos proyectos.La segunda fase incluía el <strong>de</strong>sarrollo <strong>de</strong> 22 estudios <strong>de</strong> casomediante <strong>los</strong> que se generó información cualitativa, se verificó <strong>los</strong>El sistema <strong>de</strong>evaluación seestructura en dosniveles básicos <strong>de</strong>análisis. El primer nivelcorrespon<strong>de</strong> alfuncionamientointerno <strong>de</strong>l ProgramaOperativo, mientrasque el segundo nivel secentra en la evaluación<strong>de</strong>l contexto o entornoen el que seimplementa elPrograma Operativo76


Figura 14ESTRUCTURA CONCEPTUAL Y CRITERIOS DE EVALUACIÓNC O H E R E N C I ACumplimiento <strong>de</strong> <strong>los</strong> objetivosestratégicos <strong>de</strong> la iniciativaADAPTFUNCIONAMIENTO INTERNOGrado <strong>de</strong> integración en laplanificaciónC O N S I S T E N C I AConsistencia <strong>de</strong> la articulación<strong>de</strong>l Programa respecto a laestructura <strong>de</strong>l ADAPTEficiencia Operacional:• progreso en la implantación• funcionamiento <strong>de</strong>l sistema<strong>de</strong> partenariadoEficiencia económicaEficacia en la gestión y seguimiento<strong>de</strong>l programaN i v e le r1ENTORNO DE LA IMPLEMENTACIÓN DEL PROGRAMAIntegración <strong>de</strong> las políticas<strong>de</strong>l mercado <strong>de</strong> trabajonacionales y <strong>de</strong> la U.E.POLÍTICASS I N E R G I AComplementariedad conotros programas Comunitarios.USUARIOSBENEFICIOS/RESULTADOSUtilización <strong>de</strong> <strong>los</strong> productosintermedios y finales generadospor el programaValor añadidoEfecto multiplicador2 º N i v e lresultados <strong>de</strong> la primera fase y analizaron en profundidad <strong>los</strong> factoresque resultaban críticos para el éxito <strong>de</strong>l Programa Operativo y elcumplimiento <strong>de</strong> <strong>los</strong> objetivos <strong>de</strong> la iniciativa ADAPT.Niveles <strong>de</strong> evaluaciónEn lo que respecta al sistema <strong>de</strong> evaluación, éste se estructura en dosniveles básicos <strong>de</strong> análisis. El primer nivel correspon<strong>de</strong> al funcionamientointerno <strong>de</strong>l Programa Operativo, mientras que el segundo nivelse centra en la evaluación <strong>de</strong>l contexto o entorno en el que se implementael Programa Operativo. En el esquema <strong>de</strong> la Figura 14 se muestrael contenido <strong>de</strong> la evaluación en cada uno <strong>de</strong> <strong>los</strong> dos niveles.La evaluación <strong>de</strong>l primer nivel estuvo presidida por <strong>los</strong> criterios <strong>de</strong>coherencia y consistencia. En el marco <strong>de</strong> este proceso <strong>de</strong> evaluacióncada uno <strong>de</strong> estos criterios venía <strong>de</strong>finido <strong>de</strong> la siguiente manera:77


• La coherencia se ha <strong>de</strong>finido como el grado en el que <strong>los</strong> resultadosalcanzados y <strong>los</strong> mecanismos y procedimientos operativos aplicadospara la ejecución <strong>de</strong>l Programa Operativo se correspon<strong>de</strong>n con<strong>los</strong> objetivos estratégicos <strong>de</strong> la iniciativa ADAPT.• La consistencia <strong>de</strong>l Programa Operativo refleja la eficiencia operacionaly compren<strong>de</strong>:• El grado <strong>de</strong> ejecución alcanzado a nivel <strong>de</strong> proyecto (tercernivel).• El nivel <strong>de</strong> participación e involucración <strong>de</strong> <strong>los</strong> diversosactores.• La eficiencia <strong>de</strong> <strong>los</strong> resultados generados por <strong>los</strong> proyectos.• La eficiencia en <strong>los</strong> mecanismos <strong>de</strong> gestión y administracióna nivel nacional.El segundo nivel <strong>de</strong> evaluación correspon<strong>de</strong> al contexto o entorno<strong>de</strong> la implementación <strong>de</strong>l Programa Operativo y compren<strong>de</strong> dosámbitos diferenciados, el relativo al marco político y las consiguientessinergias que se pue<strong>de</strong>n generar con el Programa Operativo y el<strong>de</strong> la interacción <strong>de</strong>l Programa Operativo con <strong>los</strong> usuarios (la utilizaciónque <strong>de</strong> <strong>los</strong> productos generados hacen <strong>los</strong> usuarios y el valorañadido para <strong>los</strong> mismos).EVALUACIÓN TEMÁTICA DE LA INNOVACIÓN ENEL MARCO DE LA EVALUACIÓN DE ADAPTSegún el diseño <strong>de</strong> la evaluación presentado, se proce<strong>de</strong> a ofrecer,a modo <strong>de</strong> ejemplo, la aplicación práctica <strong>de</strong> la evaluación <strong>de</strong> uno <strong>de</strong><strong>los</strong> dos niveles señalados. Así, <strong>de</strong>ntro <strong>de</strong>l primer nivel (funcionamientointerno) se analiza en particular el grado en el que, con laimplementación <strong>de</strong>l Programa Operativo, se estaba incrementado elnivel <strong>de</strong> innovación en el tejido empresarial <strong>de</strong> forma:• Coherente con <strong>los</strong> objetivos estratégicos <strong>de</strong> ADAPT 34 .• Consistente con la articulación <strong>de</strong> <strong>los</strong> proyectos que conformanel Programa Operativo.En el marco <strong>de</strong> ADAPT la innovación se <strong>de</strong>fine como un procesoevolutivo vinculado al cambio industrial. Este proceso seconcreta mediante el concepto <strong>de</strong> “Capacida<strong>de</strong>s innovadoras” yse evalúa en cada uno <strong>de</strong> <strong>los</strong> proyectos mediante el criterio <strong>de</strong>La evaluación <strong>de</strong>lprimer nivel estuvopresidida por <strong>los</strong>criterios <strong>de</strong> coherenciay consistencia. Elsegundo nivel <strong>de</strong>evaluacióncorrespon<strong>de</strong> alcontexto o entorno <strong>de</strong>la implementación <strong>de</strong>lPrograma Operativo ycompren<strong>de</strong> dosámbitos diferenciados,el relativo al marcopolítico y lasconsiguientes sinergiasque se pue<strong>de</strong>n generarcon el ProgramaOperativo y el <strong>de</strong> lainteracción <strong>de</strong>lPrograma Operativocon <strong>los</strong> usuarios34. Ya que la innovación, como factor clave para acelerar el cambio industrial (objetivo básico <strong>de</strong>lADAPT), es uno <strong>de</strong> <strong>los</strong> objetivos estratégicos fundamentales <strong>de</strong> la iniciativa ADAPT78


“Eficacia innovadora” 35 . Del mismo modo, la acumulación <strong>de</strong> la“capacidad innovadora” lograda mediante la implementación <strong>de</strong><strong>los</strong> proyectos correspon<strong>de</strong> a diferentes etapas <strong>de</strong>l proceso <strong>de</strong> adaptaciónal cambio industrial 36 y, a su vez, el grado <strong>de</strong> utilización <strong>de</strong>la capacidad tecnológica alcanzada se pue<strong>de</strong> estructurar en tresfases diferentes 37 .Así, las cuatro preguntas básicas que <strong>de</strong>ben respon<strong>de</strong>rse mediante elproceso <strong>de</strong> evaluación son:Primera: ¿Qué tipo <strong>de</strong> “capacidad innovadora” contribuye a crearel proyecto?Segunda: ¿Qué etapa <strong>de</strong>l proceso <strong>de</strong> adaptación empresarial ayudaa alcanzar cada proyecto?Tercera: ¿Existe una correlación positiva entre la acumulación <strong>de</strong>“capacidad innovadora” y el nivel <strong>de</strong> “eficacia innovadora”?.Cuarta: ¿Cuál es la fase que maximiza la utilización <strong>de</strong> la capacidady su impacto en la productividad <strong>de</strong>l trabajo?.Tal y como se expuso al presentar la metodología <strong>de</strong> evaluación, éstase realizó en dos etapas. En la primera, todos <strong>los</strong> promotores <strong>de</strong> proyectos<strong>de</strong>bieron rellenar una serie <strong>de</strong> cuestionarios en <strong>los</strong> que <strong>de</strong>bían i<strong>de</strong>ntificarque acciones <strong>de</strong> sus proyectos podían ser consi<strong>de</strong>radas comoinnovadoras. Durante la segunda fase, <strong>los</strong> promotores <strong>de</strong> proyectosseleccionados para <strong>los</strong> estudios <strong>de</strong> caso <strong>de</strong>bieron profundizar en el análisis<strong>de</strong> la innovación en el seno <strong>de</strong> sus proyectos, ofreciendo una <strong>de</strong>s-En el marco <strong>de</strong> ADAPTla innovación se <strong>de</strong>finecomo un procesoevolutivo vinculado alcambio industrial. Esteproceso se concretamediante el concepto<strong>de</strong> “Capacida<strong>de</strong>sinnovadoras” y seevalúa en cada uno <strong>de</strong><strong>los</strong> proyectos medianteel criterio <strong>de</strong> “Eficaciainnovadora”35. Se pue<strong>de</strong> afirmar que el cambio industrial y la innovación se concretan en tres categorías básicas<strong>de</strong> “Capacida<strong>de</strong>s innovadoras” vinculadas a:• La inversión: conocimientos y habilida<strong>de</strong>s necesarias para i<strong>de</strong>ntificar, producir y generar tecnología.• La producción y la mano <strong>de</strong> obra: habilida<strong>de</strong>s vinculadas a la organización <strong>de</strong> la produccióny el trabajo que agrupan, <strong>de</strong>s<strong>de</strong> las habilida<strong>de</strong>s básicas que requieren las operaciones <strong>de</strong>carácter simple y <strong>de</strong> mantenimiento, hasta las habilida<strong>de</strong>s necesarias para la investigación yla creación innovadora.• El entorno empresarial: habilida<strong>de</strong>s necesarias para la transmisión y recepción <strong>de</strong> informacióny tecnología.36. Las tres etapas o nieveles <strong>de</strong> contribución a la innovación <strong>de</strong> <strong>los</strong> proyectos son las siguientes:1ª) Los proyectos generan habilida<strong>de</strong>s que ayudan a las empresas a efectuar cambios <strong>de</strong> rutinaque permiten resolver problemas simples2ª) Los proyectos generan habilida<strong>de</strong>s que permiten que la empresa vaya adaptándose a <strong>los</strong>cambios <strong>de</strong>l entorno mediante la búsqueda y adopción <strong>de</strong>l “saber-hacer” y la tecnologíaexistente tanto <strong>de</strong>ntro, como fuera <strong>de</strong> la empresa.3ª) Los proyectos generan las capacida<strong>de</strong>s necesarias para que la empresa, en su conjunto, adopteuna actitud proactiva hacia <strong>los</strong> cambios tecnológicos, convirtiéndose en un agente activo<strong>de</strong>l cambio industrial que investiga y <strong>de</strong>sarrolla su propia tecnología.37. Una primera fase <strong>de</strong> utilización mínima durante la que se proce<strong>de</strong> a efectuar un diagnósticoy planificación <strong>de</strong> la situación, una segunda fase <strong>de</strong> utilización reducida en laque se comienza a implementar lo planificado mediante proyectos piloto y, finalmente,una tercera en la que se produce una utilización completa <strong>de</strong> las capacida<strong>de</strong>s disponibles.79


cripción cualitativa <strong>de</strong> las características en el terreno <strong>de</strong> la innovación(según el esquema expuesto con anterioridad), así como <strong>de</strong> las accionesque fueron i<strong>de</strong>ntificadas como innovadoras.4.2.4. EVALUACIÓN INTERMEDIA DE LOSPROGRAMAS OPERATIVOS Y DEL MARCOCOMUNITARIO DE APOYO COFINANCIADO POREL FSE, 1994-1999. IRLANDAANTECEDENTESLa regulación <strong>de</strong> <strong>los</strong> Fondos Estructurales requerían la realización<strong>de</strong> una evaluación a mitad <strong>de</strong> camino <strong>de</strong> la ejecución que se estaba llevandoen relación a <strong>los</strong> Programas Operativos 39 y al propio MarcoComunitario <strong>de</strong> Apoyo (MCA) establecido para el conjunto <strong>de</strong> Irlanda.Los términos <strong>de</strong> referencia <strong>de</strong> la evaluación intermedia partían <strong>de</strong>una premisa fundamental: el coste <strong>de</strong> oportunidad <strong>de</strong> <strong>los</strong> fondospúblicos era elevado, por lo que cualquier gasto público <strong>de</strong>be analizarseen comparación con la mejor alternativa <strong>de</strong> uso <strong>de</strong> <strong>los</strong> fondosexistentes al margen <strong>de</strong> la elegida. Para evaluar el uso <strong>de</strong> estos fondosno es suficiente afirmar que el gasto ejercido está <strong>de</strong>ntro <strong>de</strong>l programadoy que mediante su ejecución se está contribuyendo a <strong>los</strong>objetivos pre<strong>de</strong>finidos para el mismo.Des<strong>de</strong> este planteamiento, a partir <strong>de</strong> la evaluación intermedia <strong>de</strong>bíangenerarse las recomendaciones que fueran necesarias para efectuar<strong>los</strong> ajustes pertinentes con el fin <strong>de</strong> perfeccionar <strong>los</strong> programas, modificando,en su caso, el <strong>de</strong>stino <strong>de</strong> <strong>los</strong> fondos. En este or<strong>de</strong>n <strong>de</strong> cosas, seestablecen tres aspectos clave objeto <strong>de</strong> observación y análisis:• La pertinencia y la eficacia atribuible al diseño inicial <strong>de</strong>l programay a las medidas que lo conforman, a partir <strong>de</strong> la informaciónrelativa a su puesta en marcha y ejecución.• Los cambios que experimenta el contexto en el que se <strong>de</strong>sarrollael programa <strong>de</strong>s<strong>de</strong> el momento <strong>de</strong> su formulación y que pue<strong>de</strong>n implicarla necesidad <strong>de</strong> revisar las priorida<strong>de</strong>s inicialmente establecidas.• La evaluación <strong>de</strong>tallada <strong>de</strong> la gestión e implementación, asícomo el grado <strong>de</strong> ejecución <strong>de</strong> las diversas medidas que conforman<strong>los</strong> programas, a partir <strong>de</strong> lo cual <strong>de</strong>ben generarse recomendacionesespecíficas sobre las mismas.Los términos <strong>de</strong>referencia <strong>de</strong> laevaluación intermediapartían <strong>de</strong> una premisafundamental: el coste<strong>de</strong> oportunidad <strong>de</strong> <strong>los</strong>fondos públicos eraelevado, por lo quecualquier gasto público<strong>de</strong>be analizarse encomparación con lamejor alternativa <strong>de</strong>uso <strong>de</strong> <strong>los</strong> fondosexistentes al margen<strong>de</strong> la elegida39. Los Programas Operativos son programas establecidos a nivel nacional y supervisados porcomités <strong>de</strong> seguimiento en <strong>los</strong> que participan representantes <strong>de</strong> la Comisión Europea, autorida<strong>de</strong>snacionales, agencias, agentes sociales, autorida<strong>de</strong>s regionales y otras organizaciones interesadas.80


METODOLOGÍAEl enfoque metodológico empleado en este proceso <strong>de</strong> evaluaciónha sido calificado por la propia Dirección General XVI <strong>de</strong> laComisión Europea como especialmente innovador y pertinente parapromover su transferencia a otros <strong>procesos</strong> <strong>de</strong> evaluación. En concreto,la clasificación funcional <strong>de</strong> medidas que se formula en elmismo ha sido el elemento que confiere a este proceso este carácterinnovador.A nivel macroeconómico, la evaluación <strong>de</strong>l impacto <strong>de</strong>l programase efectuó mediante el mo<strong>de</strong>lo econométrico que se había empleadoen la evaluación ex-post <strong>de</strong>l programa 1989-1993, revisado y adaptadopara la nueva etapa 1994-1999.Fue a nivel microeconómico don<strong>de</strong> se utilizó el enfoque innovadoral que se ha hecho referencia. Así, la evaluación partía <strong>de</strong>l principio <strong>de</strong>que las políticas públicas <strong>de</strong>berían orientarse hacia la corrección <strong>de</strong> lasdistorsiones existentes. Esta máxima sencilla aporta un instrumentopo<strong>de</strong>roso para la evaluación <strong>de</strong> la eficacia y eficiencia <strong>de</strong> las políticaspúblicas. Cualquier gasto que no esté directamente <strong>de</strong>stinado a lacorrección <strong>de</strong> las distorsiones resultará improce<strong>de</strong>nte <strong>de</strong>bido a sus costesimpositivos. Así, cada medida, <strong>de</strong>be justificarse a sí misma en términos<strong>de</strong> coste <strong>de</strong> oportunidad <strong>de</strong> <strong>los</strong> fondos públicos.Para proce<strong>de</strong>r a la evaluación <strong>de</strong> las medidas que conforman <strong>los</strong>programas según su coste <strong>de</strong> oportunidad, se procedió a su clasificaciónen cuatro categorías diferentes:1ª Medidas que consisten en generar “bienes públicos” que nopue<strong>de</strong>n ser producidos <strong>de</strong> forma óptima por el sector privado.2ª Medidas <strong>de</strong>stinadas a alterar <strong>los</strong> precios relativos con el fin <strong>de</strong>corregir alguna externalidad (este tipo <strong>de</strong> medidas se pue<strong>de</strong> <strong>de</strong>nominar“subsidios correctivos”).3ª Medidas <strong>de</strong>stinadas a modificar el comportamiento <strong>de</strong> <strong>los</strong>agentes privados que están mal informados o se enfrentan a <strong>de</strong>terminadasbarreras informativas.4ª Medidas <strong>de</strong>stinadas a generar un efecto redistributivo entre lapoblación.Una diferencia que resulta importante para la gestión <strong>de</strong> <strong>los</strong> programases la que se produce en términos presupuestarios entre lasmedidas que preten<strong>de</strong>n corregir una externalidad (medidas presupuestariasabiertas) y aquellas que se <strong>de</strong>stinan a modificar el comportamiento<strong>de</strong> <strong>los</strong> agentes (medidas presupuestarias cerradas). DeLa evaluación partía<strong>de</strong>l principio <strong>de</strong> que laspolíticas públicas<strong>de</strong>berían orientarsehacia la corrección <strong>de</strong>las distorsionesexistentes. Estamáxima sencilla aportaun instrumentopo<strong>de</strong>roso para laevaluación <strong>de</strong> laeficacia y eficiencia <strong>de</strong>las políticas públicas.Cualquier gasto que noesté directamente<strong>de</strong>stinado a lacorrección <strong>de</strong> lasdistorsiones resultaráimproce<strong>de</strong>nte <strong>de</strong>bido asus costes impositivos81


esta forma, mientras las medidas presupuestarias abiertas pue<strong>de</strong>nsuponer una <strong>de</strong>manda suplementaria <strong>de</strong> recursos financieros, lasmedidas presupuestarias cerradas se dotan justamente hasta que elobjetivo final se cumple.El equipo evaluador procedió a clasificar cada una <strong>de</strong> las medidasy submedidas existentes entre las cuatro categorías i<strong>de</strong>ntificadaspara, posteriormente, elaborar las recomendaciones pertinentes sobrela redistribución <strong>de</strong> <strong>los</strong> fondos (reprogramación).La principal ventaja <strong>de</strong> esta reclasificación funcional <strong>de</strong> las medidasproviene <strong>de</strong> que el evaluador pue<strong>de</strong> comparar <strong>los</strong> programas entresi y, <strong>de</strong> esta forma, proveer a <strong>los</strong> responsables <strong>de</strong> una serie <strong>de</strong> recomendacionespara la reprogramación financiera relativa al períodoque resta antes <strong>de</strong> la finalización, cumpliendo, <strong>de</strong> esta forma, con una<strong>de</strong> las finalida<strong>de</strong>s fundamentales <strong>de</strong> las evaluaciones intermedias. Sinembargo, la principal <strong>de</strong>sventaja <strong>de</strong> una clasificación funcional comola referida es que la evaluación no se realiza conforme a <strong>los</strong> objetivosfijados en <strong>los</strong> programas operacionales.De un total cercano a 100 medidas, se i<strong>de</strong>ntificaron 18 para las que secuestionaba su inclusión en el programa y 8 <strong>de</strong>bían ser reforzadas en lasiguiente fase. Del mismo modo, se i<strong>de</strong>ntificaron ámbitos <strong>de</strong> actuaciónque <strong>de</strong>bían ser potenciados y ámbitos <strong>de</strong> actuación a ir suprimiendo.APRENDIZAJESLas recomendaciones efectuadas a partir <strong>de</strong> la evaluación intermediatuvieron, en términos generales, un impacto significativosobre las <strong>de</strong>cisiones tomadas en relación a la reprogramación <strong>de</strong> lasegunda fase 38 , contribuyendo al perfeccionamiento <strong>de</strong> <strong>los</strong> programasy la reasignación <strong>de</strong> sus fondos entre las diversas medidas.La clasificación funcional <strong>de</strong> <strong>los</strong> gastos basada en el principio <strong>de</strong>que la política gubernamental <strong>de</strong>be tener una función correctiva y es,a juicio <strong>de</strong> la propia Comisión, un enfoque metodológico que podríaser transferido <strong>de</strong> manera a<strong>de</strong>cuada a otras situaciones. Este tipo <strong>de</strong>clasificación innovadora pue<strong>de</strong> convertirse en un instrumento suplementariopara <strong>los</strong> <strong>de</strong>cisores a la hora <strong>de</strong> proce<strong>de</strong>r a la reasignación <strong>de</strong><strong>los</strong> recursos financieros, tomar <strong>de</strong>cisiones <strong>de</strong> carácter financiero, asícomo otro tipo <strong>de</strong> <strong>de</strong>cisiones. Su utilización, sin embargo, <strong>de</strong>beríalimitarse a <strong>los</strong> programas <strong>de</strong> nivel nacional que disponen <strong>de</strong> una escalasuficiente como para po<strong>de</strong>r aplicar este tipo <strong>de</strong> clasificación.Una diferencia queresulta importantepara la gestión <strong>de</strong> <strong>los</strong>programas es la que seproduce en términospresupuestarios entrelas medidas quepreten<strong>de</strong>n corregir unaexternalidad (medidaspresupuestariasabiertas) y aquellasque se <strong>de</strong>stinan amodificar elcomportamiento <strong>de</strong> <strong>los</strong>agentes (medidaspresupuestariascerradas)38. Así, <strong>de</strong> las 18 medidas que en la evaluación se recomendaba la disminución <strong>de</strong> su financiación,8 fueron suprimidas, mientras que <strong>de</strong> las 8 para las que se recomendaba el incremento en sufinanciación, 5 experimentaron un apoyo adicional.82


4.2.5. EVALUACIÓN EX-POST DE PROGRAMASOBJETIVO 2. 1989-1993ANTECEDENTESLa evaluación ex-post <strong>de</strong> <strong>los</strong> programas cofinanciados por <strong>los</strong>Fondos Estructurales entre 1989 y 1993 para las regiones <strong>de</strong>Objetivo 2 cubría un total <strong>de</strong> 60 regiones europeas pertenecientes anueve Estados Miembros. La Comisión aglutinó a todas las regionesen diez grupos, en cada uno <strong>de</strong> <strong>los</strong> cuales las regiones incluidas<strong>de</strong>tentaban unas características similares para proce<strong>de</strong>r así a su evaluación.El proceso <strong>de</strong> evaluación se <strong>de</strong>sarrolló entre 1996 y 1997mediante una coordinación establecida a nivel europeo, así comouna serie <strong>de</strong> consultoras que <strong>de</strong>sarrollaron su trabajo a nivel regionaly local.El objetivo principal <strong>de</strong>l estudio, establecido por la propiaComisión Europea, se centraba en evaluar <strong>los</strong> resultados generadospor <strong>los</strong> programas cofinanciados en las Zonas <strong>de</strong> Objetivo 2, asícomo contribuir a la mejora y el perfeccionamiento <strong>de</strong> las intervencionesa <strong>de</strong>sarrollar en futuros períodos <strong>de</strong> programación. Losaspectos que <strong>de</strong>bían quedar resueltos una vez finalizada la evaluaciónex-post eran <strong>los</strong> siguientes:• Qué impactos habían producido las intervenciones.• Cómo se habían logrado dichos impactos y en qué medida contribuíanal proceso <strong>de</strong> reconversión industrial (prioridad central <strong>de</strong><strong>los</strong> programas <strong>de</strong> Objetivo 2).• Hasta qué punto habían contribuido las reformas introducidas en<strong>los</strong> Fondos Estructurales en 1988 a mejorar la forma en la que seimplementaron <strong>los</strong> Fondos y a lograr <strong>los</strong> resultados alcanzados.• Cuáles eran las conclusiones y aprendizajes que se <strong>de</strong>rivaban <strong>de</strong>la evaluación y podían servir <strong>de</strong> guía para la mejora futura.El objetivo principalestablecido por lapropia ComisiónEuropea se centraba enevaluar <strong>los</strong> resultadosgenerados por <strong>los</strong>programascofinanciados en lasZonas <strong>de</strong> Objetivo 2 asícomo contribuir a lamejora y elperfeccionamiento <strong>de</strong>las intervenciones a<strong>de</strong>sarrollar en futurosperíodos <strong>de</strong>programaciónMETODOLOGÍADe forma general, el proceso <strong>de</strong> evaluación se estructuró en tresgran<strong>de</strong>s etapas, una primera en la que se realizaron informes preliminares,y una segunda etapa que incluía la realización <strong>de</strong> lassiguientes intervenciones:• Una evaluación general sobre la situación anterior y posterior encada región.• Una serie <strong>de</strong> estudios en profundidad que cubrían 22 <strong>de</strong> las 60regiones <strong>de</strong> Objetivo 2.83


• Un conjunto <strong>de</strong> evaluaciones temáticas para la i<strong>de</strong>ntificación<strong>de</strong> las mejores prácticas vinculadas a modalida<strong>de</strong>s particulares <strong>de</strong>intervención.Finalmente, en la tercera etapa se procedió a la elaboración <strong>de</strong> <strong>los</strong>informes finales que venían a sintetizar <strong>los</strong> resultados, conclusionesy recomendaciones obtenidas a partir <strong>de</strong>l proceso <strong>de</strong> evaluación.Los informes preliminares para las evaluaciones <strong>de</strong>l impactogenerado por <strong>los</strong> programas efectuaban un análisis a nivel macro(siguiendo un enfoque top down o <strong>de</strong> arriba hacia abajo) mediante lacomparación <strong>de</strong> la situación anterior y posterior al programa. Dichoanálisis se basada en una serie <strong>de</strong> variables clave escogidas entre <strong>los</strong>diversos indicadores económicos sectoriales y globales, la distribuciónsectorial y la evolución <strong>de</strong>l PIB o la evolución <strong>de</strong>l empleo. Delmismo modo, en el marco <strong>de</strong> estos informes se analizaba el fundamento<strong>de</strong> las estrategias adoptadas, <strong>los</strong> mo<strong>de</strong><strong>los</strong> <strong>de</strong> gestión utilizados,así como las estructuras <strong>de</strong> partenariado creadas.Estos informes incluían la revisión <strong>de</strong> las estrategias y programasque comprendían el Objetivo 2, subrayando las similitu<strong>de</strong>s y las diferenciasentre las diversas regiones respecto a diversas variables o <strong>los</strong>posibles factores explicativos vinculados a <strong>los</strong> programas: la metodología<strong>de</strong> diagnóstico utilizada, <strong>los</strong> objetivos estratégicos i<strong>de</strong>ntificados,las medidas aplicadas, el nivel <strong>de</strong> financiación proveniente <strong>de</strong>lsector privado, las modalida<strong>de</strong>s <strong>de</strong> gestión y las estructuras <strong>de</strong> partenariadocreadas en cada uno <strong>de</strong> <strong>los</strong> programas.La metodología utilizada para la realización <strong>de</strong> estos informesconsistió, básicamente, en la realización <strong>de</strong> trabajo <strong>de</strong> gabinete, aunquecuando esta información no resultaba suficiente, se efectuabanentrevistas con informantes clave y expertos que permitían completarel nivel <strong>de</strong> información disponible.Los estudios <strong>de</strong> caso en profundidad y las evaluaciones temáticasrespondían a un enfoque botton up o <strong>de</strong> abajo hacia arriba.Mediante estos estudios y evaluaciones se pretendía analizar las relaciones<strong>de</strong> causalidad, explicando por qué la situación anterior al programaera diferente a la situación posterior, así como la i<strong>de</strong>ntificacióny difusión <strong>de</strong> las mejores prácticas encontradas entre <strong>los</strong> diversosprogramas regionales.En el marco <strong>de</strong> estos estudios y evaluaciones, la primera tarea llevadaa cabo consistió en la realización <strong>de</strong>l trabajo <strong>de</strong> campo correspondientepara recopilar y analizar críticamente la información recogidapor <strong>los</strong> sistemas <strong>de</strong> seguimiento establecidos por las autorida<strong>de</strong>sEl proceso <strong>de</strong>evaluación seestructuró en tresgran<strong>de</strong>s etapas. En laprimera se realizaroninformes preliminares.En la segunda,serealizaron variasintervenciones: unaevaluación generalsobre la situaciónanterior y posterior encada región; una serie<strong>de</strong> estudios enprofundidad quecubrían 22 <strong>de</strong> las 60regiones <strong>de</strong> Objetivo 2así como un conjunto<strong>de</strong> evaluacionestemáticas para lai<strong>de</strong>ntificación <strong>de</strong> lasmejores prácticas. Enla tercera etapa, seprocedió a laelaboración <strong>de</strong> <strong>los</strong>informes finales quevenían a sintetizar <strong>los</strong>resultados,conclusiones yrecomendaciones.84


egionales sobre <strong>los</strong> resultados generados por <strong>los</strong> FondosEstructurales. Del mismo modo, tal y como estaba establecido, seprocedió a efectuar investigaciones más en profundidad que generaraninformación para <strong>los</strong> estudios <strong>de</strong> caso en 22 <strong>de</strong> las 60 regionesObjetivo 2, con el fin <strong>de</strong> obtener información adicional provenientedirectamente <strong>de</strong> <strong>los</strong> beneficiarios <strong>de</strong> <strong>los</strong> programas 39 .En términos generales, se pue<strong>de</strong> afirmar que fue en el marco <strong>de</strong>estos estudios y evaluaciones don<strong>de</strong> se encontraron mayores dificulta<strong>de</strong>spara llevar a cabo <strong>de</strong> forma a<strong>de</strong>cuada el proceso <strong>de</strong> evaluación.Así, se registraron numerosos problemas metodológicos a la hora <strong>de</strong>evaluar <strong>los</strong> efectos netos generados por <strong>los</strong> programas, i<strong>de</strong>ntificandoefectos sinérgicos, efectos <strong>de</strong> <strong>de</strong>splazamiento así como efectos indirectosproducidos por las diversas intervenciones que conformaban<strong>los</strong> programas. Del mismo modo, se <strong>de</strong>tectaron carencias informativasen <strong>los</strong> sistemas <strong>de</strong> seguimiento establecidos por las autorida<strong>de</strong>sregionales, así como la inexistencia <strong>de</strong> una terminología y categorizaciónhomogénea entre dichos sistemas.Por último, <strong>los</strong> informes <strong>de</strong> síntesis constituían la tercera y últimafase <strong>de</strong> las evaluaciones ex-post <strong>de</strong> las zonas Objetivo 2. Estos informesi<strong>de</strong>ntificaban qué proporción <strong>de</strong> las variaciones <strong>de</strong> <strong>los</strong> indicadoresclave analizados en las evaluaciones macro o <strong>de</strong> carácter general(top down) correspondían a <strong>los</strong> efectos netos generados por las intervenciones<strong>de</strong> <strong>los</strong> programas (botton up) 40 . Del mismo modo, en estosinformes finales se incluía una síntesis <strong>de</strong> las mejores prácticas provenientes<strong>de</strong> <strong>los</strong> diversos estudios <strong>de</strong> caso y evaluaciones temáticasefectuadas a lo largo <strong>de</strong>l proceso evaluativo.Se registraronnumerosos problemasmetodológicos a lahora <strong>de</strong> evaluar <strong>los</strong>efectos netosgenerados por <strong>los</strong>programas,i<strong>de</strong>ntificando efectossinérgicos, efectos <strong>de</strong><strong>de</strong>splazamiento asícomo efectosindirectos producidospor las diversasintervenciones queconformaban <strong>los</strong>programasAPRENDIZAJESA gran<strong>de</strong>s rasgos, se pue<strong>de</strong> afirmar que el proceso <strong>de</strong> evaluaciónpermitió generar la información necesaria para evaluar <strong>los</strong> efectosnetos producidos por <strong>los</strong> programas Objetivo 2. Sin embargo, el propioequipo evaluador i<strong>de</strong>ntificó una serie <strong>de</strong> factores clave que <strong>de</strong>beríanhaberse gestionado <strong>de</strong> forma más eficaz:39. Del mismo modo, la información generada en estas investigaciones adicionales se utilizó paracomprobar la eficacia <strong>de</strong> <strong>los</strong> propios sistemas <strong>de</strong> seguimiento existentes. Para ello, en las regionesdon<strong>de</strong> se realizaron estas investigaciones se procedió a agregar la información recopilada y acompararla con la existente a partir <strong>de</strong>l sistema <strong>de</strong> seguimiento en torno a diversos indicadorescomo el número <strong>de</strong> empleos creados o salvados por las medidas <strong>de</strong> <strong>los</strong> programas, el número <strong>de</strong>empresas asistidas, o el número <strong>de</strong> programas <strong>de</strong> formación financiados.40. Así, la conclusión general fue que, a pesar <strong>de</strong> que las ten<strong>de</strong>ncias macro económicas i<strong>de</strong>ntificadaspor <strong>los</strong> diversos indicadores resultaban negativas, <strong>los</strong> programas implementados habíangenerado unos efectos netos positivos, permitiendo que las tasa <strong>de</strong> paro regionales resultaranentre un 0.8% y un 1.4% menores que las que se hubieran producido si no se hubieran implementado<strong>los</strong> programas.85


• Especialmente en las evaluaciones en las que intervinierondiversos actores que actuaban a diferentes niveles (Comisión, autorida<strong>de</strong>sregionales, consultores a nivel global, consultores regionalesy locales) conviene, con carácter previo a la puesta en marcha<strong>de</strong>l proceso <strong>de</strong> evaluación i<strong>de</strong>ntificar <strong>de</strong> forma diáfana las responsabilida<strong>de</strong>sy funciones correspondientes, evitando posibles lagunaso solapamientos.• Algunos <strong>de</strong> <strong>los</strong> problemas y dificulta<strong>de</strong>s <strong>de</strong> carácter metodológico41 (especialmente la falta <strong>de</strong> unos sistemas a<strong>de</strong>cuados <strong>de</strong> seguimientopor programa) provienen <strong>de</strong> prácticas <strong>de</strong>ficientes en el ámbito<strong>de</strong> la programación y la gestión <strong>de</strong> <strong>los</strong> programas.• Resulta <strong>de</strong> especial importancia para el éxito <strong>de</strong> las evaluacionesex-post, la forma en que se han llevado a cabo las evaluaciones intermedias,así como la posibilidad <strong>de</strong> recurrir a un colectivo <strong>de</strong> evaluadorescon experiencia previa pue<strong>de</strong> resultar <strong>de</strong> suma importancia.• La necesidad <strong>de</strong> profundizar en el <strong>de</strong>sarrollo <strong>de</strong> una metodología<strong>de</strong> evaluación que permita sintetizar las vertientes horizontales(niveles regionales y estatales) y verticales (top down y botton up)<strong>de</strong>l mo<strong>de</strong>lo <strong>de</strong> evaluación <strong>de</strong> <strong>los</strong> Fondos Estructurales, así como comparar<strong>los</strong> resultados generados entre diversos Objetivos <strong>de</strong> la políticaestructural mediante una homogeneización <strong>de</strong> <strong>los</strong> mo<strong>de</strong><strong>los</strong> <strong>de</strong> evaluaciónutilizados.En <strong>de</strong>finitiva, la mejora <strong>de</strong> <strong>los</strong> métodos <strong>de</strong> evaluación <strong>de</strong>be ser unaprioridad manifiesta <strong>de</strong> las autorida<strong>de</strong>s europeas si se preten<strong>de</strong> quesus resultados tengan cierta credibilidad y que puedan ser utilizados<strong>de</strong> forma eficaz por <strong>los</strong> <strong>de</strong>cisores políticos.La mejora <strong>de</strong> <strong>los</strong>métodos <strong>de</strong> evaluación<strong>de</strong>be ser una prioridadmanifiesta <strong>de</strong> lasautorida<strong>de</strong>s europeassi se preten<strong>de</strong> que susresultados tengancierta credibilidad yque puedan serutilizados <strong>de</strong> formaeficaz por <strong>los</strong> <strong>de</strong>cisorespolíticos4.2.6. EVALUACIÓN TEMÁTICA DEL DOCUPOBJETIVO 2, 1994-1996. REGIÓN DE YORKSHIRE YHUMBERSIDEANTECEDENTESLa región <strong>de</strong> Yorkshire y Humbersi<strong>de</strong>, situada en el noreste<strong>de</strong>l Reino Unido Inglaterra, reune un total <strong>de</strong> 9 millones <strong>de</strong> habitantes.En el marco <strong>de</strong> la región existen áreas agrupadas <strong>de</strong>ntro<strong>de</strong>l Objetivo 2 y otras áreas <strong>de</strong>ntro <strong>de</strong>l Objetivo 5b). Las áreas <strong>de</strong>la región incluidas en Objetivo 2 compren<strong>de</strong>n tres subregiones(el sur <strong>de</strong> Yorkshire, el norte <strong>de</strong> Yorkshire y Humersi<strong>de</strong>) claramentediferenciadas por variables relativas a la evolución <strong>de</strong>mo-41. Que han sido expuestas a lo largo <strong>de</strong>l apartado <strong>de</strong>dicado a la Metodología.86


gráfica, <strong>los</strong> movimientos migratorios, la estructura económica ola tasa <strong>de</strong> paro.En 1997 se lleva a cabo la evaluación intermedia <strong>de</strong>l programa1994-1999 Objetivo 2. El enfoque evaluativo adoptado tuvo muy encuenta la diversidad regional y la existencia <strong>de</strong> las tres áreas biendiferenciadas, realizando una evaluación específica adaptada a cadasubregión, a<strong>de</strong>más <strong>de</strong> la evaluación conjunta <strong>de</strong> la región.METODOLOGÍAEl enfoque metodológico diseñado para esta evaluación ha sidoreconocido por la propia Dirección General XVI como una <strong>de</strong> lasprácticas particularmente interesantes e innovadora que convendríadifundir, no tanto por incluir un enfoque o una técnica <strong>de</strong> evaluaciónparticular, sino por representar un caso <strong>de</strong> evaluación en profundidadque sobrepasa el enfoque tradicional <strong>de</strong> las evaluacionesintermedias.El proceso <strong>de</strong> evaluación incluyó tres evaluaciones subregionales(que permiten analizar <strong>de</strong> forma específica las tres subregionescubiertas por el programa y que presentan características sociales yeconómicas diferentes), una evaluación <strong>de</strong> impacto que combina latipología ascen<strong>de</strong>nte y <strong>de</strong>scen<strong>de</strong>nte, un análisis <strong>de</strong>l proceso <strong>de</strong> partenariadoy <strong>de</strong> <strong>los</strong> procedimientos y mecanismos <strong>de</strong> puesta en marchay ejecución. La evaluación quedo estructurada en tres componentesbásicos:• Tres evaluaciones subregionales.• La evaluación regional.• Un programa <strong>de</strong> aseguramiento <strong>de</strong> la calidad llevado a cabo porconsultores in<strong>de</strong>pendientes.A continuación, <strong>de</strong> forma sintética, se analizan algunos <strong>de</strong> estosaspectos metodológicos:• Una combinación equilibrada <strong>de</strong> <strong>los</strong> enfoques ascen<strong>de</strong>nte (bottonup) y <strong>de</strong>scen<strong>de</strong>nte (top down).Dentro <strong>de</strong>l enfoque ascen<strong>de</strong>nte se efectuaron un número inusualmenteelevado <strong>de</strong> investigaciones y estudios <strong>de</strong> caso. Estos análisisespecíficos fueron llevados a cabo <strong>de</strong>ntro <strong>de</strong> cada una <strong>de</strong> las tres evaluacionessubregionales centrando la evaluación en el grado <strong>de</strong> cumplimiento<strong>de</strong> <strong>los</strong> objetivos planteados por proyecto, mientras que elenfoque <strong>de</strong>scen<strong>de</strong>nte se realizó a nivel regional, apoyándose en <strong>los</strong>resultados obtenidos en cada una <strong>de</strong> las subregiones.El proceso <strong>de</strong>evaluación incluyó tresevaluacionessubregionales, unaevaluación <strong>de</strong> impactoque combina latipología ascen<strong>de</strong>nte y<strong>de</strong>scen<strong>de</strong>nte, unanálisis <strong>de</strong>l proceso <strong>de</strong>partenariado y <strong>de</strong> <strong>los</strong>procedimientos ymecanismos <strong>de</strong> puestaen marcha y ejecución87


• Un carácter externo e internoLa vertiente externa <strong>de</strong> la evaluación venía cubierta por la involucraciónen el proceso <strong>de</strong> evaluación <strong>de</strong> profesores y consultores,mientras que la vertiente interna se configuró mediante la generalización<strong>de</strong> una cultura que fomentaba la autoevaluación crítica porparte <strong>de</strong> <strong>los</strong> diversos actores implicados en el programa.• Una sensibilidad especialPara llevar a cabo el análisis <strong>de</strong> la estrategia regional adaptándose,al mismo tiempo, a la variedad <strong>de</strong> condiciones locales existentesen cada subregión.• La capacidad <strong>de</strong> permitir, al mismo tiempo, una evaluación <strong>de</strong>carácter temático y <strong>de</strong> carácter generalPara lo que se i<strong>de</strong>ntificaron, previamente, aquel<strong>los</strong> temas que eran<strong>de</strong> una particular importancia estratégica.• La combinación <strong>de</strong> elementos pertenecientes, tanto a la evaluaciónex-ante como a la evaluación ex-postEspecialmente en lo que respecta a la estimación <strong>de</strong> <strong>los</strong> efectos <strong>de</strong>lprograma sobre el empleo. Como resulta lógico, dado el escaso tiempotranscurrido la evaluación ex-post efectuada estaba sujeta aimportantes limitaciones.• El <strong>de</strong>sarrollo <strong>de</strong> una cultura <strong>de</strong> la evaluación y <strong>de</strong>l aprendizaje interactivaen la que se involucraran <strong>los</strong> diversos actores implicados.Resulta <strong>de</strong> suma importancia para el futuro <strong>de</strong>l programa la configuración<strong>de</strong> un entorno caracterizado por el aprendizaje continuoe interactivo en el que participen todos <strong>los</strong> actores implicados en elmismo.APRENDIZAJESDado el aparato metodológico y organizacional configurado alre<strong>de</strong>dor<strong>de</strong>l proceso <strong>de</strong> evaluación, se ha incurrido en costos financierosy tiempo invertido superiores a lo que resulta más habitual en lasevaluaciones cofinanciadas por <strong>los</strong> Fondos Estructurales. Sin embargo,a juicio <strong>de</strong> la propia Dirección General XVI, el esfuerzo ha resultadorentable si se tiene en cuenta <strong>los</strong> resultados alcanzados que hanpermitido poner en práctica una metodología que compaginara laevaluación específica a nivel subregional y la evaluación integral <strong>de</strong>lprograma, logrando:• Realizar una evaluación <strong>de</strong>l impacto <strong>de</strong>l programa, en términos<strong>de</strong> efectos netos sobre el empleo para cada subregión que facilitan laDentro <strong>de</strong>l enfoqueascen<strong>de</strong>nte seefectuaron un númeroinusualmente elevado<strong>de</strong> investigaciones yestudios <strong>de</strong> casocentrados en cada una<strong>de</strong> las tres subregionesmientras que elenfoque <strong>de</strong>scen<strong>de</strong>ntese realizó a nivelregional, apoyándoseen <strong>los</strong> resultadosobtenidos en cada una<strong>de</strong> las subregiones.88


obtención <strong>de</strong> conclusiones sobre la eficacia y eficiencia <strong>de</strong> cada una<strong>de</strong> las medidas que conforman <strong>los</strong> programas, permitiendo la reformulación<strong>de</strong>l mismo a mitad <strong>de</strong> camino.• Evaluar el proceso y <strong>los</strong> mecanismos <strong>de</strong> puesta en marcha, gestióny financiación <strong>de</strong>l programa.• La creación <strong>de</strong> una cultura compartida <strong>de</strong> aprendizaje y un lenguajecomún entre <strong>los</strong> diversos actores vinculados a <strong>los</strong> programas,fortaleciendo la implicación <strong>de</strong> <strong>los</strong> mismos, así como una cultura<strong>de</strong> autoevaluación crítica que permanecerá como un activo <strong>de</strong> caraal futuro.• De forma general, a pesar <strong>de</strong> la dificultad <strong>de</strong> transferir las buenasprácticas a otros contextos socioeconómicos, el caso presentadoviene a <strong>de</strong>mostrar que un mo<strong>de</strong>lo <strong>de</strong> evaluación como el expuestopue<strong>de</strong> ser aplicado con éxito, incluso en zonas <strong>de</strong> Objetivo 2 don<strong>de</strong>,habitualmente, resulta más difícil la evaluación <strong>de</strong>bido a su reducidadimensión y a la ausencia <strong>de</strong> estadísticas fiables disponibles.A pesar <strong>de</strong> la dificultad<strong>de</strong> transferir las buenasprácticas a otroscontextossocioeconómicos, elcaso presentado vienea <strong>de</strong>mostrar que unmo<strong>de</strong>lo <strong>de</strong> evaluacióncomo el expuestopue<strong>de</strong> ser aplicado conéxito, incluso en zonasdon<strong>de</strong>, habitualmente,resulta más difícil laevaluación <strong>de</strong>bido a sureducida dimensión y ala ausencia <strong>de</strong>estadísticas fiablesdisponibles89


5. Consi<strong>de</strong>raciones finales


5. Consi<strong>de</strong>raciones finalesAtendiendo a las prácticas <strong>de</strong> evaluación que se vienen implementando,estas consi<strong>de</strong>raciones finales parten <strong>de</strong> las problemáticasy limitaciones que las mismas presentan.La tarea que se abre para <strong>los</strong> próximos años va a resultar crucial ysi teóricamente la evaluación es una herramienta básica que quedaexplícitamente formulada en <strong>los</strong> documentos programático-presupuestales,se trata <strong>de</strong> dar contenido y utilidad a este tipo <strong>de</strong> intervenciones.Si como se ha señalado repetidas veces, <strong>los</strong> mo<strong>de</strong><strong>los</strong> <strong>de</strong>benser flexibles, adaptables y diseñados a la medida, la cultura <strong>de</strong> la evaluación<strong>de</strong>be acrecentarse y enriquecerse. Des<strong>de</strong> este telón <strong>de</strong> fondosurge la necesidad <strong>de</strong> establecer marcos comunes guía en la concepcióngeneral <strong>de</strong> <strong>los</strong> <strong>procesos</strong> evaluativos.Lagunas y problemas en las prácticas <strong>de</strong> evaluación comunitariasDe forma general, se vienen <strong>de</strong>tectado una serie problemas y dificulta<strong>de</strong>s<strong>de</strong> índole metodológico y técnico en las diversas evaluacionesanalizadas en el marco <strong>de</strong>l Programa MEANS:• Escasa utilización <strong>de</strong> <strong>los</strong> resultados generados por la evaluaciónpara la reformulación <strong>de</strong> programas.• Dificulta<strong>de</strong>s para evaluar la eficacia <strong>de</strong> las intervenciones,bien por la disposición <strong>de</strong> unos objetivos excesivamente genéricos,como por su excesiva concreción en términos <strong>de</strong> resultados aalcanzar; situación que propicia se efectúe una asimilación entreevaluación <strong>de</strong> resultados y evaluación <strong>de</strong> la eficacia 42 .• Lagunas en <strong>los</strong> sistemas <strong>de</strong> seguimiento (como, por ejemplo,en el caso <strong>de</strong> <strong>los</strong> indicadores <strong>de</strong> output o <strong>de</strong> impacto) que se <strong>de</strong>tectantar<strong>de</strong>, cuando se efectúan las evaluaciones intermedias (requiriendo<strong>de</strong> esfuerzos adicionales en las mismas para compensaresas lagunas informativas). Mientras <strong>de</strong>berían haber sido <strong>de</strong>tectadasmediante la realización <strong>de</strong> evaluaciones ex-ante.• Problemas para disponer <strong>de</strong> información homogénea y construirun sistema <strong>de</strong> indicadores integral cuando existen diversos gestoresque suministran información al sistema <strong>de</strong> seguimiento y evaluación.• La necesidad <strong>de</strong> reforzar las relaciones entre las evaluacionesex-ante, intermedia y ex-post <strong>de</strong> cada programa apoyándose lasunas en las otras, según un proceso <strong>de</strong> evaluación progresivo.• Insuficiencia <strong>de</strong> <strong>los</strong> plazos dispuestos y <strong>de</strong> <strong>los</strong> recursos consignadospara llevar a cabo las evaluaciones.La tarea que se abrepara <strong>los</strong> próximos añosva a resultar crucial y siteóricamente laevaluación es unaherramienta básica quequeda explícitamenteformulada en <strong>los</strong>documentosprogramáticopresupuestales,setrata <strong>de</strong> dar contenidoy utilidad a este tipo <strong>de</strong>intervenciones42. Sin embargo, como es sabido, <strong>de</strong>l logro <strong>de</strong> <strong>los</strong> resultados programados no se <strong>de</strong>duce necesariamentela consecución <strong>de</strong> <strong>los</strong> efectos positivos <strong>de</strong>seados.91


• Necesidad <strong>de</strong> ten<strong>de</strong>r hacia un mo<strong>de</strong>lo común <strong>de</strong> evaluación<strong>de</strong> <strong>los</strong> programas financiados por el FEDER y <strong>de</strong> <strong>los</strong> financiadospor el FSE, especialmente en el caso <strong>de</strong> <strong>los</strong> Objetivos 1 y 2 quecombinan ambas fuentes <strong>de</strong> financiación.• Aplicación imperfecta <strong>de</strong> las aportaciones metodológicas quese <strong>de</strong>spren<strong>de</strong>n <strong>de</strong> las prácticas realizadas (Programa MEANS),especialmente en lo relativo a la medición <strong>de</strong>l impacto sobre elempleo.Aspectos relevantes para el diseño metodológico <strong>de</strong> lasevaluacionesEl Joint Comittee on Standars for Educational Evaluation <strong>de</strong> <strong>los</strong>EE.UU. 43 aconseja que evaluadores y clientes cooperen entre sí paraque el proceso evaluativo pueda <strong>de</strong>sarrollarse <strong>de</strong> forma óptima atendiendoa cuatro condiciones o máximas:1. Ser útiles: <strong>de</strong>ben estar dirigidas a aquellas personas y gruposque estén vinculados al programa objeto <strong>de</strong> evaluación, ayudándolesa i<strong>de</strong>ntificar las virtu<strong>de</strong>s y <strong>los</strong> <strong>de</strong>fectos <strong>de</strong>l mismo asícomo las soluciones oportunas para mejorarlo.2. Ser factibles: <strong>de</strong>ben emplear procedimientos evaluativos que puedanser utilizados sin <strong>de</strong>masiados problemas y <strong>de</strong> forma eficiente.3. Ser éticas: <strong>de</strong>ben asegurar la protección <strong>de</strong> <strong>los</strong> <strong>de</strong>rechos <strong>de</strong> laspartes implicadas y la honra<strong>de</strong>z en la elaboración <strong>de</strong> <strong>los</strong> resultados,informando <strong>de</strong> forma equitativa <strong>de</strong> todas las virtu<strong>de</strong>s y<strong>de</strong>fectos que presente el programa.4. Ser exactas: <strong>de</strong>ben <strong>de</strong>scribir claramente el objeto, <strong>los</strong> procedimientosy las conclusiones <strong>de</strong> la evaluación, manteniéndose almargen <strong>de</strong> cualquier tipo <strong>de</strong> influencia.En términos generales, el proceso <strong>de</strong> evaluación <strong>de</strong>be diseñarse,organizarse y aplicarse <strong>de</strong> forma adaptada a <strong>los</strong> rasgos específicos <strong>de</strong>lprograma a evaluar y su contexto organizacional y socioeconómico.Para ello, conviene que dicho diseño venga presidido por:• Una lógica <strong>de</strong> variedad y complementariedad metodológica quedé respuestas flexibles a una realidad múltiple.• Una lógica <strong>de</strong> aprendizaje que valorice <strong>los</strong> resultados obtenidosen una dinámica positiva, <strong>de</strong> cara a la mejora <strong>de</strong>l programa y superfeccionamiento en fases posteriores.En términos generales,el proceso <strong>de</strong>evaluación <strong>de</strong>bediseñarse, organizarsey aplicarse <strong>de</strong> formaadaptada a <strong>los</strong> rasgosespecíficos <strong>de</strong>lprograma a evaluar ysu contextoorganizacional ysocioeconómico43. Comité que agrupa a cerca <strong>de</strong> doscientos expertos en el ámbito <strong>de</strong> la evaluación y que durantecinco años realizaron la labor <strong>de</strong> crear, valorar y clarificar <strong>los</strong> principios habitualmente empleadosen la evaluación <strong>de</strong> programas públicos.92


• Una lógica <strong>de</strong> pluralidad, que dé cabida a <strong>los</strong> diversos agentesintervinientes y garantice la utilización <strong>de</strong> informaciones provenientes<strong>de</strong> todas las partes implicadas.La aplicación combinada <strong>de</strong> esta lógica plural implica una serie <strong>de</strong>consecuencias metodológicas y organizativas a tener presente por elequipo <strong>de</strong> evaluadores, <strong>de</strong> forma que se lleve a efecto un proceso evaluativoeficiente 44 que vaya más allá:1. Del mero análisis <strong>de</strong> <strong>los</strong> resultados producidos por el programa ala realización <strong>de</strong> una evaluación integral a partir <strong>de</strong> las siguientesdimensiones:• Contexto: Como marco general económico y social, y comomarco específico sectorial en el que se formuló e implementóel Programa, analizando su evolución y la correspondiente pertinencia<strong>de</strong> las estrategias <strong>de</strong>finidas en el mismo, tanto <strong>de</strong>s<strong>de</strong>una perspectiva integral como para cada uno <strong>de</strong> <strong>los</strong> niveles en<strong>los</strong> que se estructure dicho Programa.• Soporte físico y normativo: Como conjunto <strong>de</strong> recursos que apartir <strong>de</strong> un soporte legislativo y <strong>de</strong> planeamiento integra instalacionesy dotaciones físicas con equipos humanos y serviciosdiversos para la ejecución <strong>de</strong>l programa.• Proceso: Como interacción <strong>de</strong> las estructuras que soportan a <strong>los</strong>distintos gestores y ejecutores y las funciones por el<strong>los</strong> <strong>de</strong>sarrolladas;interacción que genera todo un sistema relacional–clima– en el que se integran intereses, valores, culturas, rolesque es necesario armonizar, consensuar y hacer congruentespara el buen fin <strong>de</strong>l proyecto.Su <strong>de</strong>sarrollo se vincula al estudio <strong>de</strong> <strong>los</strong> efectos institucionalesque preten<strong>de</strong> salvar la brecha entre el registro estadístico<strong>de</strong> resultados y la realidad <strong>de</strong> la actuación. Su análisis sevinculará a intervenciones esencialmente cualitativas y participativas:• Grado <strong>de</strong> compromiso ante el programa.• Nivel <strong>de</strong> conflicto.• Replanteamientos competenciales.• Producto: Como resultados en términos <strong>de</strong> logros alcanzados,productos elaborados, sistemas articulados, aprendizajes y <strong>de</strong>s-La aplicacióncombinada <strong>de</strong> unalógica plural, implicauna serie <strong>de</strong>consecuenciasmetodológicas yorganizativas a tenerpresente por el equipo<strong>de</strong> evaluadores, <strong>de</strong>forma que se lleve aefecto un procesoevaluativo eficiente44. Requiere, como condición preliminar, la toma en consi<strong>de</strong>ración <strong>de</strong> las limitaciones presupuestalesy temporales <strong>de</strong> las que se parte, <strong>de</strong> tal forma que el diseño metodológico resulteviable.93


arrol<strong>los</strong> en relación a <strong>los</strong> objetivos fijados; <strong>de</strong> <strong>los</strong> que <strong>los</strong> beneficiarios<strong>de</strong>l Programa son protagonistas y usuarios; y <strong>los</strong> distintosejecutores, consultores, etc. son proveedores y/o gestores<strong>de</strong>l sistema.2. Del simple contraste con <strong>los</strong> objetivos y metas programadas, al<strong>de</strong>sarrollo <strong>de</strong> un proceso útil para <strong>los</strong> agentes implicados en elmismo que permita:• Determinar la valía relativa <strong>de</strong> <strong>los</strong> distintos bienes y serviciosgenerados por la intervención, el proyecto o el programa evaluado,así como juzgar el mérito y el valor <strong>de</strong>l programa y lasacciones que lo integran.• Incrementar el conocimiento que <strong>los</strong> diversos agentes tienen <strong>de</strong>lprograma, enriqueciendo el proceso <strong>de</strong> reflexión en torno almismo y la resolución <strong>de</strong> <strong>los</strong> problemas o necesida<strong>de</strong>s para <strong>los</strong>que éste surgió.• Ayudar a distinguir las virtu<strong>de</strong>s y <strong>los</strong> <strong>de</strong>fectos <strong>de</strong>l programa,proporcionando <strong>los</strong> conocimientos suficientes y una base valorativasólida que permita orientar la toma <strong>de</strong> <strong>de</strong>cisiones y elperfeccionamiento <strong>de</strong>l mismo.• Ofrecer un marco <strong>de</strong> análisis adaptado a la necesidad <strong>de</strong> evaluarla interacción entre <strong>los</strong> distintos agentes intervinientes, asícomo el nivel <strong>de</strong> coordinación que presentan; respondiendo <strong>de</strong>forma a<strong>de</strong>cuada, cuando sea necesario, a la existencia <strong>de</strong> múltiplesactores participantes <strong>de</strong> diversos niveles y, por tanto, a lacomplejidad <strong>de</strong> sus relaciones.3. De una concepción basada en la utilización <strong>de</strong> una herramienta<strong>de</strong> análisis <strong>de</strong>terminada o un enfoque excluyente, hacia una concepciónque permita un mestizaje metodológico en función <strong>de</strong> ladiversidad <strong>de</strong> cuestiones a resolver, <strong>de</strong> agentes implicados, y <strong>de</strong>contextos en <strong>los</strong> que se implementa el programa, combinando:• Técnicas cuantitativas y cualitativas.• Enfoques ascen<strong>de</strong>ntes (bottom up) y <strong>de</strong>scen<strong>de</strong>ntes (top down).• Análisis macroeconómicos y microeconómicos.• Métodos participativos con otros <strong>de</strong> carácter más clásico.4. De la evaluación exclusiva <strong>de</strong> <strong>los</strong> resultados y efectos directossimples (ligados a la pertinencia, eficiencia y eficacia alcanzada),al diseño <strong>de</strong>l proceso, <strong>de</strong> forma que también permita recoger yevaluar resultados y efectos:Superar el simplecontraste con <strong>los</strong>objetivos y metasprogramadas para<strong>de</strong>terminar la valía <strong>de</strong>la intervención,incrementar elconocimiento ,distinguir las virtu<strong>de</strong>s y<strong>los</strong> <strong>de</strong>fectos <strong>de</strong>lprograma94


• Directos Complejos: vinculados a la observación <strong>de</strong> las interaccionesproducidas por las intervenciones <strong>de</strong> <strong>los</strong> distintosactores, <strong>procesos</strong>, proyectos, medidas, acciones, etc.• Indirectos: vinculados a resultados o efectos inducidos, enespecial <strong>de</strong> carácter psicosocial, vinculados particularmente aaspectos <strong>de</strong> percepción y actitud en relación al proyecto; tantopor parte <strong>de</strong> colectivos usuarios últimos como por <strong>los</strong> colectivos<strong>de</strong> operadores intervinientes en el proyecto.• No previstos: como <strong>los</strong> efectos multiplicadores, <strong>de</strong> sustitución,<strong>de</strong> <strong>de</strong>splazamiento, peso muerto, no influyente/ ganga, etc.5. De enten<strong>de</strong>r la evaluación como una tarea puntual en la vida <strong>de</strong>un programa, a concebirla como un proceso integrado <strong>de</strong> acompañamientoal mismo, que permita:• Realizar una apreciación previa que apoye el diseño y programación<strong>de</strong>l programa, i<strong>de</strong>ntificando <strong>los</strong> problemas socioeconómicosexistentes y <strong>los</strong> objetivos a alcanzar por el mismo, asícomo la estrategia necesaria con <strong>los</strong> medios disponibles pararespon<strong>de</strong>r a dichos problemas (Evaluación ex-ante).• Comprobar, durante la ejecución <strong>de</strong> un programa, si <strong>los</strong> objetivossiguen teniendo vali<strong>de</strong>z y si <strong>los</strong> resultados programados llevancamino <strong>de</strong> alcanzarse, perfeccionando el programa y optimizandola distribución <strong>de</strong> sus recursos (Evaluación intermedia).• Efectuar, una vez finalizada la ejecución <strong>de</strong> un programa, unavaloración sobre el logro <strong>de</strong> <strong>los</strong> objetivos y metas programados,así como si <strong>los</strong> resultados alcanzados y <strong>los</strong> efectos generadoscon el mismo resultan positivos y van a perdurar una vezfinalizado el programa (Evaluación final y ex-post).6. Del papel <strong>de</strong> juez que afronta el proceso <strong>de</strong> evaluación comoagente situado por encima <strong>de</strong>l resto <strong>de</strong> partes implicadas, a laasunción por parte <strong>de</strong>l equipo evaluador <strong>de</strong> un rol en el que, respetando<strong>los</strong> principios <strong>de</strong> in<strong>de</strong>pen<strong>de</strong>ncia y transparencia, apuestepor adoptar un enfoque:• Participativo y abierto 45 en el que, con el fin <strong>de</strong> mejorar el programa,se recojan las diferentes visiones y aportaciones que realicen<strong>los</strong> diversos agentes implicados.45. Pue<strong>de</strong> que surjan conflictos ocasionados por las diversas formas <strong>de</strong> enten<strong>de</strong>r el proceso <strong>de</strong> evaluaciónque tengan <strong>los</strong> agentes implicados. En este sentido, <strong>los</strong> evaluadores <strong>de</strong>ben avisar a las partesimplicadas <strong>de</strong> <strong>los</strong> posibles conflictos que pue<strong>de</strong>n producirse en lo que se refiere a <strong>los</strong> propósitosy al <strong>de</strong>sarrollo <strong>de</strong>l proceso <strong>de</strong> evaluación, llegando, <strong>de</strong>s<strong>de</strong> un primer momento, a un acuerdocomún sobre <strong>los</strong> principios que van a guiar el mismo.Pasar <strong>de</strong> enten<strong>de</strong>r laevaluación como unatarea puntual en lavida <strong>de</strong> un programa aconcebirla como unproceso integrado <strong>de</strong>acompañamiento almismoApostar por unenfoque participativo yabierto que goce <strong>de</strong> lacredibilidad <strong>de</strong> lasdiversas partesimplicadas y queincremente la utilidady aplicabilidad <strong>de</strong> susresultados95


• Que gocen <strong>de</strong> la credibilidad <strong>de</strong> las diversas partes, al percibirloéstos como un proceso legítimo que no ha <strong>de</strong>jado al margen ningunaopinión y haberse primado una <strong>de</strong>finición metodológica rigurosapero consensuada.• Que incremente la utilidad y aplicabilidad <strong>de</strong> las conclusiones yresultados surgidos al final <strong>de</strong>l proceso <strong>de</strong> evaluación para <strong>los</strong> diversosagentes implicados, al haber participado éstos en el mismo.96


AnexoMo<strong>de</strong><strong>los</strong> <strong>de</strong> Evaluación


Mo<strong>de</strong><strong>los</strong> <strong>de</strong> EvaluaciónEste Anexo se <strong>de</strong>dica a la exposición <strong>de</strong> tres mo<strong>de</strong><strong>los</strong> <strong>de</strong> evaluaciónque se consi<strong>de</strong>ran como especialmente pertinentespara ser aplicados a programas <strong>de</strong> carácter socioeconómicovinculados a la dinamización y cohesión económica y social, la educación/formacióno la salud. La referencia bibliográfica principal hasido la obra <strong>de</strong> Daniel L. Stufflebeam y Anthony J. Shinkfield.Systematic evaluation 46 .Cada mo<strong>de</strong>lo tiene su propio bagaje <strong>de</strong> experiencias y aportacionespropias y su exposición preten<strong>de</strong> servir <strong>de</strong> guía en el sentido que aportaesquemas <strong>de</strong> razonamiento y conceptos útiles que se <strong>de</strong>ben manejaren el marco <strong>de</strong> <strong>procesos</strong> <strong>de</strong> evaluación concretos. Como el/la lector/ahabrá podido notar, este Cua<strong>de</strong>rno <strong>de</strong> Trabajo, en general, y esteanexo, en particular, vienen a remarcar la i<strong>de</strong>a <strong>de</strong> que cada evaluaciónnecesita ser diseñada y aplicada <strong>de</strong> forma específica al proyecto que<strong>de</strong>ba evaluar y al contexto institucional en el que se <strong>de</strong>sarrolle.En primer término se presenta el mo<strong>de</strong>lo CIPP Contexto, Input,Proceso y Producto, en segundo lugar el mo<strong>de</strong>lo <strong>de</strong> evaluación centradoen el cliente o evaluación respon<strong>de</strong>nte y, finalmente, el mo<strong>de</strong>lo<strong>de</strong> evaluación innovativa.Cada mo<strong>de</strong>lo tiene supropio bagaje <strong>de</strong>experiencias yaportaciones propias ysu exposición preten<strong>de</strong>servir <strong>de</strong> guía en elsentido que aportaesquemas <strong>de</strong>razonamiento yconceptos útiles que se<strong>de</strong>ben manejar en elmarco <strong>de</strong> <strong>procesos</strong> <strong>de</strong>evaluación concretos1. EL MODELO CIPP: CONTEXTO, INPUT, PROCESOY PRODUCTOEn el marco <strong>de</strong>l mo<strong>de</strong>lo CIPP, la evaluación se <strong>de</strong>fine como elproceso que permite i<strong>de</strong>ntificar, obtener y proporcionar informaciónútil y <strong>de</strong>scriptiva acerca <strong>de</strong>l valor y el mérito <strong>de</strong> las metas, la planificación,la realización y el impacto <strong>de</strong> una intervención, proyecto oprograma <strong>de</strong>terminado, con el fin <strong>de</strong> servir <strong>de</strong> guía para la toma <strong>de</strong><strong>de</strong>cisiones, solucionar <strong>los</strong> problemas y promover la comprensión <strong>de</strong><strong>los</strong> fenómenos implicados.Esta <strong>de</strong>finición resume <strong>los</strong> conceptos clave <strong>de</strong>l mo<strong>de</strong>lo CIPP ypostula tres propósitos evaluativos básicos: servir <strong>de</strong> guía para latoma <strong>de</strong> <strong>de</strong>cisiones, proporcionar la información necesaria a responsablesy gestores y promover la comprensión <strong>de</strong> <strong>los</strong> fenómenos implicados(lo cual coinci<strong>de</strong> con la orientación <strong>de</strong> perfeccionamiento <strong>de</strong>lmo<strong>de</strong>lo, puesto que el primero <strong>de</strong> estos propósitos es también el másimportante). El mo<strong>de</strong>lo presenta la evaluación no como una pruebasino como un proceso, que incluye tres etapas: i<strong>de</strong>ntificar, obtener yproporcionar información útil y relevante (<strong>de</strong> ahí que <strong>los</strong> evaluadores<strong>de</strong>ban tener una buena preparación técnica y dotes <strong>de</strong> comunicación).46.“Evaluation” Stufflebeam Daniel L. y Shinkfield Anthony J.98


Tanto la información útil (para emitir juicios) como la <strong>de</strong>scriptivason consi<strong>de</strong>radas a<strong>de</strong>cuadas para valorar y ayudar a perfeccionarlas intervenciones. Los aspectos clave <strong>de</strong>l objeto que, según la <strong>de</strong>finición,<strong>de</strong>ben ser valorados, incluyen sus metas, su planificación,su realización y su impacto (<strong>los</strong> cuales son valorados, respectivamente,mediante la evaluación <strong>de</strong>l contexto, <strong>de</strong>l input, <strong>de</strong>l procesoy <strong>de</strong>l producto). El criterio fundamental que <strong>de</strong>be ser tenido encuenta incluye su valor (su respuesta a las necesida<strong>de</strong>s valoradas) ysu mérito (su calidad).1.1. El mo<strong>de</strong>lo CIPP como estrategia para el perfeccionamiento<strong>de</strong> <strong>los</strong> sistemasEl mo<strong>de</strong>lo CIPP está más en la línea <strong>de</strong> <strong>los</strong> <strong>procesos</strong> <strong>de</strong> evaluación<strong>de</strong> sistemas <strong>de</strong> amplio espectro y alcance social. No se tratatanto <strong>de</strong> servir <strong>de</strong> guía para la realización <strong>de</strong> un estudio particularizadosino más bien <strong>de</strong> proporcionar un mo<strong>de</strong>lo <strong>de</strong> evaluación continuapara la toma <strong>de</strong> <strong>de</strong>cisiones.Se basa especialmente en el concepto <strong>de</strong> que el propósito másimportante <strong>de</strong> una evaluación no es <strong>de</strong>mostrar algo sino perfeccionarlo existente. Esta concepción resulta opuesta a las corrientes que afirmanque las evaluaciones <strong>de</strong>ben ser más penalizadoras o actuar comoinstrumentos <strong>de</strong> control. Por el contrario, consi<strong>de</strong>ra que el fin último<strong>de</strong> la evaluación es ayudar a perfeccionar <strong>los</strong> programas <strong>de</strong> forma queofrezcan un mejor servicio a sus usuarios y beneficiarios.Promoviendo la “eliminación” <strong>de</strong> programas innecesarios oimperfectos, las evaluaciones también cumplen una función perfeccionadora,al permitir que <strong>los</strong> recursos vayan a parar a las actuacionesmás provechosas. Fundamentalmente, la utilización <strong>de</strong>l mo<strong>de</strong>loCIPP está concebida para promover el <strong>de</strong>sarrollo y ayudar a <strong>los</strong>directivos y personal responsable <strong>de</strong> una institución a obtener y utilizaruna información continua y sistemática con el fin <strong>de</strong> satisfacerlas necesida<strong>de</strong>s más importantes o, al menos, hacer lo mejor posiblecon <strong>los</strong> recursos disponibles.Esta orientación, que ayuda a mantener y mejorar la calidad <strong>de</strong> lasactuaciones institucionales, aparece ilustrada en el diagrama <strong>de</strong> laFigura 15.1.2. Las dimensiones <strong>de</strong>l mo<strong>de</strong>lo CIPPEl mo<strong>de</strong>lo CIPP se caracteriza por or<strong>de</strong>nar la construcción <strong>de</strong>lproceso <strong>de</strong> evaluación en base a cuatro dimensiones centrales: elContexto, el Input, el Proceso y el Producto. En el cuadro <strong>de</strong> la página108 se proce<strong>de</strong> a sintetizar, para cada una <strong>de</strong> las dimensiones prin-El mo<strong>de</strong>lo CIPP estámás en la línea <strong>de</strong> <strong>los</strong><strong>procesos</strong> <strong>de</strong>evaluación <strong>de</strong> sistemas<strong>de</strong> amplio espectro yalcance como <strong>los</strong>sistemas sociales,educativos/formativos,etc. Se basaespecialmente en elconcepto <strong>de</strong> que elpropósito másimportante <strong>de</strong> unaevaluación no es<strong>de</strong>mostrar algo sinoperfeccionar loexistente99


Figura 15DIAGRAMA DESCRIPTIVO DEL PAPEL DE LA EVALUACIÓN CIPPEN EL PERFECCIONAMIENT0 DEL SISTEMAOperaciones regulares <strong>de</strong>lsistema (que incluyen distintasactivida<strong>de</strong>s evaluativas)Aplicación <strong>de</strong> lasoluciónNOSIEvaluacionesperiódicas <strong>de</strong>l contextoJustificación <strong>de</strong>un cambioSIDefinición <strong>de</strong> problemasy formulación <strong>de</strong>objetivos¿Existe unasoluciónsatisfactoria?NOEvaluación <strong>de</strong>entradaNONOSI¿Seha encontradouna estrategiaprometedora?Necesidad<strong>de</strong> <strong>de</strong>sarrolloy comprobaciónSIRealización <strong>de</strong> unproyecto especialEvaluación <strong>de</strong>lproceso y el productoSISIFracasoNO¿Merece elproyecto otrointento?NO¿Rendimientosatisfactorio?SI¿Aúnnecesita y <strong>de</strong>seauna soluciónNOcipales señaladas, <strong>los</strong> objetivos, métodos y su vinculación con el proceso<strong>de</strong> toma <strong>de</strong> <strong>de</strong>cisiones.El Diseño <strong>de</strong> una evaluación mediante el mo<strong>de</strong>lo CIPPPara realizar una evaluación, ya se trate <strong>de</strong> una evaluación <strong>de</strong>lcontexto, <strong>de</strong>l input, <strong>de</strong>l proceso o <strong>de</strong>l producto (o algún tipo <strong>de</strong>combinación entre ellas), el equipo evaluador necesita, obviamente,planificar su trabajo. Esto supone diseñar <strong>los</strong> <strong>procesos</strong> <strong>de</strong> trabajopreliminares y luego modificar<strong>los</strong> y explicar<strong>los</strong> a medida queavanza el proceso.100


MODELO CIPP. DIMENSIONES DEL PROCESOEvaluación <strong>de</strong>l ContextoEvaluación <strong>de</strong> IMPUTEvaluación <strong>de</strong>l ProcesoEvaluación <strong>de</strong>l ProductoObjetivoDefinir el contexto institucional,i<strong>de</strong>ntificar lapoblación objeto <strong>de</strong>estudio y valorar susnecesida<strong>de</strong>s, i<strong>de</strong>ntificarlas oportunida<strong>de</strong>s<strong>de</strong> satisfacer, lasnecesida<strong>de</strong>s, diagnosticar<strong>los</strong> problemasque subyacen enlas necesida<strong>de</strong>s y juzgarsi <strong>los</strong> objetivospropuestos son <strong>los</strong>uficientemente coherentescon las necesida<strong>de</strong>svaloradas.I<strong>de</strong>ntificar y valorar lacapacidad <strong>de</strong>l sistema,las estrategias <strong>de</strong>programa alternativas,la planificación<strong>de</strong> procedimientospara llevar a cabo lasestrategias, <strong>los</strong> presupuestosy <strong>los</strong> programas.I<strong>de</strong>ntificar o pronosticar,durante el proceso,<strong>los</strong> <strong>de</strong>fectos <strong>de</strong> laplanificación <strong>de</strong>l procedimientoo <strong>de</strong> surealización, proporcionarinformación paralas <strong>de</strong>cisiones preprogramadasy <strong>de</strong>scribiry juzgar las activida<strong>de</strong>sy aspectos <strong>de</strong>lprocedimiento.Recopilar <strong>de</strong>scripcionesy juicios acerca<strong>de</strong> <strong>los</strong> resultados yrelacionar<strong>los</strong> con <strong>los</strong>objetivos y la informaciónproporcionadapor el contexto, porlas variables <strong>de</strong> entraday por el proceso, einterpretar su valor ysu mérito.MétodoUtilización <strong>de</strong> métodoscomo el análisis<strong>de</strong> sistemas, la revisión<strong>de</strong> documentos,las ediciones, lasentrevistas, <strong>los</strong> testsdiagnósticos y la técnicaDelphi.Inventariar y analizar<strong>los</strong> recursos humanosy materieles disponibles,las estrategias<strong>de</strong> solución y lasestrategias <strong>de</strong> procedimientoreferentes asu aplicabilidad, viabilidady economía. Yutilizar métodos comola búsqueda <strong>de</strong> bibliografía,las visitas aprogramas ejemplares,<strong>los</strong> grupos asesoresy casos piloto.Controlar las limitacionespotenciales <strong>de</strong>lprocedimiento y permaneceralerta antelas que no se esperaban,mediante la obtención<strong>de</strong> informaciónespecífica <strong>de</strong> las<strong>de</strong>cisiones programadas,la <strong>de</strong>scripción <strong>de</strong>lproceso real, la continuainteracción con elpersonal <strong>de</strong>l proyectoy la observación <strong>de</strong>sus activida<strong>de</strong>s.Definir operacionalmentey valorar <strong>los</strong>criterios <strong>de</strong> <strong>los</strong> resultados,mediante larecopilación <strong>de</strong> <strong>los</strong> juicios<strong>de</strong> <strong>los</strong> clientes yla realización <strong>de</strong> análisiscualitativos ycuantitativos.Relación con latoma <strong>de</strong> <strong>de</strong>cisionesen el proceso<strong>de</strong> cambioDecidir el marco que<strong>de</strong>be ser abarcado,las metas relacionadascon la satisfacción<strong>de</strong> las necesida<strong>de</strong>so la utilización <strong>de</strong>las oportunida<strong>de</strong>s y<strong>los</strong> objetivos relacionadoscon la solución<strong>de</strong> <strong>los</strong> problemas, porejemplo, la planificación<strong>de</strong> <strong>los</strong> cambiosnecesarios. Y proporcionaruna base parajuzgar <strong>los</strong> resultados.Seleccionar <strong>los</strong> recursos<strong>de</strong> apoyo, lasestrategias <strong>de</strong> solucióny la planificación<strong>de</strong> procedimientos;esto es, estructurarlas activida<strong>de</strong>s <strong>de</strong>cambio. Y proporcionaruna base parajuzgar la realización.Llevar a cabo y perfeccionarla planificacióny <strong>los</strong> procedimientos<strong>de</strong>l programa,esto es, efectuarun control <strong>de</strong>l proceso.Y proporcionar unesbozo <strong>de</strong>l procesoreal para utilizarlomás tar<strong>de</strong> en la interpretación<strong>de</strong> <strong>los</strong> resultados.Decidir la continuación,finalización, modificacióno readaptación<strong>de</strong> la actividad .Ypresentar un informeclaro <strong>de</strong> <strong>los</strong> efectos(<strong>de</strong>seados y no <strong>de</strong>seados,positivos ynegativos).101


Estos planes <strong>de</strong>ben incluir una amplia gama <strong>de</strong> elecciones referentesa la realización <strong>de</strong> la evaluación, como por ejemplo las audiencias ycuestiones clave; si es más apropiada una evaluación <strong>de</strong>l contexto, <strong>de</strong>linput, <strong>de</strong>l proceso y/o <strong>de</strong>l producto; el objeto que <strong>de</strong>be ser valorado; eltiempo y lugar <strong>de</strong>l estudio; el alcance y naturaleza <strong>de</strong> <strong>los</strong> controles que<strong>de</strong>ben imponerse; las comparaciones que <strong>de</strong>ben efectuarse; las fuentes<strong>de</strong> información necesarias; <strong>los</strong> métodos, instrumentos y esquemas parala recopilación <strong>de</strong> informaciones; las formas y procedimientos para<strong>de</strong>signar, archivar y conservar la información; <strong>los</strong> métodos <strong>de</strong> análisis einterpretación; las disposiciones para comunicar <strong>los</strong> resultados; y <strong>los</strong> criteriosy acuerdos para valorar <strong>los</strong> resultados <strong>de</strong> la evaluación.Las <strong>de</strong>cisiones acerca <strong>de</strong> estas activida<strong>de</strong>s evaluativas se constituyenen la base que soporta la contratación y financiación <strong>de</strong>l trabajoevaluativo, el seguimiento/retroalimentación <strong>de</strong> las relaciones con lasinstituciones implicadas, la configuración <strong>de</strong>l equipo evaluador, asícomo la programación y dirección <strong>de</strong> las activida<strong>de</strong>s <strong>de</strong>l mismo.Sin embargo, conviene apuntar que las cualida<strong>de</strong>s dinámicas einteractivas <strong>de</strong> muchas evaluaciones y la orientación <strong>de</strong> su serviciohacen difícil, si no imposible, la proyección correcta y a largo plazo<strong>de</strong> las necesida<strong>de</strong>s informativas específicas. Como consecuencia, <strong>los</strong>planes técnicos para la recopilación <strong>de</strong> datos y <strong>los</strong> análisis previos,están basados, a menudo, en presuposiciones erróneas y vienen aresultar inapropiados o incompletos. Un rígido seguimiento <strong>de</strong> la planificaciónevaluativa inicial –especialmente si se ha <strong>de</strong>finido en términosmuy específicos– a menudo va en <strong>de</strong>trimento <strong>de</strong> la utilidad <strong>de</strong>lestudio al dirigirlo hacia cuestiones equivocadas o no esenciales, yguiarlo mediante presuposiciones erróneas. Por lo tanto, <strong>los</strong> evaluadoresse enfrentan a un dilema. Por una parte, necesitan diseñar cuidadosamentesus activida<strong>de</strong>s evaluativas con el fin <strong>de</strong> realizarlas coneficiencia y aceptable rigor, así como para convencer a sus clientes <strong>de</strong>que saben lo que están haciendo. Por otra, necesitan un método evaluativoflexible y realizar una revisión y modificación periódicas <strong>de</strong>ldiseño para que la evaluación siga respondiendo a las necesida<strong>de</strong>s <strong>de</strong>las audiencias. Este dilema es especialmente problemático para <strong>los</strong>evaluadores, puesto que <strong>los</strong> clientes, a menudo, esperan o exigen diseñostécnicos <strong>de</strong>finitivos y más tar<strong>de</strong> se <strong>de</strong>silusionan cuando un rígidoseguimiento <strong>de</strong>l diseño original proporciona mucha información queno resulta útil o su utilidad se agota inmediatamente.A menudo, <strong>los</strong> clientes perciben que, <strong>de</strong> algún modo, <strong>los</strong> evaluadores<strong>de</strong>bían haber sabido proyectar las necesida<strong>de</strong>s informativas yajustar las activida<strong>de</strong>s <strong>de</strong> recopilación <strong>de</strong> datos. Para enfrentarse aeste dilema <strong>los</strong> evaluadores <strong>de</strong>ben abordar el diseño como un proceso,no como un producto, y necesitan conducir a sus clientes a hacerConviene apuntar quelas cualida<strong>de</strong>sdinámicas einteractivas <strong>de</strong> muchasevaluaciones y laorientación <strong>de</strong> suservicio hacen difícil, sino imposible, laproyección correcta y alargo plazo <strong>de</strong> lasnecesida<strong>de</strong>sinformativasespecíficas102


lo mismo. Las metas y procedimientos evaluativos <strong>de</strong>ben ser esquematizados<strong>de</strong> antemano, pero también analizados, revisados, ampliadosy modificados periódicamente. Fundamentalmente, este proceso<strong>de</strong>be estar guiado por un concepto justificable <strong>de</strong> lo que es una evaluaciónsolvente, por una sensibilidad a <strong>los</strong> factores <strong>de</strong>l mundo realque a menudo interfieren en el trabajo evaluativo y por una comunicacióncontinua entre <strong>los</strong> evaluadores y sus audiencias, acerca <strong>de</strong> lapertinencia y propiedad <strong>de</strong> la planificación.Al principio <strong>de</strong>l proceso, es importante escuchar e investigar.¿Quiénes son <strong>los</strong> principales clientes? ¿Qué pi<strong>de</strong>n <strong>de</strong> la evaluación?¿Por qué? ¿Qué tipo(s) <strong>de</strong> evaluación (<strong>de</strong>l contexto, <strong>de</strong> entrada, <strong>de</strong>lproceso o <strong>de</strong>l producto) pue<strong>de</strong>(n) ser más efectivo(s)? ¿Cómo creen <strong>los</strong>clientes que <strong>de</strong>be ser realizada la evaluación? ¿Qué perspectivas tienenen mente? ¿Quiénes consi<strong>de</strong>ran que son la audiencia principal? ¿Quiénpue<strong>de</strong> salir perjudicado a consecuencia <strong>de</strong> la evaluación? ¿Por qué?¿Qué cooperación será esencial? ¿De qué información se dispone?¿Cuáles son <strong>los</strong> antece<strong>de</strong>ntes? Des<strong>de</strong> un punto <strong>de</strong> vista realista, ¿Québeneficios positivos pue<strong>de</strong>n esperarse <strong>de</strong> la evaluación? ¿Qué efectosnocivos pue<strong>de</strong>n producirse, y cómo pue<strong>de</strong>n ser evitados? ¿Qué competenciasse requieren para realizar el trabajo?, y así sucesivamente.Siempre que sea posible una elección, el equipo evaluador <strong>de</strong>be plantearsecuestiones como éstas antes <strong>de</strong> <strong>de</strong>cidir si una evaluación pue<strong>de</strong>realizarse o si se dan las condiciones apropiadas para hacerla.Cuando haya asumido una <strong>de</strong>cisión positiva para seguir a<strong>de</strong>lante,el equipo evaluador <strong>de</strong>be hacer un esquema global <strong>de</strong>l plan. Este plan<strong>de</strong>be tener en cuenta si dicho equipo conoce el marco <strong>de</strong> <strong>de</strong>sarrolloy las necesida<strong>de</strong>s concretas <strong>de</strong> la evaluación, y <strong>de</strong>be ajustarse a lasnormas generalmente aceptadas para la realización <strong>de</strong> una evaluaciónsolvente. A<strong>de</strong>más, <strong>de</strong>be hablar, por lo menos <strong>de</strong> un modo general, <strong>de</strong>toda la gama <strong>de</strong> tareas que <strong>de</strong>bería realizar.El esquema incluido a continuación proporciona una visión general<strong>de</strong> <strong>los</strong> aspectos que <strong>de</strong>ben ser abordados en un diseño evaluativo.Estos puntos son aplicables al <strong>de</strong>sarrollar el plan inicial o más tar<strong>de</strong>,al revisarlo y explicarlo. Des<strong>de</strong> luego, sólo sirven como indicacióngeneral <strong>de</strong> la información <strong>de</strong>tallada que probablemente <strong>de</strong>berá serproporcionada a la hora <strong>de</strong> operativizar el diseño.Finalmente, conviene subrayar la necesidad <strong>de</strong> evaluar las evaluaciones.Si las evaluaciones <strong>de</strong>ben proporcionar una guía oportuna,las propias evaluaciones <strong>de</strong>ben ser solventes. Entre otras consi<strong>de</strong>raciones,<strong>de</strong>berían centrarse en las cuestiones a<strong>de</strong>cuadas, ser exactas ensus <strong>de</strong>finiciones, no ser ten<strong>de</strong>nciosas, ser comprensibles y ser justaspara aquel<strong>los</strong> cuyo trabajo se está examinando. Valorar las evaluacionessegún estas consi<strong>de</strong>raciones es a<strong>de</strong>ntrarse en la literatura queFinalmente, convienesubrayar la necesidad<strong>de</strong> evaluar lasevaluaciones. Si lasevaluaciones <strong>de</strong>benproporcionar una guíaoportuna, las propiasevaluaciones <strong>de</strong>ben sersolventes103


ESQUEMA DE DOCUMENTACIÓN DE LAS PLANIFICACIONES EVUALUATIVASAnálisis <strong>de</strong> la tareaDefinición <strong>de</strong>l objeto <strong>de</strong> ia evaluaciónI<strong>de</strong>ntificación <strong>de</strong>l cliente y las audienciasPropósito(s) <strong>de</strong> la evaluación (perfeccionamiento <strong>de</strong>l programa, responsabilidad y/o comprensíón)Tipo <strong>de</strong> evaluación (<strong>de</strong>l contexto, <strong>de</strong> entrada, <strong>de</strong>l proceso o <strong>de</strong>l producto) que va a emplearsePrincipios <strong>de</strong> una evaluación solvente (utilidad, viabilidad, propiedad y actitud) que <strong>de</strong>ben ser observadosPlan para la obtención <strong>de</strong> informacionesEstrategia general (examen, estudio <strong>de</strong> casos concretos, grupos asesores o experimentos)Presuposiciones <strong>de</strong> trabajo que sirvan <strong>de</strong> gula para la valoración, el análisis y la interpretaciónRecopilación <strong>de</strong> información (muestreo, instrumentalización y recopilación <strong>de</strong> datos)Organización <strong>de</strong> la información (cadificación, archivo y conservación)Análisis <strong>de</strong> la información (tanto cualitativa como cuantitativa)Interpretación <strong>de</strong> <strong>los</strong> resultados (i<strong>de</strong>ntificación <strong>de</strong> las normas y elaboración <strong>de</strong> <strong>los</strong> juicios)Plan para el informe sobre <strong>los</strong> resultadosPreparación <strong>de</strong> <strong>los</strong> informesDifusión <strong>de</strong> <strong>los</strong> informesPrevisión para continuar las activida<strong>de</strong>s con el fin <strong>de</strong> promover el impacto <strong>de</strong> la evaluaciónPlan para la administración <strong>de</strong>l estudioResumen <strong>de</strong>l programa evaluativoPlan para satisfacer <strong>los</strong> requisitos económicos y <strong>los</strong> <strong>de</strong>l personalPrevisión para la metsevaluaciónPrevisión para renovaciones periódicas <strong>de</strong> la planificación evaluativaPresupuestosMemorándum <strong>de</strong> compromisos o contratostrata el tema <strong>de</strong> la metaevaluación que abarca, entre otros, <strong>los</strong> criterios,<strong>procesos</strong> y técnicas utilizados para evaluar evaluaciones.1.3. El mo<strong>de</strong>lo CIPP como enfoque sistémico <strong>de</strong> la evaluaciónEste mo<strong>de</strong>lo <strong>de</strong> evaluación, en el contexto <strong>de</strong> un proceso <strong>de</strong> cambioinstitucional, reafirma muchas <strong>de</strong> las características propias <strong>de</strong>un método sistemático <strong>de</strong> evaluación:1. La evaluación es una parte integrante <strong>de</strong>l programa regular <strong>de</strong>una institución y no sólo una actividad concreta relacionadacon proyectos <strong>de</strong> renovación, y el perfeccionamiento que introduceel mo<strong>de</strong>lo CIPP o <strong>de</strong> cualquier otro método especializadoes sólo una parte <strong>de</strong>l mosaico <strong>de</strong> la evaluación formal e informal<strong>de</strong> una organización.104


2. La evaluación <strong>de</strong>sempeña un papel vital en la estimulación yplanificación <strong>de</strong> <strong>los</strong> cambios.3. La utilización <strong>de</strong> cada tipo <strong>de</strong> dimensión <strong>de</strong>l mo<strong>de</strong>lo CIPP estáindicada sólo si es necesaria más información <strong>de</strong> la que yaexiste, y no por el valor intrínseco <strong>de</strong> cada dimensión. En otraspalabras, las evaluaciones <strong>de</strong>l contexto, <strong>de</strong>l input, <strong>de</strong>l procesoy <strong>de</strong>l producto son sólo una parte <strong>de</strong>l gran cuadro evaluativo <strong>de</strong>cada institución, y su función más importante es la <strong>de</strong> servir alas necesida<strong>de</strong>s subsumidas en el mismo.4. La información que se genera a lo largo <strong>de</strong>l proceso <strong>de</strong> evaluaciónno sólo proporciona una guía para resolver problemascentrales, sino que, si se realiza <strong>de</strong> cara a una revisión pública,también proporciona una base para juzgar si las <strong>de</strong>cisionesacerca <strong>de</strong>l fracaso o generalización <strong>de</strong> un proyecto piloto setoman <strong>de</strong>s<strong>de</strong> posiciones justificables.El método evaluativoestá construido, en lofundamental, sobre lanoción <strong>de</strong> Tyler acerca<strong>de</strong> que <strong>los</strong> evaluadores<strong>de</strong>ben comparar <strong>los</strong>resultados <strong>de</strong>seados y<strong>los</strong> observados2. EL MÉTODO EVALUATIVO CENTRADO EN ELCLIENTELos exigentes requisitos fe<strong>de</strong>rales para la evaluación que se impusieronen la educación americana en la década <strong>de</strong> <strong>los</strong> sesenta estimularon el<strong>de</strong>sarrollo <strong>de</strong> algunos nuevos métodos evaluativos. Uno <strong>de</strong> estos métodosfue introducido por Robert Stake en 1967 con lo que se dio en llamar“mo<strong>de</strong>lo <strong>de</strong> la figura (countenance) para la evaluación educacional”.Este método está construido sobre la noción <strong>de</strong> Tyler acerca <strong>de</strong>que <strong>los</strong> evaluadores <strong>de</strong>ben comparar <strong>los</strong> resultados <strong>de</strong>seados y <strong>los</strong>observados, pero amplía el concepto <strong>de</strong> evaluación pidiendo un examen<strong>de</strong> <strong>los</strong> antece<strong>de</strong>ntes, <strong>de</strong>l proceso, <strong>de</strong> las normas y <strong>de</strong> <strong>los</strong> juicios,a<strong>de</strong>más <strong>de</strong> <strong>los</strong> resultados.2.1. Las aportaciones <strong>de</strong> StakeLos aspectos principales que se <strong>de</strong>stacan <strong>de</strong> la concepción <strong>de</strong>Stake, son <strong>los</strong> siguientes:• Las evaluaciones <strong>de</strong>ben ayudar a las audiencias a observar ymejorar lo que están haciendo.• <strong>los</strong> evaluadores <strong>de</strong>ben analizar <strong>los</strong> programas con relación tantoa <strong>los</strong> antece<strong>de</strong>ntes y las operaciones como a <strong>los</strong> resultados.• Los efectos secundarios y <strong>los</strong> logros acci<strong>de</strong>ntales <strong>de</strong>ben ser tanestudiados como <strong>los</strong> resultados buscados.• Los evaluadores <strong>de</strong>ben evitar la presentación <strong>de</strong> conclusionesfinales resumidas, pero en su lugar <strong>de</strong>ben recopilar, analizar yreflejar <strong>los</strong> juicios <strong>de</strong> una amplia gama <strong>de</strong> personas interesadasen el objeto <strong>de</strong> la evaluación.105


• Los experimentos y <strong>los</strong> tests regularizados son a menudo ina<strong>de</strong>cuadoso insuficientes para satisfacer <strong>los</strong> propósitos <strong>de</strong> unaevaluación, y <strong>de</strong>ben ser sustituidos o completados con unavariedad <strong>de</strong> métodos incluyendo <strong>los</strong> “soft” y <strong>los</strong> subjetivos.2.2. La evaluación respon<strong>de</strong>nteStake <strong>de</strong>sarrolló su fi<strong>los</strong>ofía <strong>de</strong> la evaluación durante <strong>los</strong> últimosaños sesenta y <strong>los</strong> primeros setenta, y en 1975 presentó su concepciónya ampliada con el nombre <strong>de</strong> “evaluación respon<strong>de</strong>nte”. Estapresentación conservó el énfasis en el método <strong>de</strong> la figura examinando"toda figura <strong>de</strong> un programa”, pero rompió totalmente con latradición tyleriana al recoger información con el fin <strong>de</strong> discutir si sehabían realizado las intenciones originales. En cambio, la evaluaciónrespon<strong>de</strong>nte asumía que las intenciones pue<strong>de</strong>n cambiar y pedía unacomunicación continua entre el equipo evaluador y la audiencia conel fin <strong>de</strong> <strong>de</strong>scubrir, investigar y solucionar <strong>los</strong> problemas.Fundamentalmente, el método <strong>de</strong> la evaluación respon<strong>de</strong>ntesubraya marcos para el <strong>de</strong>sarrollo <strong>de</strong>l aprendizaje, las transaccionesdidácticas, informaciones para emitir <strong>los</strong> juicios, informe holístico yasistencia a <strong>los</strong> educadores.Al ampliar el método, suscribió una <strong>de</strong>finición general <strong>de</strong> evaluaciónque él atribuía a Scriven. De acuerdo con esta <strong>de</strong>finición, la evaluaciónes un valor observado comparado con alguna norma.Stake advierte al evaluador que realice un amplio informe <strong>de</strong> loque se ha observado acerca <strong>de</strong>l programa y <strong>de</strong> la satisfacción o insatisfacciónque transmite un grupo <strong>de</strong> personas a<strong>de</strong>cuadamente seleccionadoante el mismo.Este sistema es claramente reminiscente <strong>de</strong>l texto Countenance,en el que Stake afirma que las dos principales tareas <strong>de</strong> la evaluaciónson la <strong>de</strong>scripción y el juicio. Al comentar la evaluación respon<strong>de</strong>nte,Stake no contempla al evaluador recopilando normas, clasificándolassegún su importancia y reduciendo estas escalas a un juicioglobal. Por el contrario, el evaluador <strong>de</strong>be hacer referencia, simplementea las opiniones <strong>de</strong> la gente acerca <strong>de</strong>l programa y no juzgarlas,clasificarlas o sintetizarlas.Stake subraya que las evaluaciones probablemente no serán útilessi <strong>los</strong> evaluadores no conocen el lenguaje y <strong>los</strong> intereses <strong>de</strong> suaudiencia y si no realizan sus informes con ese lenguaje.2.3. Evaluación preor<strong>de</strong>nada versus evaluación respon<strong>de</strong>nteStake contrasta en repetidas ocasiones el método <strong>de</strong> la evaluaciónrespon<strong>de</strong>nte y la evaluación preor<strong>de</strong>nada. El siguiente cuadro resumeeste contraste.Stake subraya que lasevaluacionesprobablemente noserán útiles si <strong>los</strong>evaluadores noconocen el lenguaje y<strong>los</strong> intereses <strong>de</strong> suaudiencia y si norealizan sus informescon ese lenguaje106


PRINCIPALES DISTINCIONES ENTRE LA EVALUACIÓN PREORDENADAY LA EVALUACIÓN RESPONDENTEDistinciónEvaluación Preor<strong>de</strong>nadaEvaluación Respon<strong>de</strong>nte1. PropósitoDeterminar hasta qué punto han sidoalcanzadas las metasAyuda a <strong>los</strong> clientes a distinguir las virtu<strong>de</strong>sy <strong>los</strong> <strong>de</strong>fectos2. Alcance <strong>de</strong> <strong>los</strong> serviciosSatisfacer <strong>los</strong> requisitos informativos talcomo se había acordado al principio <strong>de</strong>lprocesoRespon<strong>de</strong> a <strong>los</strong> requisitos informativos<strong>de</strong> la audiencia a lo largo <strong>de</strong> todo el proceso3. ContratosLas obligaciones <strong>de</strong> las partes formales<strong>de</strong> la evaluación se negocian y <strong>de</strong>finentan específicamente como sea posible alprincipio <strong>de</strong>l procesoLos propósitos y procedimientos seesbozan <strong>de</strong> una manera muy generalal principio y se <strong>de</strong>sarrollan durante elproceso4. Orientación principalPropósitos <strong>de</strong>l programa, indicación <strong>de</strong>las variablesProblemas y activida<strong>de</strong>s <strong>de</strong>l programa5. PlanificacionesPreespecificadasSe van haciendo a sí mismas6. MetodologíaReflejo <strong>de</strong>l «Mo<strong>de</strong>lo investigativo»: intervencióny observaciónReflejo <strong>de</strong> lo que la gente hace «naturalmente»:observa, interpreta y especifica7. Técnicas preferidasDiseño experimental, objetivos <strong>de</strong> comportamiento,hipótesis, muestreo al azar,tests objetivos, estadísticas <strong>de</strong> resumene informes investigativosEstudio <strong>de</strong> casos concretos, objetivosexpresivos, muestreo intencionado,observación, exámenes <strong>de</strong> programasopuestos e informes expresivos8. Comunicaciones entre elevaluador y el clienteFormales e infrecuentesInformales y continuas9. Bases para la interpretación<strong>de</strong> <strong>los</strong> valoresReferencias a <strong>los</strong> objetivos preestablecidos,a <strong>los</strong> grupos <strong>de</strong> reglas y a <strong>los</strong> programascompetitivosReferencias a las distintas perspectivas<strong>de</strong> valor <strong>de</strong> las personas próximas10. Diferencias fundamentalesSacrifica el servicio directo a <strong>los</strong> quetoman parte en el programa por la producción<strong>de</strong> informes investigativos objetivosSacrifica cierto grado <strong>de</strong> precisión en lavaloración para que pueda aumentar lautilidad11. Previsiones para evitarla ten<strong>de</strong>nciosidadUtiliza procedimientos objetivos y perspectivasin<strong>de</strong>pendientesReproducción y <strong>de</strong>finición operacional<strong>de</strong> <strong>los</strong> términos ambiguos107


2.4. La estructura <strong>de</strong> la evaluación respon<strong>de</strong>nteDespués <strong>de</strong> contrastar la evaluación preor<strong>de</strong>nada y la evaluaciónrespon<strong>de</strong>nte Stake amplía su concepto <strong>de</strong> evaluación respon<strong>de</strong>nte. Y lohace, especialmente, <strong>de</strong>scribiendo su estructura sustancial y funcional.La estructura sustancialPara Stake, <strong>los</strong> problemas son la primera parte <strong>de</strong> la estructura sustancial.En la evaluación respon<strong>de</strong>nte, éstos pue<strong>de</strong>n enten<strong>de</strong>rse comoáreas don<strong>de</strong> se producen <strong>de</strong>sacuerdos, dudas y cuestionamientos.Aunque proporciona directrices para la investigación, se muestra contrarioa las recopilaciones <strong>de</strong> datos cuantitativos <strong>de</strong>masiado limitadas.Para i<strong>de</strong>ntificar y solucionar <strong>los</strong> problemas, Stake aconseja alequipo evaluador que se familiarice con el programa hablando conla gente para alcanzar una comprensión mutua acerca <strong>de</strong> la existencia<strong>de</strong> ciertos problemas y que, más a<strong>de</strong>lante, utilice esos problemascomo estructura <strong>de</strong> futuras discusiones y para <strong>de</strong>sarrollarplanes <strong>de</strong> recopilación <strong>de</strong> información. El equipo evaluador <strong>de</strong>bei<strong>de</strong>ntificar y dar solución a <strong>los</strong> problemas a lo largo <strong>de</strong> todo el proceso<strong>de</strong> evaluación.Stake afirma que la segunda parte <strong>de</strong> la estructura sustancial <strong>de</strong> laevaluación respon<strong>de</strong>nte consiste en un esquema para la recopilación<strong>de</strong> información. A<strong>de</strong>más <strong>de</strong> <strong>los</strong> problemas, señala que este esquemaPara i<strong>de</strong>ntificar ysolucionar <strong>los</strong>problemas, Stakeaconseja al equipoevaluador que sefamiliarice con elprograma hablandocon la gente paraalcanzar unacomprensión mutuaacerca <strong>de</strong> la existencia<strong>de</strong> ciertos problemasFigura 16ESQUEMA DE STAKE PARA LA RECOPILACIÓN DE DATOSEN LA EVALUACIÓN DE UN PROGRAMA EDUCATIVOIntenciones(Lo que preten<strong>de</strong>la gente)Observaciones(Lo que percibela gente)Normas(Lo que la gentegeneralmenteaprueba)Juicios(Lo que la gentecree que <strong>de</strong>be serel programaprincipalBase lógicaAntece<strong>de</strong>ntesTransaccionesResultadosMatriz <strong>de</strong> <strong>de</strong>scripciónMatriz <strong>de</strong> juicio108


<strong>de</strong>be proporcionar una estructura adicional para la recopilación <strong>de</strong>datos. A través <strong>de</strong> la utilización <strong>de</strong> este esquema, el equipo evaluadortratará <strong>de</strong> i<strong>de</strong>ntificar perspectivas múltiples e incluso contradictoriasy examinar las congruencias y las contingencias (Figura 16).Las observaciones más importantes incluyen la base lógica <strong>de</strong>lprograma; sus antece<strong>de</strong>ntes previstos y <strong>los</strong> observados, <strong>los</strong> intercambiosy <strong>los</strong> resultados; las diversas normas que <strong>los</strong> distintos gruposcreen que <strong>de</strong>ben cumplirse; y sus distintos juicios acerca <strong>de</strong> ellas.Stake i<strong>de</strong>ntifica la observación <strong>de</strong> las personas como la terceraparte <strong>de</strong> la estructura sustancial <strong>de</strong> la evaluación respon<strong>de</strong>nte.Subraya su importancia y afirma que son <strong>los</strong> mejores instrumentos<strong>de</strong> investigación para muchos problemas evaluativos.La parte cuarta y final <strong>de</strong> la estructura sustancial <strong>de</strong> la evaluaciónrespon<strong>de</strong>nte es la validación. Stake responsabiliza al evaluador respon<strong>de</strong>nte<strong>de</strong> proporcionar la cantidad <strong>de</strong> información suficiente, proce<strong>de</strong>nte<strong>de</strong> numerosas fuentes in<strong>de</strong>pendientes y creíbles, como paraque pueda representar efectivamente el estado ya observado <strong>de</strong>l programa,<strong>de</strong> cualquier forma complejo.La estructura funcionalDejando ya atrás la estructura sustancial <strong>de</strong> la evaluación respon<strong>de</strong>nte,Stake consi<strong>de</strong>ra su estructura funcional. La evaluación respo<strong>de</strong>nterequiere la realización <strong>de</strong> una gran cantidad <strong>de</strong> observaciones,sin po<strong>de</strong>r estructurarse en fases lineales: la observación y la informacióncontinua son importantes a lo largo <strong>de</strong> toda la evaluación.Expuestas estas condiciones, Stake presenta la estructura funcional<strong>de</strong> la evaluación respon<strong>de</strong>nte bajo la forma <strong>de</strong> la evaluaciónreloj, tal como aparece en la Figura 17. Subraya que no setrata <strong>de</strong> un reloj normal; se mueve en la dirección <strong>de</strong> las agujas<strong>de</strong>l reloj, en sentido contrario y en cualquier otro sentido quepueda satisfacer mejor las necesida<strong>de</strong>s <strong>de</strong>l cliente. Seguramente,Stake concibe el reloj sólo como algo heurístico, y no como unaserie <strong>de</strong> directrices técnicas, puesto que no llega a explicar niilustra su utilización.Para Stake, <strong>los</strong>evaluadores son“buscadores <strong>de</strong> laverdad”, pero algunosse toman su papel<strong>de</strong>masiado en serio,puesto que existenmuy pocas verda<strong>de</strong>sobjetivas en laevaluación, si es queexiste alguna. Encambio, señala queexisten “realida<strong>de</strong>smúltiples”, lo cualquiere <strong>de</strong>cir que laverdad, resi<strong>de</strong> en <strong>los</strong>ojos <strong>de</strong>l observadorConclusionesPara Stake, <strong>los</strong> evaluadores son “buscadores <strong>de</strong> la verdad”, peroalgunos se toman su papel <strong>de</strong>masiado en serio, puesto que existenmuy pocas verda<strong>de</strong>s objetivas en la evaluación, si es que existe alguna.En cambio, señala que existen “realida<strong>de</strong>s múltiples”, lo cualquiere <strong>de</strong>cir que la verdad, resi<strong>de</strong> en <strong>los</strong> ojos <strong>de</strong>l observador.109


Figura 17LA ESTRUCTURA FUNCIONAL DE LA EVALUACIÓNSEGÚN STAKE: LA EVALUACIÓN RELOJ10Esquema para uso<strong>de</strong> la audiencia11Reunir <strong>los</strong> informesformales si <strong>los</strong> hay12Hablar con <strong>los</strong> clientes,el personal <strong>de</strong>l programay las audiencias1I<strong>de</strong>ntificar el alcance<strong>de</strong>l programa2Panorama <strong>de</strong> las activida<strong>de</strong>s<strong>de</strong>l programa9Validación: confirmación,búsqueda <strong>de</strong> evi<strong>de</strong>nciaspara la no confirmación8Desarrollar temas, preparar<strong>de</strong>scripciones y estudiarcasos concretos7Observar <strong>los</strong> antece<strong>de</strong>ntes,las transecciones y <strong>los</strong>resultados propuestos6Seleccionar observadores,jueces e instrumentos,si <strong>los</strong> hay3Descubrir <strong>los</strong> propósitose intereses4Conceptualizar las cuestionesy <strong>los</strong> problemas5I<strong>de</strong>ntificar <strong>los</strong> datosnecesarios para investigar<strong>los</strong> problemasLa evaluación internaes más útil que laexterna y lasautoevaluaciones sonmás útiles que lasevaluacionescentralizadasComo consecuencia, recomienda a <strong>los</strong> evaluadores que recopileny presenten las perspectivas <strong>de</strong> distintas personas y grupos. Lesadvierte que no crean que sólo <strong>los</strong> resultados cuantificables pue<strong>de</strong>nhablar <strong>de</strong>l valor <strong>de</strong> un programa; dice que existen muy pocos datoscríticos en un estudio y que <strong>los</strong> resultados <strong>de</strong>ben ser valorados aveces, pero otras veces no. Destaca que <strong>los</strong> evaluadores pue<strong>de</strong>n escogerdistintos caminos para revelar la utilidad <strong>de</strong> un programa y aña<strong>de</strong>que ni <strong>los</strong> tests escritos ni otros datos concretos <strong>de</strong>ben ser contempladoscomo absolutamente esenciales, aun que tampoco <strong>de</strong>ben serautomáticamente excluidos.En opinión <strong>de</strong> Stake, la evaluación interna es más útil que la externay las autoevaluaciones son más útiles que las evaluaciones centralizadas.En conjunto, recomienda a <strong>los</strong> evaluadores que utilicen cualquiertécnica y fuente <strong>de</strong> información que les parezca relevante para<strong>de</strong>scribir la complejidad y la realidad múltiple <strong>de</strong> un programa y paracomunicar esa complejidad, aunque el resultado sea dudoso y dificultela toma <strong>de</strong> <strong>de</strong>cisiones.En cuanto al papel <strong>de</strong>l evaluador, Stake señala que una tarea fundamentalen cualquier evaluación es <strong>de</strong>terminar su propósito y <strong>los</strong>110


criterios que <strong>de</strong>ben ser valorados. Apuntando que existen, por lomenos, siete propósitos legítimos en una evaluación:1. Documentar <strong>los</strong> acontecimientos.2. Informar <strong>de</strong>l cambio.3. Determinar la vitalidad institucional.4. Localizar la raíz <strong>de</strong> <strong>los</strong> problemas.5. Colaborar en la toma <strong>de</strong> <strong>de</strong>cisiones administrativas.6. Proponer una acción correctiva.7. Intensificar nuestra comprensión <strong>de</strong> la enseñanza y el aprendizaje,o combinaciones entre <strong>los</strong> propósitos anteriores.Así, cada evaluador <strong>de</strong>be tomar su propia <strong>de</strong>cisión sobre estosproblemas, y ser, en este aspecto, reduccionista y convergente. Stakerecomienda a <strong>los</strong> evaluadores que no trabajen con nociones <strong>de</strong> éxitopreconcebidas. En lugar <strong>de</strong> eso, les sugiere que, en primer lugar,presten mucha atención al hecho <strong>de</strong> “por qué ha sido encargada laevaluación”, luego analicen lo que suce<strong>de</strong> y, finalmente, negocien yescojan las cuestiones <strong>de</strong> valor y <strong>los</strong> criterios.3. LA EVALUACIÓN INNOVATIVAEn este caso se expone el método <strong>de</strong> evaluación innovativa que, adiferencia <strong>de</strong> <strong>los</strong> dos mo<strong>de</strong><strong>los</strong> anteriores, está especialmente vinculadaa la evaluación en un ámbito temático específico como es el educativopero que, en su planteamiento y concepción generales resultatrasladable a otros ámbitos.De un modo característico, <strong>los</strong> métodos <strong>de</strong> evaluación convencionaleshan seguido las tradiciones experimentales o psicométricasdominantes en la investigación educativa. Los evaluadores innovativoscreen que estos métodos tienen un alcance limitado e ina<strong>de</strong>cuadopara dilucidar <strong>los</strong> complejos problemas con que se enfrentan <strong>los</strong>evaluadores.La evaluación innovativa se presenta vinculada a un paradigma <strong>de</strong>investigación antropológica opuesto. Los intentos <strong>de</strong> valoración <strong>de</strong><strong>los</strong> productos educativos <strong>de</strong>jan paso a un estudio intensivo <strong>de</strong>l programacomo totalidad: su base lógica, su evolución, sus operaciones,sus logros y sus dificulta<strong>de</strong>s.La crítica principal que se hace al mo<strong>de</strong>lo basado en objetivos esque valora sin explicar, mientras que la metodología innovativa, contemplandoel programa como un todo, utiliza más la <strong>de</strong>scripción quelas cuantificaciones.Los intentos <strong>de</strong>valoración <strong>de</strong> <strong>los</strong>productos educativos<strong>de</strong>jan paso a unestudio intensivo <strong>de</strong>lprograma comototalidad: su baselógica, su evolución,sus operaciones, suslogros y susdificulta<strong>de</strong>s111


3.1. La evaluación innovativa: un paradigma socio-antropológicoEn el ámbito <strong>de</strong> <strong>los</strong> programas educativos la evaluación innovativatiene en cuenta el amplio contexto en el que funcionan <strong>los</strong> programaseducativos; así, su principal preocupación es la <strong>de</strong>scripción yla interpretación, más que la valoración y la predicción. Parlett yHamilton afirman: “Es indiscutible que en el paradigma alternativoantropológico no pue<strong>de</strong>n ser ignorados <strong>los</strong> efectos históricos, culturalesy sociales”. Las metas <strong>de</strong> la evaluación innovativa son lassiguientes:1. Estudiar el programa innovador: cómo opera, cómo influye enlas distintas situaciones escolares a las que se aplica, sus ventajase inconvenientes, y cómo se ven afectadas las tareas intelectualesy las experiencias académicas <strong>de</strong> <strong>los</strong> estudiantes.2. Descubrir y documentar qué significa participar en el esquema,ya sea como docente o como alumno.3. Discernir y comentar las características más significativas <strong>de</strong>la innovación, las concomitancias recurrentes y <strong>los</strong> <strong>procesos</strong>críticosDe esta manera se intenta plantear y clarificar una compleja serie<strong>de</strong> cuestiones, ayudando al innovador y a otras partes interesadas ai<strong>de</strong>ntificar aquel<strong>los</strong> procedimientos y aspectos <strong>de</strong>l programa quepue<strong>de</strong>n conseguir <strong>los</strong> resultados <strong>de</strong>seados.Como afirman Parlett y Hamilton, la adopción <strong>de</strong> una evaluacióninnovativa requiere algo más que un intercambio <strong>de</strong> metodologías(con las tradicionales); implica también nuevos supuestos, conceptosy terminología para compren<strong>de</strong>r la evaluación innovativa <strong>de</strong>s<strong>de</strong> nuevosplanos <strong>de</strong> análisis.3.2. Organización y métodos <strong>de</strong> la evaluación innovativaLa evaluación innovativa no es un método regularizado, sino unaestrategia <strong>de</strong> investigación general. Preten<strong>de</strong> ser adaptable para <strong>de</strong>scubrirlas dimensiones, metas y técnicas <strong>de</strong> la evaluación, y ecléctica paraproporcionar al equipo evaluador una serie <strong>de</strong> técnicas <strong>de</strong> estudio.Las <strong>de</strong>cisiones acerca <strong>de</strong> la estrategia que <strong>de</strong>be ser utilizada en cadacaso concreto surgen <strong>de</strong>l problema que <strong>de</strong>be investigarse. Ningúnmétodo se utiliza <strong>de</strong> forma exclusiva o aisladamente; se combinan distintastécnicas para arrojar un poco <strong>de</strong> luz sobre un problema común.Inicialmente, como afirman Parlett y Hamilton, la preocupación <strong>de</strong>levaluador es familiarizarse con la realidad cotidiana <strong>de</strong>l marco en elque está investigando. Este propósito es similar al <strong>de</strong> <strong>los</strong> antropólogosSe intenta plantear yclarificar una complejaserie <strong>de</strong> cuestiones,ayudando al innovadory a otras partesinteresadas ai<strong>de</strong>ntificar aquel<strong>los</strong>procedimientos yaspectos <strong>de</strong>l programaque pue<strong>de</strong>n conseguir<strong>los</strong> resultados<strong>de</strong>seados112


sociales o <strong>los</strong> historiadores naturales. No intenta manipular, controlaro eliminar las variables situacionales, sino abarcar toda la complejidad<strong>de</strong> la escena: “Su tarea principal es <strong>de</strong>senmarañarla, aislar sus característicasmás significativas, esbozar <strong>los</strong> cic<strong>los</strong> causa-efecto y compren<strong>de</strong>rlas relaciones entre las creencias y las prácticas y entre <strong>los</strong> mo<strong>de</strong><strong>los</strong><strong>de</strong> la organización y <strong>los</strong> mo<strong>de</strong><strong>los</strong> <strong>de</strong> <strong>los</strong> individuos”.Dado que las evaluaciones innovativas subrayan el examen <strong>de</strong>lprograma como una parte integrante <strong>de</strong>l entorno <strong>de</strong>l aprendizaje, elénfasis se traslada a la observación sobre el terreno (centros) y lasentrevistas con profesores y estudiantes. Parlett y Hamilton afirmanque existen tres etapas características <strong>de</strong> una evaluación innovativa:1. La fase <strong>de</strong> observación, en la cual se investiga toda la ampliagama <strong>de</strong> variables que afectan al resultado <strong>de</strong>l programa o lainnovación.2. La etapa <strong>de</strong> investigación, en la cual el interés se <strong>de</strong>splaza <strong>de</strong>s<strong>de</strong>el reconocimiento (fase <strong>de</strong> observación) hacia la selección yplanteamiento <strong>de</strong> cuestiones <strong>de</strong> una manera coherente y ecuánime,con el fin <strong>de</strong> realizar una lista sistemática y selectiva <strong>de</strong> <strong>los</strong>aspectos más importantes <strong>de</strong>l programa en su contexto.3. La etapa <strong>de</strong> explicación, en la que <strong>los</strong> principios generales subyacentesa la organización <strong>de</strong>l programa son expuestos y se<strong>de</strong>linean <strong>los</strong> mo<strong>de</strong><strong>los</strong> causa-efecto en sus operaciones.Dentro <strong>de</strong> esta estructura <strong>de</strong> tres etapas, se recogen informacionesutilizando datos recopilados en cuatro áreas: observación, entrevistas,cuestionarios y tests así como las fuentes documentales yantece<strong>de</strong>ntes existentes.Su tarea principal es<strong>de</strong>senmarañarla, aislarsus características mássignificativas, esbozar<strong>los</strong> cic<strong>los</strong> causa-efecto ycompren<strong>de</strong>r lasrelaciones entre lascreencias y las prácticasy entre <strong>los</strong> mo<strong>de</strong><strong>los</strong> <strong>de</strong>la organización y <strong>los</strong>mo<strong>de</strong><strong>los</strong> <strong>de</strong> <strong>los</strong>individuosLa observaciónLa fase <strong>de</strong> observación ocupa un lugar central en la evaluacióninnovativa. El equipo evaluador recopila información continua acerca<strong>de</strong> las activida<strong>de</strong>s, las transacciones y <strong>los</strong> comentarios informales.Los datos <strong>de</strong>ben ser organizados allí don<strong>de</strong> surjan y luego añadirsecomentarios interpretativos sobre “las características <strong>de</strong> la situación,tanto manifiestas como latentes”.Las convenciones y metáforas <strong>de</strong>l lenguaje que caracterizan lasconversaciones <strong>de</strong> cada medio <strong>de</strong> aprendizaje pue<strong>de</strong>n revelar presuposicionestácitas, relaciones interpersonales, diferencias <strong>de</strong> rango, etc.Parlett y Hamilton señalan, así mismo, la existencia <strong>de</strong> un lugar para laobservación codificada, mediante la utilización <strong>de</strong> registros para conocerla asistencia, el uso <strong>de</strong>l tiempo y <strong>de</strong> las facilida<strong>de</strong>s disponibles, lasinteracciones interpersonales, etcétera. El evaluador innovativo <strong>de</strong>be113


ser precavido, <strong>de</strong> todas formas, al utilizar estas técnicas, puesto que nopue<strong>de</strong>n <strong>de</strong>scubrir las características intrínsecas <strong>de</strong>l programa.Las entrevistasDescubrir <strong>los</strong> puntos <strong>de</strong> vista <strong>de</strong> <strong>los</strong> participantes es muy importantepara la valoración <strong>de</strong>l impacto <strong>de</strong> un programa. Las entrevistasbreves y estructuradas son convenientes para obtener informaciónbiográfica o <strong>de</strong>mográfica, mientras que las entrtevistas más abiertasy discursivas suelen ser <strong>de</strong> mucha utilidad para temas más complejos.Si la insuficiencia <strong>de</strong> tiempo y dinero imposibilita entrevistar acada participante (y esto ocurre con frecuencia), pue<strong>de</strong> realizarse unamuestra <strong>de</strong> entrevistas escogidas al azar, teniendo un especial cuidadoen asegurarse <strong>de</strong> que <strong>los</strong> informantes o grupos particulares quemantengan una posición especial o cuyo punto <strong>de</strong> vista resulte notable,estarán incluídos en la muestra.Cuestionarios y testsAunque el equipo evaluador se concentra en la observación y laentrevista, no <strong>de</strong>ben olvidarse la necesidad <strong>de</strong> utilizar cuestionariosque combinen preguntas cerradas y abiertas, que <strong>de</strong>muestran ser útilesaunque nunca utilizados <strong>de</strong> forma exclusiva. Sus ventajas en lasevaluaciones <strong>de</strong> gran escala son especialmente evi<strong>de</strong>ntes, aunquetambién pue<strong>de</strong>n utilizarse <strong>de</strong> manera provechosa en las más reducidas.Los participantes pue<strong>de</strong>n también preparar comentarios escritosacerca <strong>de</strong>l programa, elaborar y utilizar listas <strong>de</strong> control o recopilardiarios <strong>de</strong> trabajo por un período <strong>de</strong> tiempo <strong>de</strong>terminado.Los evaluadores pue<strong>de</strong>n también utilizar tests <strong>de</strong> actitud, personalidady logros, aunque éstos no gocen <strong>de</strong> una condición privilegiada enel estudio. Las calificaciones <strong>de</strong> <strong>los</strong> tests nunca <strong>de</strong>ben ser utilizadasaisladamente. Para dar cuenta <strong>de</strong> <strong>los</strong> propósitos, no <strong>de</strong>ben comparar lasdistintas escalas <strong>de</strong> <strong>los</strong> tests, sino utilizar esta comparación en una presentación<strong>de</strong> <strong>los</strong> resultados <strong>de</strong>l estudio en su contexto global.Información documental y sobre <strong>los</strong> antece<strong>de</strong>ntesLos antece<strong>de</strong>ntes históricos <strong>de</strong> un programa <strong>de</strong>ben ser consi<strong>de</strong>rados,puesto que no están ahí por azar. Pue<strong>de</strong>n utilizarse las fuentesprincipales, como <strong>los</strong> datos confi<strong>de</strong>nciales archivados, junto conrelatos autobiográficos y <strong>de</strong> testigos <strong>de</strong>l programa. A través <strong>de</strong> estainformación se pue<strong>de</strong>n i<strong>de</strong>ntificar áreas relevantes para ser investigadaso subrayar temas en una discusión más profunda. Igualmente,pue<strong>de</strong> sacar a la luz aspectos <strong>de</strong> la innovación que <strong>de</strong> otra manerahubieran quedado ocultos.Dado que lasevaluacionesinnovativas subrayanel examen <strong>de</strong>lprograma como unaparte integrante <strong>de</strong>lentorno <strong>de</strong>laprendizaje, el énfasisse traslada a laobservación sobre elterreno y lasentrevistas conprofesores yestudiantes114


Bibliografía Básica“Orientaciones Comunes para el Seguimiento y las Evaluaciones Intermedias”Comisión Europea 1996“Actes <strong>de</strong> la Conference Europeene sur les Pratiques d´Evaluation en Matiere<strong>de</strong> Politiques Structurelles”Comisión Europea 1998“Méthodologie pour l´Évaluation Ex-Post <strong>de</strong>s Programmes Opérationnels Cofinancéspar le F.S.E.”Comisión Europea 1991“Organising Intermediate Evaluation in the context of Parthership”Programa Means Documento 1, 1995.“I<strong>de</strong>ntifying the Structuring Effects of Community Interventions”Programa Means Documento 2, 1995“Measuring the Employment Effects of Community Structural Interventions”Programa Means Documento 3, 1995“Quality Assessment of Evalaution Reports: a Framework”Programa Means Documento 5, 1996“Evaluating the Contribution of the Structural Funds to Employment”Programa Means Documento 6, 1996“Evaluación <strong>de</strong> Programas <strong>de</strong> Intervención Social”Trinidad Requena A. y Pérez Sánchez M.Revista <strong>de</strong>l Ministerio <strong>de</strong> Trabajo y Asuntos Sociales. Madrid 1998.“¿Cómo Evaluar Programas y Servicios Públicos?. Aproximación Sistémica yEstudios <strong>de</strong> caso”Ballart XavierMinisterio para las Administraciones Públicas. Madrid 1992“Metodología <strong>de</strong> Evaluación <strong>de</strong> la Cooperación Española”Secretaría <strong>de</strong> Estado para la Cooperación Internacional y para Iberoamérica.Ministerio <strong>de</strong> Asuntos Exteriores. Madrid 1998115


“Evaluation”Stufflebeam Daniel L. y Shinkfield Anthony J.Kluber-Nijhoff Publishing. Boston 1985“Standars for Evaluation of Educational Programs, Proyects, and Materials”Joint Committee on Standars for Educational EvaluationMcGraw-Hill New York, 1981“Evaluación para una mejor gestión. Revisión intermedia <strong>de</strong> <strong>los</strong> programasestructurales Objetivos nº 1 y 6 (1994-1999)”Comisión Europea 1999“Comment Évaluer les Effets Structurants: Etat <strong>de</strong>s Débats Méthodologiques”Comisión Europea 1993“Gui<strong>de</strong> for Cost Benefit Analysis of Mayor Projects in the Context of RegionalPolicy”Comisión Europea 1994116

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!