Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
1 Oficina de Evaluación EVALUACIÓN DE IMPACTO EN UNICEF Estrategia y Marco de Acción 2022-2025 Folleto de resumen © Fondo de las Naciones Unidas para la Infancia (UNICEF), marzo de 2023 La reproducción total o parcial de esta publicación requiere autorización previa. Las organizaciones educativas o sin fines de lucro obtendrán pleno permiso. Contacto: UNICEF Oficina de Evaluación 3 United Nations Plaza, Nueva York, NY 10017, Estados Unidos de América Correo electrónico: evalhelp@unicef.org Sitio web: www.unicef.org/evaluation/ El mapamundi incluido en esta publicación ofrece una representación estilizada, no a escala. No refleja la posición de UNICEF sobre la condición jurídica de ningún país o territorio, ni sobre la delimitación de fronteras. La línea de puntos representa de manera aproximada la línea de control acordada entre la India y el Pakistán. Las partes todavía no han llegado a un acuerdo sobre la situación definitiva de Jammu y Cachemira. La frontera final entre la República del Sudán y la República de Sudán del Sur está aún por determinar. La situación final de la zona de Abyei está aún por determinar. Referencia sugerida: Fondo de las Naciones Unidas para la Infancia (UNICEF). Evaluación de impacto en UNICEF: Estrategia y Marco de Acción 2022-2025. UNICEF, Nueva York, 2023. Foto de la cubierta: © UNICEF/UN0535836/Dejongh Diseño y maquetación: Elena Panetti, con la aportación de Stacie Baek. Edición: Eve Leckey. 3 ¿Por qué evaluar el impacto? La vida de los niños y las niñas no cambia de manera significativa de la noche a la mañana. En un contexto en el que queda menos de un decenio para presentar informes sobre los avances hacia la consecución de las metas de la Agenda 2030, UNICEF destina recursos y esfuerzos considera- bles a acelerar la obtención de resultados para la infancia (figura 1). Es vital y una responsabilidad colectiva saber si dichos esfuerzos repercuten positivamente en sus vidas. La evaluación desem- peña un papel fundamental con vistas a obtener comentarios sobre los resultados, mediante un análisis imparcial y fidedigno de lo que funciona y no funciona, y por qué. Mediante esta Estrategia y Marco de Acción, la función de evaluación de UNICEF responde a las peticiones de la Junta Ejecutiva y de partes interesadas internas para articular una hoja de ruta que desemboque en un esfuerzo institucional más estratégico y cohe- rente, a fin de demostrar la efectividad de los programas de UNICEF impulsados por los gobier- nos. Su justificación es la necesidad de: El cumplimiento de una agenda 2022-2025 ambi- ciosa y orientada a la obtención de resultados, mediante evidencias rigurosas1 derivadas de la evaluación de impacto y los resultados, permi- tirá a UNICEF: • asignar recursos limitados con eficacia en el plano descentralizado, allí donde tengan un mayor impacto en la infancia, y movilizar recur- sos nuevos mediante la demostración del valor añadido de las iniciativas de UNICEF con vistas a obtener avances en la consecución de los ODS; • fomentar el aprendizaje institucional y mejo- rar el proceso de ejecución de programas mediante el fortalecimiento de la lógica subya- cente de los programas y la verificación de sus hipótesis; y • mantener su pertinencia en el proceso de formulación de políticas nacionales, reforzar las actividades de promoción donde resulte importante hacerlo, y realizar una evaluación crítica de su contribución a los resultados que se exponen en el Plan Estratégico 2022-2025. Mayor rendición de cuentas y transparencia: UNICEF tiene la responsabilidad de maximizar el bienestar social de la infancia a partir de los fondos públicos que recibe. En el trans- curso del Plan Estratégico para 2018-2021, UNICEF invirtió algo más de 23.000 millones de dólares en intervenciones y programas enmarcados en cinco áreas temáticas. Durante ese mismo período solo se llevaron a cabo 36 evaluaciones de impacto, por lo que la cantidad de evidencias rigurosas dispo- nibles hasta la fecha es muy inferior al número de iniciativas de desarrollo de UNICEF, y no permite al público general valorar de forma informada la eficacia relativa de los modelos elegidos con vistas a ofrecer beneficios a millones de niños y niñas. Mayor eficacia del desarrollo y mejor aprendizaje insti- tucional, en todos los ámbitos: los programas de UNICEF cada vez prestan un mayor apoyo a los gobiernos con vistas a solucionar problemas sociales polifacéticos y trabajar en entornos complejos. Por consiguiente, los enfoques utiliza- dos en las intervenciones son cada vez más innovadores. Las soluciones sociales nunca son perfectas desde el principio y, con frecuencia, pueden ser más perjudiciales que beneficio- sas si se implementan sin probarse. Mediante una identifica- ción temprana de lo que funciona, es posible asignar recur- sos a las estrategias que puedan tener un mayor impacto y minimizar resultados negativos no deseados. 4 Destinatarios y ámbito La Estrategia sirve de referencia práctica para las oficinas regionales y en los países de UNICEF, así como para su personal de evaluación, segui- miento y programas, con vistas a respaldar sus iniciativas encaminadas a fundamentar los planes nacionales y las políticas centradas en la infancia con evidencias sólidas derivadas de evaluacio- nes. En la Estrategia se trazan líneas estratégicas para un área técnica de la labor de evaluación de UNICEF, que abarca las definiciones operativas, los problemas detectados y tres pilares estraté- gicos de acciones para mitigar dichos problemas. También se estudian los enfoques de UNICEF con respecto a aspectos de la ejecución relacio- nados con la metodología y los procesos, y se establecen requisitos en materia de alianzas y recursos. 23.000 millones de dólares Gasto en programas Evaluaciones de impacto realizadas 36 Argentina Guatemala Senegal Togo Nigeria Etiopía KenyaBurundi Tanzanía Malí Líbano Jordania Pakistán India Nepal Bangladesh Laos Tailandia Camboya Georgia El Salvador Zambia Zimbabwe Malawi Mozambique Madagascar LesothoSudáfrica Figura 1. Cobertura de países mediante las evaluaciones de impacto en UNICEF, 2017-2021 N.º de evaluaciones de impacto (36 en total) 0 1 2 3 2017-2021 5 Definición de impacto en el seno de UNICEF y modalidades de evaluación En las evaluaciones de UNICEF donde se examine el impacto se tendrán que analizar los resultados a través de las consecuencias inter- medias y a corto plazo, definidas como vías de causalidad hacia impactos sostenibles a largo plazo. Este es un aspecto fundamental, ya que las “vías de causalidad” pueden traducirse en “vías de políticas” mediante medidas de política encaminadas al cambio transformador deseado. Este último puede implicar un cambio sistémico, además de resultados tangibles y medibles en términos de bienestar, que pueden evaluarse mediante un contrafactual riguroso en un contexto específico. La definición de UNICEF subraya la impor- tancia de un marco científico basado en una evaluación de impacto rigurosa, y reconoce el valor y las perspectivas únicas que ofrecen los enfoques de evaluación cualitativos y no experimentales con vistas a examinar las rela- ciones causales. Dado el amplio mandato programático de UNICEF, en la Estrategia se describe “la evalua- ción de impacto” como un ámbito general de la labor de evaluación de los resultados y el impacto, donde se emplean dos líneas diferen- ciadas de estudio del impacto (figura 2) que refle- jan el propósito de evaluación (no de método), con vistas a examinar la atribución o contribu- ción causal de un determinado programa espe- cífico o sus componentes al impacto generado2. El evaluador tiene la tarea de definir el propósito de evaluación en consonancia con las necesida- des de pruebas, así como la viabilidad y conve- niencia de establecer la “atribución causal” (o “contribución causal”) a los resultados de los programas.Esta labor suele basarse en la evaluación de las características del programa, como su naturaleza, cobertura, alcance, crono- grama, etc. De este modo, se eligen la modali- dad de evaluación y los enfoques metodológicos más apropiados y viables, incluidos aquellos que contribuyen a un contrafactual riguroso en entor- nos programáticos complejos. vías de causalidad Medidas de política vías de políticas A los efectos de la Estrategia, “impacto” se define como los cambios positivos y negativos, directos e indirectos, y prima- rios y secundarios, que genera una intervención, a corto, medio y largo plazo, en las vidas de los niños, las niñas y sus familias. La evaluación de impacto aspira a establecer la atribución de manera empírica, mediante la cuantificación de los víncu- los causales entre la intervención (proyectos, programas, políticas, redes o iniciativas de desarrollo de capacidades) y resultados de interés, normalmente en lo que respecta a los destinatarios objetivo. Para ello, se genera una hipótesis contrafactual mediante la que podemos saber lo que sucede- ría en ausencia de la intervención o de la exposición a esta. De este modo, es posible hacer una valoración crítica de si la intervención propicia cambios y la medida en que lo hace. La evaluación puede utilizarse con fines formativos y sumativos, y satisfacer por igual necesidades de aprendizaje y rendición de cuentas. Lo idóneo es implementar estas evaluaciones junto con enfoques cualitativos adecuados que respondan a pregun- tas sobre el porqué y el cómo, a fin de profundizar en nuestro conocimiento e interpretación de los resultados observados. 6 Cambio cuantificable, con efectos que pueden ser aislados Acción multipartita más amplia, con efectos difíciles de medir o aislar EVALUACIÓN DE IMPACTO EVALUACIONES SUMATIVAS/ EVALUACIONES DE IMPACTO EX POST Contribución causal mediante una “reconstrucción” con base teórica de las vías causales Cuantitativa (experimental/ cuasi experimental, experimento natural) Cualitativa Cualitativa (con base teórica, no experimental) Cuantitativa ¿Cuál es la naturaleza de la intervención y los resultados? ¿Cuál es la naturaleza operativa del programa? ¿Qué clase de preguntas de evaluación formulamos? ¿Cuál es la finalidad y el uso previsto de las evidencias de impacto? Atribución causal posible mediante un contrafactual Figura 2. Selección de enfoques de evaluación para medir los resultados y el impacto de los programas PARÁMETROS PROGRAMÁTICOS 7 Problemas detectados hasta la fecha Los diagnósticos de evidencias de impacto encargados o llevados a cabo por UNICEF entre 2017 y 2021 revelaron una demanda institucio- nal limitada de evaluaciones de los resultados y el impacto, y una falta de planificación estra- tégica y temática a escala para dichas pruebas, con el consiguiente desequilibrio en la cober- tura (figura 3). En la base de datos Evidence Information Systems Integration solo se regis- traron 36 evaluaciones de impacto rigurosas (esto es, un 6% del total de 627 productos de evaluación) durante el período correspondiente (2017-2021). Podemos observar una cobertura temática y geográfica sumamente despropor- cionada, con el sector de protección social y la región de África Oriental y Meridional como prin- cipales beneficiados. Las brechas de cobertura parecen especialmente marcadas en los grupos de objetivos 1 (nutrición/salud) y 3 (protección de la infancia)3. 31 1 1 1 1 1 1 21 1 1 1 1 1 1 1 1 1 7Protección social Educación/aprendizaje Salud WASH Nutrición Protección de la infancia Capacidad de adaptación comunitaria Programación en favor de los adolescentes Desarrollo en la primera infancia EAPR ECAR ESAR SEDE LACR MENA SAR WCAR 4 3 Figura 3. Número absoluto de evaluaciones de impacto en UNICEF en 2017-2021, por esferas temáticas y regiones Nota: EAPR (región de Asia Oriental y el Pacífico), ECAR (región de Europa y Asia Central), ESAR (región de África Oriental y Meridional), LACR (región de América Latina y el Caribe), MENA (región de Oriente Medio y Norte de África), SAR (región de Asia Meridional), WASH (agua, saneamiento e higiene) y WCAR (región de África Occidental y Central). 8 Figura 4. Vinculación de los pilares estratégicos a los problemas más comunes en relación con la planificación, gestión y utilización de evaluaciones de impacto Los resultados de una encuesta en línea realizada entre el personal también pusieron de relieve cuellos de botella persistentes en la puesta en marcha, planificación, implementación y adop- ción de pruebas de evaluación centradas en los resultados y el impacto de las diferentes fases del ciclo de programas (figura 4). El carácter interrelacionado de estos problemas sugiere la necesidad de un enfoque más sistémico y estra- tégico con vistas a evaluar las intervenciones de UNICEF en términos de eficacia del desarrollo, lo cual permite integrar una estructura de incentivos y requisitos en un marco temporal de desarrollo a largo plazo. Pocas evaluaciones realizadas que se centren en el impacto y los resultados Disparidad temática y geográfica en la cobertura Planificación de programas a largo plazo para evaluar el impacto Limitaciones de los datos Alto costo y recursos Uso limitado de métodos sólidos Escasa concienciación y capacidad del personal y los asociados Teoría del cambio deficiente o inexistente Desajuste entre la planificación de la evaluación de impacto y el ciclo de programas PILAR ESTRATÉGICO I AUMENTAR LA PUESTA EN MARCHA Y LA COBERTURA PILAR ESTRATÉGICO II DIVERSIFICAR LOS MÉTODOS E INNOVAR PILAR ESTRATÉGICO III MEJORAR EL APRENDIZAJE Y LA SINERGIA PROGRAMÁTICA PR O B LE M A S PR O B LE M A S PR O B LE M A S 9 Los problemas y cuellos de botella detecta- dos en la evaluación de impacto han desembo- cado en la elección de pilares prioritarios para esta Estrategia (figura 5). Estos se han formu- lado teniendo presente la viabilidad de la acción dentro del período que abarca el Plan Estratégico de UNICEF para 2022-2025, y la armonización con la visión para la función de evaluación con relación a dicho período. Esta última subraya la necesidad de un mayor rigor y un enfoque estra- tégico en toda la labor de evaluación de UNICEF. Figura 5. Pilares estratégicos y acciones clave AUMENTAR LA PUESTA EN MARCHA Y LA COBERTURA DIVERSIFICAR LOS MÉTODOS E INNOVAR MEJORAR EL APRENDIZAJE Y LA SINERGIA PROGRAMÁTICA 1 Lanzamiento del Fondo Catalizador del Impacto 2 Asistencia técnica en el uso del criterio de “impacto” del CAD-OCDE en evaluaciones sumativas 3 Integración de un requisito de evaluación de impacto para las propuestas de los principales donantes 4 Fomento de la planificación de evaluaciones de impacto con relación a intervenciones nuevas y estratégicas en el proceso de DPP (PEC) 1 Desarrollo de las capacidades del personal y los asociados de UNICEF mediante el aprendizaje continuo e iniciativas programáticas 2 Elaboración de guías e informes metodológicos 3 Impulso de un aprendizaje institucional y global mediante la difusión de evidencias de impacto, diálogos sobre mejores prácticas e innovación 4 Fomento de la mejora de las competencias técnicas en la función de evaluación 1 El Laboratorio de Innovación de Métodos prueba y promueve nuevos métodos, herramientas y aplicaciones de datos 2 El Servicio de Asistencia a la Evaluación ofrece ayuda en el diseño de evaluaciones de impacto, la determinación del alcance de datos y la aplicación de herramientas digitales, entre otros4 A CC IO N ES A CC IO N ES A CC IO N ES Acciones y pilares estratégicos propuestos Nota: CAD-OCDE (Comité de Ayuda al Desarrollo de la Organización para la Cooperación y el Desarrollo Económicos), DPP (desarrollo de los programas para los países) y PEC (plan de evaluación con indicación de costos). 10 Mediantela aplicación práctica de estos princi- pios, UNICEF promoverá metodologías orienta- das a objetivos o preguntas en virtud de las cuales se utilice la oferta de métodos disponibles para responder a preguntas causales pertinentes basa- das en la dicotomía entre atribución y contribución. • Diseños experimentales (ensayos contro- lados aleatorizados), cuasiexperimen- tales y como experimento natural con un contrafactual fidedigno. Los ensayos controlados aleatorizados siguen constitu- yendo el enfoque de evaluación de impacto más riguroso. Posibilitan una inferencia causal respecto de los resultados observados (atri- bución a efectos de programas) mediante la creación de un contrafactual y deben selec- cionarse en situaciones donde puedan gene- rarse pruebas de un modo ético, la aleatoriza- ción sea viable y apropiada de acuerdo con el alcance del programa, y su utilización resulte clara para todas las partes interesadas. Otros métodos, como las variables instrumentales, el diseño de regresión discontinua, las dife- rencias en diferencias y la correlación, utilizan técnicas estadísticas para encontrar los grupos de individuos más similares, por lo que posibi- litan una comparación válida. La utilización de datos administrativos, sobre hogares y de otro tipo ofrece cada vez más oportunidades de crear un contrafactual válido a un costo menor y en un plazo de tiempo más corto. • Enfoques no experimentales y con base teórica. Los métodos cualitativos y las técni- cas de inferencia causal que se centran en el porqué y el cómo permiten comprender mejor el mecanismo que ha propiciado el cambio y generan las pruebas más contextualizadas sobre resultados de acciones de UNICEF. Incluyen, entre otros, el análisis de contribu- ción, el seguimiento de procesos, el protocolo de impacto cualitativo y la técnica del cambio más significativo. Pueden utilizarse en evalua- ciones sumativas y, en algunos casos, relacio- nadas con procesos, que complementen dise- ños experimentales y cuasiexperimentales. • Análisis del costo. Los análisis de costo-efec- tividad de nuevos proyectos o intervenciones piloto deben constituir una parte fundamental de cualquier evaluación de impacto. El análi- sis debe reflejar el costo real y el impacto observable del programa, a fin de ayudar a los evaluadores y ejecutores a calcular la rentabi- lidad y orientar las decisiones sobre la amplia- ción del alcance. Esta estrategia fomenta diseños anidados de métodos mixtos que combinan un enfoque estra- tégico de los resultados y los cambios a largo plazo con preguntas de evaluación relacionadas con procesos. Este tipo de diseño de evaluación contribuirá a satisfacer la demanda de aprendizaje programático a corto plazo, sin perder de vista las necesidades de pruebas estratégicas que requie- ren tiempo y un esfuerzo a largo plazo. Métodos La labor de evaluación de UNICEF encaminada a evaluar los cambios en términos de resultados e impacto se basa en los siguientes prin- cipios generales: • No existe un único método idóneo para dar respuesta a la variedad de preguntas programáticas de relevancia, y no todas pueden responderse con un único tipo de evaluación. • A la hora de elegir los métodos o enfoques analíticos, debe tenerse en cuenta la ventaja comparativa de cada método al aplicarse a una determinada pregunta. • La complementariedad de los métodos garantiza una imagen más multidimensional del impacto. Encontrar la comparación más cercana para la unidad de estudio Contrafactual 11 Fomento de la armonización de programas y la adopción de políticas Cualquier diseño de evaluación centrado en el impacto debe inscribirse en un proceso de coope- ración continua e iterativa con los asociados nacio- nales y las principales partes interesadas a fin de garantizar su credibilidad y propiciar la adopción de políticas (p. ej., decisiones sobre la ampliación del alcance). La integración temprana del pensa- miento evaluativo en la planificación de progra- mas y el diseño de intervenciones es una condi- ción crítica con vistas a garantizar la pertinencia de las evidencias de impacto para las necesida- des en materia de políticas. En esta Estrategia se fomenta una cooperación directa con las partes interesadas mediante cuatro elementos interre- lacionados del proceso de evaluación (figura 6): PLANIFICACIÓN: se realiza un ajuste de una teoría del cambio comprobable en consulta con partes interesadas clave, junto con un estudio detallado del tipo, el alcance y las características del paquete de intervenciones que se va a evaluar. DETERMINACIÓN DEL ALCANCE: a fin de conocer las necesidades en materia de prue- bas de las principales partes interesadas, puede determinarse el alcance del impacto o llevarse a cabo un estudio de su viabilidad. CORRELACIÓN: las preguntas de evaluación deben correlacionarse con un diseño y métodos apropiados, mediante un estudio de la viabilidad del impacto en estrecha consulta con las partes interesadas. DESARROLLO DE CAPACIDADES: el desarro- llo de capacidades de los asociados debe inte- grarse en el conjunto del proceso y respaldarse mediante el establecimiento de vínculos más estrechos con instituciones académicas y de investigación de ámbito nacional. Ajuste de una teoría del cambio comprobable en consulta con las principales partes interesadas Conocimiento de las necesidades en materia de pruebas de las principales partes interesadas Las preguntas de evaluación deben correlacionarse con un diseño y métodos apropiados mediante un análisis de la viabilidad del impacto en consulta con las partes interesadas Implicación de universidades y expertos nacionales en el proceso analítico y la implementación DESARROLLAR CAPACIDADESCONOCER CORRELACIONARPLANIFICAR Figura 6. Cooperación con partes interesadas en la formulación de políticas para fomentar la credibilidad y la utilización Planificación de programas Planificación de evaluaciones de impacto 12 Fomento de alianzas nacionales y mundiales La labor de evaluación de impacto en UNICEF se basará en la experiencia y prácticas globa- les vigentes de otros organismos de las Naciones Unidas (p. ej., el Programa Mundial de Alimentos)5 y de otras instituciones de desa- rrollo internacionales (p. ej., el Banco Mundial)6 con vistas a institucionalizar las evaluaciones de impacto en el marco de iniciativas más amplias encaminadas a fomentar la eficacia del desa- rrollo. La Oficina de Evaluación, los equipos de evaluación regionales y los coordinadores de evaluación en cada país ampliarán las alianzas ya existentes y formarán otras nuevas, a fin de generar una demanda de evidencias riguro- sas del impacto en el seno de la organización. También planificarán a conciencia la recogida, el procesamiento y la difusión de conclusiones y recomendaciones. Los enfoques de formación de alianzas se centrarán en reducir la brecha de conocimiento entre las instituciones académicas del Norte y el Sur y en reforzar la capacidad de los jóvenes investigadores de países de ingreso bajo y mediano. REDES DE EVALUACIÓN NACIONALES, REGIONALES Y MUNDIALES (p. ej., la Asociación Africana de Evaluación, la Sociedad Europea de Evaluación, el UNEG o el CAD-OCDE) EVALUACIÓN DE UNICEF (equipos mundiales y regionales, y coordinadores nacionales) ORGANISMOS DE LAS NACIONES UNIDAS (p. ej., el PMA, el ACNUR, la FAO o el UNFPA) INSTITUCIONES ACADÉMICAS Y DE INVESTIGACIÓN DEL SUR Y EL NORTE GRUPOS PROFESIONALES (p. ej., 3iE, la unidad de la iniciativa DIME del Banco Mundial o Better Evaluation) MACRO: Movilización, aprendizaje e intercambio MICRO: colaboración en pilares estratégicos y proyectos específicos Figura 7. Ecosistema de alianzas de evaluación de impacto en UNICEF Sur Norte Apoyo a jóvenes evaluadores mediante el intercambio Nota: DIME (Evaluación del Impacto en el Desarrollo), FAO (Organización para la Alimentación y la Agricultura),CAD-OCDE (Comité de Ayuda al Desarrollo de la Organización para la Cooperación y el Desarrollo Económicos), UNEG (Grupo de Evaluación de las Naciones Unidas), UNFPA (Fondo de Población de las Naciones Unidas), ACNUR (Oficina del Alto Comisionado de las Naciones Unidas para los Refugiados) y PMA (Programa Mundial de Alimentos). 13 Implementación y supervisión La Estrategia y Marco de Acción de la Evaluación de impacto se ha formulado de conformidad con la política de evaluación de UNICEF para 2018. La presente Estrategia y sus principios subya- centes servirán para fundamentar una revisión de la política de evaluación vigente. Disponer de medios adecuados resulta funda- mental para implementar correctamente los pilares estratégicos y sus acciones. Con este fin, será necesario reunir recursos financieros a partir de tres fuentes internas y externas prin- cipales: a) asignaciones impulsadas por países como parte de recursos ordinarios de fondos temáticos; b) un porcentaje del fondo mancomu- nado mundial de evaluación, destinado a nuevas esferas de importancia estratégica; y c) donacio- nes y financiación gubernamental. La diversificación de las fuentes de financiación y su complementariedad son críticas para redu- cir el riesgo de una cobertura limitada de las evidencias de impacto que venga determinada por regiones concretas, el tamaño de los progra- mas para los países o preferencias detectadas entre los donantes. El Director de la Oficina de Evaluación se encar- gará de la supervisión general de la implementa- ción de la Estrategia e informará con carácter anual a los miembros de la Junta Directiva sobre los avances en este sentido. En el seno de la Oficina, el recién formado departamento de Métodos, Impacto y Aprendizaje, dirigido por un especialista superior en evaluación, supervisará la implemen- tación mundial de la Estrategia y ofrecerá asisten- cia técnica a las oficinas regionales y en los países. Conclusiones El éxito de la presente Estrategia es un escalón esencial con vistas a fomentar la rendición de cuentas de UNICEF con respecto a los resultados y conocer la efectividad de sus intervenciones estratégicas a gran escala y más innovadoras en favor de la infancia. UNICEF obtendrá un rendimiento elevado de las inversiones en evidencias rigurosas del impacto, en términos institucionales y sociales. Cabe la posibilidad de que las evidencias de impacto no solo influyan en decisiones políticas sobre la ampliación del alcance de las intervenciones más efectivas destinadas a la infancia, sino que también permitan ahorrar millones de dólares, mediante la modificación del rumbo trazado o la desestimación de enfoques que no funcionen o pudie- ren hacerlo mejor. A largo plazo, las evidencias de impacto contribuirán a implantar en la organización una cultura centrada en los resultados, no en las aspiraciones. 1 En la evaluación de impacto no existe una definición de “riguroso” que se aplique universalmente. A los efectos del presente documento, se entiende como la aplicación de una combinación de métodos que aspiran a aislar los efectos del programa de otros factores y de un posible sesgo de selección, con el objetivo en última instancia de obtener validez interna y conclusiones con un elevado grado de credibilidad. 2 En la versión íntegra del documento de la Estrategia se puede consultar una explicación más exhaustiva de ambos términos. 3 En virtud del nuevo Plan Estratégico de UNICEF para 2022-2025. 4 Los equipos de evaluación regionales pueden moderar discusiones sobre cómo evaluar los resultados y el impacto durante las reuniones de redes o revisiones de progra- mas regionales anuales. 5 Estrategia de Evaluación del Impacto del PMA (2019-2026) | Programa Mundial de Alimentos. 6 Implementing Impact Evaluations at the World Bank: Guidance Note. Fomento de alianzas nacionales y mundiales https://www.wfp.org/publications/wfp-impact-evaluation-strategy-2019-2026#%3A~%3Atext%3DThe%20Impact%20Evaluation%20Strategy%2C%20which%20sits%20under%20the%2CWorld%20Bank%2C%20FAO%2C%20IFAD%20and%20UNICEF%2C%20among%20others https://web.worldbank.org/archive/website01542/WEB/IMAGES/IE_GUIDA.PDF 14 Ejemplos de evaluaciones de UNICEF Evaluación de impacto basada en los criterios de impacto y eficacia del CAD-OCDE Evaluación de impacto de la Red de movilizadores comunitarios voluntarios para la erradicación de la poliomielitis en Nigeria (2021) Estudio del impacto aplicando un enfoque con base teórica y un diseño cuasiexperimental Evaluación sumativa del programa “Medidas Comunitarias Urgentes para Reducir el Retraso del Crecimiento” en Zimbabwe (2021) Evaluación experimental del impacto de un proyecto a gran escala Evaluación de la eficacia y el impacto de una intervención en materia de agua, saneamiento e higiene (WASH) en las escuelas de Laos, 2014-2017: ensayo controlado aleatorizado Grupo de objetivos 1 Todos los niños y niñas sobreviven y prosperan Grupo de objetivos 1 Todos los niños y niñas sobreviven y prosperan El programa de la red de movilizadores comunitarios voluntarios se puso en marcha en 2012, en 12 de los esta- dos con alto riesgo de poliomielitis del norte de Nigeria. La evaluación de impacto se centró principalmente en las variables relacionadas con la inmunización, concre- tamente en la vacunación sistemática contra la polio- mielitis y los obstáculos que dificultan la inmunización. Asimismo, se examinaron los efectos imprevistos del programa como indicadores secundarios. La evaluación de impacto se basó en los criterios de impacto y eficacia del CAD-OCDE y permitió obtener una visión general de la eficacia en función de los costos del programa de movi- lizadores comunitarios voluntarios, conforme al criterio de eficiencia. Los indicadores de impacto y resultados se estudiaron aplicando la técnica de emparejamiento por puntuación de propensión. Dicha técnica permite evitar el sesgo de selección que implica la asignación no aleatoria a un programa utilizando técnicas estadísticas para construir un grupo de comparación artificial. Además de emplear el emparejamiento por puntuación de propensión con datos primarios, la evaluación utilizó datos históricos secunda- rios para calcular el impacto del programa en la reducción de los casos de poliovirus salvaje. En este caso, se siguió un enfoque de estudio de sucesos por grupos de exper- tos. Además de centrarse principalmente en los impactos y resultados, la evaluación analizó la utilidad y la sostenibi- lidad del programa utilizando métodos cualitativos. Esta evaluación sumativa en Zimbabwe se diseñó para generar pruebas sobre los resultados del programa en cuanto a la mejora de la seguridad alimentaria y nutricio- nal, así como el aumento de la resiliencia de los hoga- res frente a crisis recurrentes. Entre enero de 2017 y septiembre de 2020 se llevó a cabo un estudio de todas las actividades del programa (a nivel nacional, subna- cional, distrital y comunitario). El diseño metodológico adoptó un enfoque híbrido, combinando el análisis de la contribución como enfoque con base teórica, el diseño cuasiexperimental (comparación previa y posterior) y un enfoque participativo consistente en consultas amplias con las partes interesadas del programa. La adopción de dicho enfoque tenía por objeto superar cualquier posi- ble deficiencia metodológica y reunir información abun- dante y complementaria a efectos de validación cruzada y triangulación. En la República Democrática Popular Lao, UNICEF cola- boró en el “Programa de Educación Básica en materia de Agua, Saneamiento e Higiene de Laos”, con el objetivo de aumentar la asistencia escolar mediante la mejora de los servicios de agua y saneamiento. Entre 2014 y 2017 se llevó a cabo un ensayo controlado aleatorizado del programa, en escuelas seleccionadas al azar. El ensayo concluyó que la intervención había generado un impacto mínimo en la prevalencia de la diarrea y que no había logrado su objetivoprincipal de aumentar la asistencia, ni siquiera en las escuelas con mayor grado de adhesión al programa. Grupo de objetivos 4 Todos los niños y niñas viven en un ambiente seguro y limpio https://www.unicef.org/evaluation/reports#/detail/8952/independant-evaluation-of-impact-of-volunteer-community-mobilizers-17000-vcm-network-on-polio-eradication-and-other-community-based-programmes https://gdc.unicef.org/resource/summative-evaluation-accelerated-community-actions-reducing-stunting-zimbabwe https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6657003/pdf/jogh-09-020402.pdf https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6657003/pdf/jogh-09-020402.pdf 15 Evaluación experimental del impacto con métodos mixtos Evaluación de impacto del Programa de Preparación Escolar Urgente en Mozambique (2019) Ensayo controlado aleatorizado de un programa con múltiples componentes Evaluación final del programa IKEA - II - Mejorar la vida de los adolescentes en el Pakistán Evaluación de impacto en un contexto humanitario Evaluación de impacto del programa de Transferencia en Efectivo de Emergencia y Recuperación Fiavota, en Madagascar (2018): diseño cuasiexperimental para evaluar los efectos conseguidos en las familias con niños y niñas que se habían visto afectadas por la sequía. UNICEF Mozambique y Save the Children, en colabo- ración con el Ministerio de Educación y Desarrollo de Mozambique, implementaron un programa piloto de preparación escolar urgente entre 2016 y 2019. La evaluación de impacto se basó en un diseño experimen- tal (ensayo controlado aleatorizado) de métodos mixtos, con el objetivo de determinar el impacto logrado por el programa en cuanto a la preparación escolar de los niños y las niñas, su matriculación dentro del plazo adecuado y su rendimiento académico durante el primer curso de primaria, estableciendo una comparación con niños y niñas con características similares en comunidades sin educación preescolar. Se empleó un análisis del aprendi- zaje temprano para evaluar a los niños en seis esferas de resultados. La evaluación también midió la costoeficacia basándose en los costos comunitarios, así como en los costos por cada niño o niña, derivados de la implementa- ción del programa piloto de preparación escolar urgente. Asimismo, se aplicaron métodos cualitativos para determi- nar qué aspectos del contexto comunitario y del proceso de implementación parecían haber facilitado o dificultado el éxito de dicho programa piloto. El programa de UNICEF “Mejorar la Vida de los Adolescentes en el Pakistán” (IALP, por sus siglas en inglés), que se implementó entre 2015 y 2019, constituye un claro ejemplo de programa exitoso en materia de protec- ción de la infancia, compuesto por más de un componente y evaluado de forma sólida. Los evaluadores, mediante un ensayo controlado aleatorizado que abarcó 446 comunida- des beneficiarias y 207 comunidades de control, pudieron evaluar el impacto de los dos componentes del programa: una intervención en materia de protección de la infancia, destinada a aumentar los conocimientos y la educación, y la creación de centros de educación básica no formal. Los resultados demostraron que el programa “Mejorar la Vida de los Adolescentes en Pakistán” había contribuido a reducir el matrimonio infantil y que los centros de educa- ción básica no formal habían aumentado la asistencia esco- lar (especialmente en el caso de las niñas), así como las habilidades de lectura. Las campañas de concienciación dirigidas a hombres y niños también mejoraron conside- rablemente las actitudes respecto al matrimonio infantil. Debido al fenómeno meteorológico “El Niño”, que provocó una grave sequía en el sur de Madagascar, el Gobierno malgache declaró el estado de emergencia en septiembre de 2016. Para hacer frente a la grave inseguridad alimentaria de los hogares afectados por la sequía, con niños y niñas menores de 5 años, en el sur de Madagascar, UNICEF Madagascar se asoció con el Banco Mundial y el Ministerio de Población, Protección Social y Apoyo a la Mujer, con el fin de llevar a cabo una transferencia en efectivo de emergencia (Fiavota) en los cinco distritos del sur de la provincia de Toliara. La evalua- ción de impacto tenía por objeto ayudar a los responsa- bles de la formulación de políticas a determinar cuál era la mejor manera de atender las acuciantes necesidades de las poblaciones afectadas, durante la fase de respuesta de emergencia de Fiavota, entre diciembre de 2016 y septiembre de 2017. En la evaluación se utilizaron técni- cas de diseño cuasiexperimentales (emparejamiento por puntuación de propensión) para crear grupos de trata- miento y de comparación. A través de ella, se pudo cons- tatar que el programa había repercutido de forma posi- tiva y constante en la seguridad alimentaria y que había impulsado el consumo. Sin embargo, no se observaron impactos positivos en cuanto a las inversiones agrícolas o el estado de desnutrición de los niños y las niñas (medi- ciones antropométricas). El componente cualitativo de la evaluación reveló que, en general, el programa se había ejecutado según lo planificado. Grupo de objetivos 2 Todos los niños y niñas aprenden Grupo de objetivos 3 Todos los niños y niñas están protegidos frente a la violencia y la explotación Grupo de objetivos 5 Todos los niños y niñas disfrutan de oportuni- dades justas https://www.unicef-irc.org/publications/pdf/5.Mozambique.pdf https://www.unicef.org/evaluation/reports#/detail/16428/end-of-programme-evaluation-ikea-ii-improving-adolescents-lives-in-pakistan https://www.unicef.org/madagascar/media/1701/file/FIAVOTA%20Evaluation.pdf https://www.unicef.org/madagascar/media/1701/file/FIAVOTA%20Evaluation.pdf 16 Para obtener más información, escriba a la siguiente dirección: UNICEF Oficina de Evaluación 3 United Nations Plaza Nueva York, NY 10017 Estados Unidos de América www.unicef.org/evaluation UNICEF-Evaluation evalhelp@unicef.org © Fondo de las Naciones Unidas para la Infancia (UNICEF) marzo de 2023 http://www.unicef.org/evaluation https://www.linkedin.com/showcase/unicef-evaluation/ mailto:evalhelp%40unicef.org?subject= http://www.unicef.org/evaluation https://www.linkedin.com/showcase/unicef-evaluation/ mailto:evalhelp%40unicef.org?subject=
Compartir