Logo Studenta

Folleto de resumen

¡Este material tiene más páginas!

Vista previa del material en texto

1
Oficina de Evaluación
EVALUACIÓN DE IMPACTO EN UNICEF 
Estrategia y Marco de Acción 2022-2025 
Folleto de resumen
© Fondo de las Naciones Unidas para la Infancia (UNICEF), marzo de 2023
La reproducción total o parcial de esta publicación requiere autorización previa. 
Las organizaciones educativas o sin fines de lucro obtendrán pleno permiso.
Contacto:
UNICEF
Oficina de Evaluación
3 United Nations Plaza, Nueva York, NY 10017, Estados Unidos de América
Correo electrónico: evalhelp@unicef.org
Sitio web: www.unicef.org/evaluation/
El mapamundi incluido en esta publicación ofrece una representación estilizada, no a escala. 
No refleja la posición de UNICEF sobre la condición jurídica de ningún país o territorio, ni sobre 
la delimitación de fronteras. La línea de puntos representa de manera aproximada la línea de 
control acordada entre la India y el Pakistán. Las partes todavía no han llegado a un acuerdo 
sobre la situación definitiva de Jammu y Cachemira. La frontera final entre la República del 
Sudán y la República de Sudán del Sur está aún por determinar. La situación final de la zona 
de Abyei está aún por determinar.
Referencia sugerida: Fondo de las Naciones Unidas para la Infancia (UNICEF). Evaluación de 
impacto en UNICEF: Estrategia y Marco de Acción 2022-2025. UNICEF, Nueva York, 2023.
Foto de la cubierta: © UNICEF/UN0535836/Dejongh
Diseño y maquetación: Elena Panetti, con la aportación de Stacie Baek. 
Edición: Eve Leckey.
3
¿Por qué evaluar el impacto?
La vida de los niños y las niñas no cambia de 
manera significativa de la noche a la mañana. En 
un contexto en el que queda menos de un decenio 
para presentar informes sobre los avances hacia 
la consecución de las metas de la Agenda 2030, 
UNICEF destina recursos y esfuerzos considera-
bles a acelerar la obtención de resultados para la 
infancia (figura 1). Es vital y una responsabilidad 
colectiva saber si dichos esfuerzos repercuten 
positivamente en sus vidas. La evaluación desem-
peña un papel fundamental con vistas a obtener 
comentarios sobre los resultados, mediante un 
análisis imparcial y fidedigno de lo que funciona y 
no funciona, y por qué. Mediante esta Estrategia 
y Marco de Acción, la función de evaluación de 
UNICEF responde a las peticiones de la Junta 
Ejecutiva y de partes interesadas internas para 
articular una hoja de ruta que desemboque en un 
esfuerzo institucional más estratégico y cohe-
rente, a fin de demostrar la efectividad de los 
programas de UNICEF impulsados por los gobier-
nos. Su justificación es la necesidad de:
El cumplimiento de una agenda 2022-2025 ambi-
ciosa y orientada a la obtención de resultados, 
mediante evidencias rigurosas1 derivadas de la 
evaluación de impacto y los resultados, permi-
tirá a UNICEF: 
 • asignar recursos limitados con eficacia en el 
plano descentralizado, allí donde tengan un 
mayor impacto en la infancia, y movilizar recur-
sos nuevos mediante la demostración del valor 
añadido de las iniciativas de UNICEF con vistas a 
obtener avances en la consecución de los ODS;
 • fomentar el aprendizaje institucional y mejo-
rar el proceso de ejecución de programas 
mediante el fortalecimiento de la lógica subya-
cente de los programas y la verificación de sus 
hipótesis; y
 • mantener su pertinencia en el proceso de 
formulación de políticas nacionales, reforzar 
las actividades de promoción donde resulte 
importante hacerlo, y realizar una evaluación 
crítica de su contribución a los resultados que 
se exponen en el Plan Estratégico 2022-2025.
Mayor rendición de cuentas y transparencia: UNICEF 
tiene la responsabilidad de maximizar el bienestar social de la 
infancia a partir de los fondos públicos que recibe. En el trans-
curso del Plan Estratégico para 2018-2021, UNICEF invirtió 
algo más de 23.000 millones de dólares en intervenciones 
y programas enmarcados en cinco áreas temáticas. Durante 
ese mismo período solo se llevaron a cabo 36 evaluaciones de 
impacto, por lo que la cantidad de evidencias rigurosas dispo-
nibles hasta la fecha es muy inferior al número de iniciativas de 
desarrollo de UNICEF, y no permite al público general valorar 
de forma informada la eficacia relativa de los modelos elegidos 
con vistas a ofrecer beneficios a millones de niños y niñas. 
Mayor eficacia del desarrollo y mejor aprendizaje insti-
tucional, en todos los ámbitos: los programas de UNICEF 
cada vez prestan un mayor apoyo a los gobiernos con vistas 
a solucionar problemas sociales polifacéticos y trabajar en 
entornos complejos. Por consiguiente, los enfoques utiliza-
dos en las intervenciones son cada vez más innovadores. Las 
soluciones sociales nunca son perfectas desde el principio y, 
con frecuencia, pueden ser más perjudiciales que beneficio-
sas si se implementan sin probarse. Mediante una identifica-
ción temprana de lo que funciona, es posible asignar recur-
sos a las estrategias que puedan tener un mayor impacto y 
minimizar resultados negativos no deseados.
4
Destinatarios y ámbito
La Estrategia sirve de referencia práctica para las 
oficinas regionales y en los países de UNICEF, 
así como para su personal de evaluación, segui-
miento y programas, con vistas a respaldar sus 
iniciativas encaminadas a fundamentar los planes 
nacionales y las políticas centradas en la infancia 
con evidencias sólidas derivadas de evaluacio-
nes. En la Estrategia se trazan líneas estratégicas 
para un área técnica de la labor de evaluación de 
UNICEF, que abarca las definiciones operativas, 
los problemas detectados y tres pilares estraté-
gicos de acciones para mitigar dichos problemas.
También se estudian los enfoques de UNICEF 
con respecto a aspectos de la ejecución relacio-
nados con la metodología y los procesos, y se 
establecen requisitos en materia de alianzas y 
recursos.
23.000
millones de 
dólares
Gasto en 
programas
Evaluaciones 
de impacto 
realizadas
36
Argentina
Guatemala Senegal
Togo
Nigeria
Etiopía
KenyaBurundi
Tanzanía
Malí
Líbano
Jordania Pakistán
India
Nepal
Bangladesh Laos
Tailandia
Camboya
Georgia
El Salvador
Zambia
Zimbabwe
Malawi
Mozambique
Madagascar
LesothoSudáfrica
Figura 1. Cobertura de países mediante las evaluaciones de impacto en UNICEF, 2017-2021
N.º de evaluaciones 
de impacto 
(36 en total)
 0
 1
 2
 3
2017-2021
5
Definición de impacto en el seno de UNICEF y modalidades de evaluación
En las evaluaciones de UNICEF donde se 
examine el impacto se tendrán que analizar los 
resultados a través de las consecuencias inter-
medias y a corto plazo, definidas como vías de 
causalidad hacia impactos sostenibles a largo 
plazo. Este es un aspecto fundamental, ya que 
las “vías de causalidad” pueden traducirse en 
“vías de políticas” mediante medidas de política 
encaminadas al cambio transformador deseado. 
Este último puede implicar un cambio sistémico, 
además de resultados tangibles y medibles en 
términos de bienestar, que pueden evaluarse 
mediante un contrafactual riguroso en un 
contexto específico.
La definición de UNICEF subraya la impor-
tancia de un marco científico basado en una 
evaluación de impacto rigurosa, y reconoce 
el valor y las perspectivas únicas que ofrecen 
los enfoques de evaluación cualitativos y no 
experimentales con vistas a examinar las rela-
ciones causales.
Dado el amplio mandato programático de 
UNICEF, en la Estrategia se describe “la evalua-
ción de impacto” como un ámbito general de 
la labor de evaluación de los resultados y el 
impacto, donde se emplean dos líneas diferen-
ciadas de estudio del impacto (figura 2) que refle-
jan el propósito de evaluación (no de método), 
con vistas a examinar la atribución o contribu-
ción causal de un determinado programa espe-
cífico o sus componentes al impacto generado2.
El evaluador tiene la tarea de definir el propósito 
de evaluación en consonancia con las necesida-
des de pruebas, así como la viabilidad y conve-
niencia de establecer la “atribución causal” 
(o “contribución causal”) a los resultados de 
los programas.Esta labor suele basarse en la 
evaluación de las características del programa, 
como su naturaleza, cobertura, alcance, crono-
grama, etc. De este modo, se eligen la modali-
dad de evaluación y los enfoques metodológicos 
más apropiados y viables, incluidos aquellos que 
contribuyen a un contrafactual riguroso en entor-
nos programáticos complejos.
vías de 
causalidad
Medidas 
de política
vías de 
políticas
A los efectos de la Estrategia, “impacto” se define como los 
cambios positivos y negativos, directos e indirectos, y prima-
rios y secundarios, que genera una intervención, a corto, medio 
y largo plazo, en las vidas de los niños, las niñas y sus familias.
La evaluación de impacto aspira a establecer la atribución 
de manera empírica, mediante la cuantificación de los víncu-
los causales entre la intervención (proyectos, programas, 
políticas, redes o iniciativas de desarrollo de capacidades) 
y resultados de interés, normalmente en lo que respecta a 
los destinatarios objetivo. Para ello, se genera una hipótesis 
contrafactual mediante la que podemos saber lo que sucede-
ría en ausencia de la intervención o de la exposición a esta. 
De este modo, es posible hacer una valoración crítica de si la 
intervención propicia cambios y la medida en que lo hace. La 
evaluación puede utilizarse con fines formativos y sumativos, y 
satisfacer por igual necesidades de aprendizaje y rendición de 
cuentas. Lo idóneo es implementar estas evaluaciones junto 
con enfoques cualitativos adecuados que respondan a pregun-
tas sobre el porqué y el cómo, a fin de profundizar en nuestro 
conocimiento e interpretación de los resultados observados. 
6
Cambio cuantificable, con efectos 
que pueden ser aislados
Acción multipartita más amplia, con efectos 
difíciles de medir o aislar
EVALUACIÓN DE IMPACTO EVALUACIONES SUMATIVAS/
EVALUACIONES DE IMPACTO EX POST
Contribución causal mediante una
“reconstrucción” con base teórica de las vías causales
Cuantitativa 
(experimental/
cuasi experimental, 
experimento natural)
Cualitativa 
Cualitativa 
(con base teórica, 
no experimental)
Cuantitativa 
¿Cuál es la naturaleza 
de la intervención y 
los resultados?
¿Cuál es la 
naturaleza operativa 
del programa?
¿Qué clase de preguntas 
de evaluación 
formulamos?
¿Cuál es la finalidad y 
el uso previsto de las 
evidencias de impacto?
Atribución causal posible
mediante un contrafactual
Figura 2. Selección de enfoques de evaluación para medir los resultados y el impacto de los programas
PARÁMETROS PROGRAMÁTICOS
7
Problemas detectados hasta la fecha
Los diagnósticos de evidencias de impacto 
encargados o llevados a cabo por UNICEF entre 
2017 y 2021 revelaron una demanda institucio-
nal limitada de evaluaciones de los resultados 
y el impacto, y una falta de planificación estra-
tégica y temática a escala para dichas pruebas, 
con el consiguiente desequilibrio en la cober-
tura (figura 3). En la base de datos Evidence 
Information Systems Integration solo se regis-
traron 36 evaluaciones de impacto rigurosas 
(esto es, un 6% del total de 627 productos de 
evaluación) durante el período correspondiente 
(2017-2021). Podemos observar una cobertura 
temática y geográfica sumamente despropor-
cionada, con el sector de protección social y la 
región de África Oriental y Meridional como prin-
cipales beneficiados. Las brechas de cobertura 
parecen especialmente marcadas en los grupos 
de objetivos 1 (nutrición/salud) y 3 (protección 
de la infancia)3.
31 1
1
1
1
1
1
21
1
1
1
1
1
1
1
1
1
7Protección social
Educación/aprendizaje
Salud
WASH
Nutrición
Protección de la infancia
Capacidad de adaptación comunitaria
Programación en favor de los adolescentes
Desarrollo en la primera infancia
EAPR ECAR ESAR SEDE LACR MENA SAR WCAR
4
3
Figura 3. Número absoluto de evaluaciones de impacto en UNICEF en 2017-2021, por esferas temáticas y regiones
Nota: EAPR (región de Asia Oriental y el Pacífico), ECAR (región de Europa y Asia Central), ESAR (región de África Oriental y Meridional), LACR (región de América Latina y el 
Caribe), MENA (región de Oriente Medio y Norte de África), SAR (región de Asia Meridional), WASH (agua, saneamiento e higiene) y WCAR (región de África Occidental y Central).
8
Figura 4. Vinculación de los pilares estratégicos a los problemas más comunes en relación con la planificación, gestión y 
utilización de evaluaciones de impacto
Los resultados de una encuesta en línea realizada 
entre el personal también pusieron de relieve 
cuellos de botella persistentes en la puesta en 
marcha, planificación, implementación y adop-
ción de pruebas de evaluación centradas en los 
resultados y el impacto de las diferentes fases 
del ciclo de programas (figura 4). El carácter 
interrelacionado de estos problemas sugiere la 
necesidad de un enfoque más sistémico y estra-
tégico con vistas a evaluar las intervenciones de 
UNICEF en términos de eficacia del desarrollo, lo 
cual permite integrar una estructura de incentivos 
y requisitos en un marco temporal de desarrollo 
a largo plazo.
Pocas evaluaciones realizadas que se centren en el impacto 
y los resultados
Disparidad temática y geográfica en la cobertura
Planificación de programas a largo plazo para evaluar el impacto
Limitaciones de los datos
Alto costo y recursos
Uso limitado de métodos sólidos
Escasa concienciación y capacidad del personal y los asociados
Teoría del cambio deficiente o inexistente
Desajuste entre la planificación de la evaluación de impacto 
y el ciclo de programas
PILAR ESTRATÉGICO I
AUMENTAR 
LA PUESTA 
EN MARCHA Y 
LA COBERTURA 
 
PILAR ESTRATÉGICO II
DIVERSIFICAR 
LOS MÉTODOS 
E INNOVAR
PILAR ESTRATÉGICO III
MEJORAR EL 
APRENDIZAJE 
Y LA SINERGIA 
PROGRAMÁTICA
PR
O
B
LE
M
A
S
PR
O
B
LE
M
A
S
PR
O
B
LE
M
A
S
9
Los problemas y cuellos de botella detecta-
dos en la evaluación de impacto han desembo-
cado en la elección de pilares prioritarios para 
esta Estrategia (figura 5). Estos se han formu-
lado teniendo presente la viabilidad de la acción 
dentro del período que abarca el Plan Estratégico 
de UNICEF para 2022-2025, y la armonización 
con la visión para la función de evaluación con 
relación a dicho período. Esta última subraya la 
necesidad de un mayor rigor y un enfoque estra-
tégico en toda la labor de evaluación de UNICEF.
 
Figura 5. Pilares estratégicos y acciones clave
AUMENTAR 
LA PUESTA EN 
MARCHA Y LA 
COBERTURA 
DIVERSIFICAR 
LOS MÉTODOS 
E INNOVAR
MEJORAR EL 
APRENDIZAJE 
Y LA SINERGIA 
PROGRAMÁTICA
1 Lanzamiento del Fondo 
Catalizador del Impacto
2 Asistencia técnica en el uso del 
criterio de “impacto” del CAD-OCDE 
en evaluaciones sumativas
3 Integración de un requisito de 
evaluación de impacto para las 
propuestas de los principales 
donantes
4 Fomento de la planificación de 
evaluaciones de impacto con 
relación a intervenciones nuevas 
y estratégicas en el proceso de 
DPP (PEC)
1 Desarrollo de las capacidades del 
personal y los asociados de UNICEF 
mediante el aprendizaje continuo e 
iniciativas programáticas
2 Elaboración de guías e informes 
metodológicos
3 Impulso de un aprendizaje 
institucional y global mediante la 
difusión de evidencias de impacto, 
diálogos sobre mejores prácticas 
e innovación 
4 Fomento de la mejora de las 
competencias técnicas en la 
función de evaluación
1 El Laboratorio de Innovación de 
Métodos prueba y promueve 
nuevos métodos, herramientas y 
aplicaciones de datos
2 El Servicio de Asistencia a la 
Evaluación ofrece ayuda en 
el diseño de evaluaciones de 
impacto, la determinación del 
alcance de datos y la aplicación 
de herramientas digitales, entre 
otros4 
A
CC
IO
N
ES
A
CC
IO
N
ES
A
CC
IO
N
ES
Acciones y pilares estratégicos propuestos
Nota: CAD-OCDE (Comité de Ayuda al Desarrollo de la Organización para la Cooperación y el Desarrollo Económicos), DPP (desarrollo de los programas para los países) y PEC 
(plan de evaluación con indicación de costos).
10
Mediantela aplicación práctica de estos princi-
pios, UNICEF promoverá metodologías orienta-
das a objetivos o preguntas en virtud de las cuales 
se utilice la oferta de métodos disponibles para 
responder a preguntas causales pertinentes basa-
das en la dicotomía entre atribución y contribución.
 • Diseños experimentales (ensayos contro-
lados aleatorizados), cuasiexperimen-
tales y como experimento natural con 
un contrafactual fidedigno. Los ensayos 
controlados aleatorizados siguen constitu-
yendo el enfoque de evaluación de impacto 
más riguroso. Posibilitan una inferencia causal 
respecto de los resultados observados (atri-
bución a efectos de programas) mediante la 
creación de un contrafactual y deben selec-
cionarse en situaciones donde puedan gene-
rarse pruebas de un modo ético, la aleatoriza-
ción sea viable y apropiada de acuerdo con el 
alcance del programa, y su utilización resulte 
clara para todas las partes interesadas. Otros 
métodos, como las variables instrumentales, 
el diseño de regresión discontinua, las dife-
rencias en diferencias y la correlación, utilizan 
técnicas estadísticas para encontrar los grupos 
de individuos más similares, por lo que posibi-
litan una comparación válida. La utilización de 
datos administrativos, sobre hogares y de otro 
tipo ofrece cada vez más oportunidades de 
crear un contrafactual válido a un costo menor 
y en un plazo de tiempo más corto.
 • Enfoques no experimentales y con base 
teórica. Los métodos cualitativos y las técni-
cas de inferencia causal que se centran en el 
porqué y el cómo permiten comprender mejor 
el mecanismo que ha propiciado el cambio 
y generan las pruebas más contextualizadas 
sobre resultados de acciones de UNICEF. 
Incluyen, entre otros, el análisis de contribu-
ción, el seguimiento de procesos, el protocolo 
de impacto cualitativo y la técnica del cambio 
más significativo. Pueden utilizarse en evalua-
ciones sumativas y, en algunos casos, relacio-
nadas con procesos, que complementen dise-
ños experimentales y cuasiexperimentales.
 • Análisis del costo. Los análisis de costo-efec-
tividad de nuevos proyectos o intervenciones 
piloto deben constituir una parte fundamental 
de cualquier evaluación de impacto. El análi-
sis debe reflejar el costo real y el impacto 
observable del programa, a fin de ayudar a los 
evaluadores y ejecutores a calcular la rentabi-
lidad y orientar las decisiones sobre la amplia-
ción del alcance.
Esta estrategia fomenta diseños anidados de 
métodos mixtos que combinan un enfoque estra-
tégico de los resultados y los cambios a largo 
plazo con preguntas de evaluación relacionadas 
con procesos. Este tipo de diseño de evaluación 
contribuirá a satisfacer la demanda de aprendizaje 
programático a corto plazo, sin perder de vista las 
necesidades de pruebas estratégicas que requie-
ren tiempo y un esfuerzo a largo plazo.
Métodos
La labor de evaluación de UNICEF encaminada a evaluar los cambios 
en términos de resultados e impacto se basa en los siguientes prin-
cipios generales:
 • No existe un único método idóneo para dar respuesta a la 
variedad de preguntas programáticas de relevancia, y no todas 
pueden responderse con un único tipo de evaluación.
 • A la hora de elegir los métodos o enfoques analíticos, debe 
tenerse en cuenta la ventaja comparativa de cada método al 
aplicarse a una determinada pregunta.
 • La complementariedad de los métodos garantiza una imagen 
más multidimensional del impacto.
Encontrar la 
comparación más 
cercana para la 
unidad de estudio
Contrafactual
11
Fomento de la armonización de programas y la adopción de políticas
Cualquier diseño de evaluación centrado en el 
impacto debe inscribirse en un proceso de coope-
ración continua e iterativa con los asociados nacio-
nales y las principales partes interesadas a fin de 
garantizar su credibilidad y propiciar la adopción 
de políticas (p. ej., decisiones sobre la ampliación 
del alcance). La integración temprana del pensa-
miento evaluativo en la planificación de progra-
mas y el diseño de intervenciones es una condi-
ción crítica con vistas a garantizar la pertinencia 
de las evidencias de impacto para las necesida-
des en materia de políticas. En esta Estrategia se 
fomenta una cooperación directa con las partes 
interesadas mediante cuatro elementos interre-
lacionados del proceso de evaluación (figura 6): 
PLANIFICACIÓN: se realiza un ajuste de una 
teoría del cambio comprobable en consulta con 
partes interesadas clave, junto con un estudio 
detallado del tipo, el alcance y las características 
del paquete de intervenciones que se va a evaluar. 
DETERMINACIÓN DEL ALCANCE: a fin de 
conocer las necesidades en materia de prue-
bas de las principales partes interesadas, puede 
determinarse el alcance del impacto o llevarse a 
cabo un estudio de su viabilidad. 
CORRELACIÓN: las preguntas de evaluación 
deben correlacionarse con un diseño y métodos 
apropiados, mediante un estudio de la viabilidad 
del impacto en estrecha consulta con las partes 
interesadas. 
DESARROLLO DE CAPACIDADES: el desarro-
llo de capacidades de los asociados debe inte-
grarse en el conjunto del proceso y respaldarse 
mediante el establecimiento de vínculos más 
estrechos con instituciones académicas y de 
investigación de ámbito nacional.
Ajuste de una teoría del cambio 
comprobable en consulta con 
las principales partes interesadas
Conocimiento de 
las necesidades 
en materia de pruebas 
de las principales 
partes interesadas
Las preguntas de evaluación deben 
correlacionarse con un diseño y métodos 
apropiados mediante un análisis 
de la viabilidad del impacto en consulta 
con las partes interesadas
Implicación de universidades 
y expertos nacionales 
en el proceso analítico 
y la implementación
DESARROLLAR CAPACIDADESCONOCER CORRELACIONARPLANIFICAR
Figura 6. Cooperación con partes interesadas en la formulación de políticas para fomentar la credibilidad y la utilización
Planificación 
de programas
Planificación 
de evaluaciones 
de impacto
12
Fomento de alianzas nacionales y mundiales
La labor de evaluación de impacto en UNICEF 
se basará en la experiencia y prácticas globa-
les vigentes de otros organismos de las 
Naciones Unidas (p. ej., el Programa Mundial 
de Alimentos)5 y de otras instituciones de desa-
rrollo internacionales (p. ej., el Banco Mundial)6 
con vistas a institucionalizar las evaluaciones de 
impacto en el marco de iniciativas más amplias 
encaminadas a fomentar la eficacia del desa-
rrollo. La Oficina de Evaluación, los equipos de 
evaluación regionales y los coordinadores de 
evaluación en cada país ampliarán las alianzas 
ya existentes y formarán otras nuevas, a fin 
de generar una demanda de evidencias riguro-
sas del impacto en el seno de la organización. 
También planificarán a conciencia la recogida, 
el procesamiento y la difusión de conclusiones 
y recomendaciones. Los enfoques de formación 
de alianzas se centrarán en reducir la brecha de 
conocimiento entre las instituciones académicas 
del Norte y el Sur y en reforzar la capacidad de 
los jóvenes investigadores de países de ingreso 
bajo y mediano.
REDES DE EVALUACIÓN 
NACIONALES, 
REGIONALES Y MUNDIALES
(p. ej., la Asociación Africana 
de Evaluación, la Sociedad 
Europea de Evaluación, el UNEG 
o el CAD-OCDE)
EVALUACIÓN DE UNICEF
(equipos mundiales 
y regionales, 
y coordinadores 
nacionales) ORGANISMOS DE 
LAS NACIONES UNIDAS 
(p. ej., el PMA, el ACNUR, 
la FAO o el UNFPA)
INSTITUCIONES 
ACADÉMICAS 
Y DE INVESTIGACIÓN 
DEL SUR Y EL NORTE
GRUPOS 
PROFESIONALES
(p. ej., 3iE, la unidad 
de la iniciativa DIME 
del Banco Mundial
o Better Evaluation)
MACRO: Movilización, aprendizaje e intercambio
MICRO: colaboración en pilares estratégicos 
y proyectos específicos
Figura 7. Ecosistema de alianzas de evaluación de impacto en UNICEF
Sur
Norte
Apoyo a jóvenes 
evaluadores 
mediante el
intercambio
Nota: DIME (Evaluación del Impacto en el Desarrollo), FAO (Organización para la Alimentación y la Agricultura),CAD-OCDE (Comité de Ayuda al Desarrollo de la Organización 
para la Cooperación y el Desarrollo Económicos), UNEG (Grupo de Evaluación de las Naciones Unidas), UNFPA (Fondo de Población de las Naciones Unidas), ACNUR (Oficina 
del Alto Comisionado de las Naciones Unidas para los Refugiados) y PMA (Programa Mundial de Alimentos).
13
Implementación y supervisión
La Estrategia y Marco de Acción de la Evaluación 
de impacto se ha formulado de conformidad con 
la política de evaluación de UNICEF para 2018. 
La presente Estrategia y sus principios subya-
centes servirán para fundamentar una revisión 
de la política de evaluación vigente.
Disponer de medios adecuados resulta funda-
mental para implementar correctamente los 
pilares estratégicos y sus acciones. Con este 
fin, será necesario reunir recursos financieros 
a partir de tres fuentes internas y externas prin-
cipales: a) asignaciones impulsadas por países 
como parte de recursos ordinarios de fondos 
temáticos; b) un porcentaje del fondo mancomu-
nado mundial de evaluación, destinado a nuevas 
esferas de importancia estratégica; y c) donacio-
nes y financiación gubernamental.
La diversificación de las fuentes de financiación 
y su complementariedad son críticas para redu-
cir el riesgo de una cobertura limitada de las 
evidencias de impacto que venga determinada 
por regiones concretas, el tamaño de los progra-
mas para los países o preferencias detectadas 
entre los donantes.
El Director de la Oficina de Evaluación se encar-
gará de la supervisión general de la implementa-
ción de la Estrategia e informará con carácter anual 
a los miembros de la Junta Directiva sobre los 
avances en este sentido. En el seno de la Oficina, 
el recién formado departamento de Métodos, 
Impacto y Aprendizaje, dirigido por un especialista 
superior en evaluación, supervisará la implemen-
tación mundial de la Estrategia y ofrecerá asisten-
cia técnica a las oficinas regionales y en los países.
Conclusiones 
El éxito de la presente Estrategia es un escalón esencial con vistas a fomentar la rendición de cuentas de UNICEF con respecto 
a los resultados y conocer la efectividad de sus intervenciones estratégicas a gran escala y más innovadoras en favor de 
la infancia. UNICEF obtendrá un rendimiento elevado de las inversiones en evidencias rigurosas del impacto, en términos 
institucionales y sociales. Cabe la posibilidad de que las evidencias de impacto no solo influyan en decisiones políticas sobre 
la ampliación del alcance de las intervenciones más efectivas destinadas a la infancia, sino que también permitan ahorrar 
millones de dólares, mediante la modificación del rumbo trazado o la desestimación de enfoques que no funcionen o pudie-
ren hacerlo mejor. A largo plazo, las evidencias de impacto contribuirán a implantar en la organización una cultura centrada 
en los resultados, no en las aspiraciones.
1 En la evaluación de impacto no existe una definición de “riguroso” que se aplique universalmente. A los efectos del presente documento, se entiende como la aplicación 
de una combinación de métodos que aspiran a aislar los efectos del programa de otros factores y de un posible sesgo de selección, con el objetivo en última instancia de 
obtener validez interna y conclusiones con un elevado grado de credibilidad.
2 En la versión íntegra del documento de la Estrategia se puede consultar una explicación más exhaustiva de ambos términos.
3 En virtud del nuevo Plan Estratégico de UNICEF para 2022-2025.
4 Los equipos de evaluación regionales pueden moderar discusiones sobre cómo evaluar los resultados y el impacto durante las reuniones de redes o revisiones de progra-
mas regionales anuales.
5 Estrategia de Evaluación del Impacto del PMA (2019-2026) | Programa Mundial de Alimentos.
6 Implementing Impact Evaluations at the World Bank: Guidance Note.
 
 
Fomento de alianzas nacionales y mundiales
https://www.wfp.org/publications/wfp-impact-evaluation-strategy-2019-2026#%3A~%3Atext%3DThe%20Impact%20Evaluation%20Strategy%2C%20which%20sits%20under%20the%2CWorld%20Bank%2C%20FAO%2C%20IFAD%20and%20UNICEF%2C%20among%20others
https://web.worldbank.org/archive/website01542/WEB/IMAGES/IE_GUIDA.PDF
14
Ejemplos de evaluaciones de UNICEF
Evaluación de impacto basada en los criterios de impacto y eficacia del CAD-OCDE
Evaluación de impacto de la Red de movilizadores comunitarios voluntarios para la erradicación de la poliomielitis en Nigeria (2021)
Estudio del impacto aplicando un enfoque con base teórica y un diseño cuasiexperimental
Evaluación sumativa del programa “Medidas Comunitarias Urgentes para Reducir el Retraso del Crecimiento” en Zimbabwe (2021)
Evaluación experimental del impacto de un proyecto a gran escala
Evaluación de la eficacia y el impacto de una intervención en materia de agua, saneamiento e higiene (WASH) en las escuelas de Laos, 
2014-2017: ensayo controlado aleatorizado
Grupo de objetivos 1 
Todos los niños y niñas 
sobreviven y prosperan
Grupo de objetivos 1 
Todos los niños y niñas 
sobreviven y prosperan
El programa de la red de movilizadores comunitarios 
voluntarios se puso en marcha en 2012, en 12 de los esta-
dos con alto riesgo de poliomielitis del norte de Nigeria. 
La evaluación de impacto se centró principalmente en 
las variables relacionadas con la inmunización, concre-
tamente en la vacunación sistemática contra la polio-
mielitis y los obstáculos que dificultan la inmunización. 
Asimismo, se examinaron los efectos imprevistos del 
programa como indicadores secundarios. La evaluación 
de impacto se basó en los criterios de impacto y eficacia 
del CAD-OCDE y permitió obtener una visión general de 
la eficacia en función de los costos del programa de movi-
lizadores comunitarios voluntarios, conforme al criterio 
de eficiencia. Los indicadores de impacto y resultados se 
estudiaron aplicando la técnica de emparejamiento por 
puntuación de propensión. Dicha técnica permite evitar el 
sesgo de selección que implica la asignación no aleatoria a 
un programa utilizando técnicas estadísticas para construir 
un grupo de comparación artificial. Además de emplear el 
emparejamiento por puntuación de propensión con datos 
primarios, la evaluación utilizó datos históricos secunda-
rios para calcular el impacto del programa en la reducción 
de los casos de poliovirus salvaje. En este caso, se siguió 
un enfoque de estudio de sucesos por grupos de exper-
tos. Además de centrarse principalmente en los impactos 
y resultados, la evaluación analizó la utilidad y la sostenibi-
lidad del programa utilizando métodos cualitativos.
Esta evaluación sumativa en Zimbabwe se diseñó para 
generar pruebas sobre los resultados del programa en 
cuanto a la mejora de la seguridad alimentaria y nutricio-
nal, así como el aumento de la resiliencia de los hoga-
res frente a crisis recurrentes. Entre enero de 2017 y 
septiembre de 2020 se llevó a cabo un estudio de todas 
las actividades del programa (a nivel nacional, subna-
cional, distrital y comunitario). El diseño metodológico 
adoptó un enfoque híbrido, combinando el análisis de la 
contribución como enfoque con base teórica, el diseño 
cuasiexperimental (comparación previa y posterior) y un 
enfoque participativo consistente en consultas amplias 
con las partes interesadas del programa. La adopción de 
dicho enfoque tenía por objeto superar cualquier posi-
ble deficiencia metodológica y reunir información abun-
dante y complementaria a efectos de validación cruzada 
y triangulación. 
En la República Democrática Popular Lao, UNICEF cola-
boró en el “Programa de Educación Básica en materia de 
Agua, Saneamiento e Higiene de Laos”, con el objetivo 
de aumentar la asistencia escolar mediante la mejora de 
los servicios de agua y saneamiento. Entre 2014 y 2017 
se llevó a cabo un ensayo controlado aleatorizado del 
programa, en escuelas seleccionadas al azar. El ensayo 
concluyó que la intervención había generado un impacto 
mínimo en la prevalencia de la diarrea y que no había 
logrado su objetivoprincipal de aumentar la asistencia, 
ni siquiera en las escuelas con mayor grado de adhesión 
al programa.
Grupo de objetivos 4 
Todos los niños y niñas 
viven en un ambiente 
seguro y limpio
https://www.unicef.org/evaluation/reports#/detail/8952/independant-evaluation-of-impact-of-volunteer-community-mobilizers-17000-vcm-network-on-polio-eradication-and-other-community-based-programmes
https://gdc.unicef.org/resource/summative-evaluation-accelerated-community-actions-reducing-stunting-zimbabwe
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6657003/pdf/jogh-09-020402.pdf
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6657003/pdf/jogh-09-020402.pdf
15
Evaluación experimental del impacto con métodos mixtos
Evaluación de impacto del Programa de Preparación Escolar Urgente en Mozambique (2019)
Ensayo controlado aleatorizado de un programa con múltiples componentes 
Evaluación final del programa IKEA - II - Mejorar la vida de los adolescentes en el Pakistán
Evaluación de impacto en un contexto humanitario
Evaluación de impacto del programa de Transferencia en Efectivo de Emergencia y Recuperación Fiavota, en Madagascar (2018): diseño 
cuasiexperimental para evaluar los efectos conseguidos en las familias con niños y niñas que se habían visto afectadas por la sequía.
UNICEF Mozambique y Save the Children, en colabo-
ración con el Ministerio de Educación y Desarrollo 
de Mozambique, implementaron un programa piloto 
de preparación escolar urgente entre 2016 y 2019. La 
evaluación de impacto se basó en un diseño experimen-
tal (ensayo controlado aleatorizado) de métodos mixtos, 
con el objetivo de determinar el impacto logrado por el 
programa en cuanto a la preparación escolar de los niños 
y las niñas, su matriculación dentro del plazo adecuado 
y su rendimiento académico durante el primer curso de 
primaria, estableciendo una comparación con niños y 
niñas con características similares en comunidades sin 
educación preescolar. Se empleó un análisis del aprendi-
zaje temprano para evaluar a los niños en seis esferas de 
resultados. La evaluación también midió la costoeficacia 
basándose en los costos comunitarios, así como en los 
costos por cada niño o niña, derivados de la implementa-
ción del programa piloto de preparación escolar urgente. 
Asimismo, se aplicaron métodos cualitativos para determi-
nar qué aspectos del contexto comunitario y del proceso 
de implementación parecían haber facilitado o dificultado 
el éxito de dicho programa piloto. 
El programa de UNICEF “Mejorar la Vida de los 
Adolescentes en el Pakistán” (IALP, por sus siglas en 
inglés), que se implementó entre 2015 y 2019, constituye 
un claro ejemplo de programa exitoso en materia de protec-
ción de la infancia, compuesto por más de un componente 
y evaluado de forma sólida. Los evaluadores, mediante un 
ensayo controlado aleatorizado que abarcó 446 comunida-
des beneficiarias y 207 comunidades de control, pudieron 
evaluar el impacto de los dos componentes del programa: 
una intervención en materia de protección de la infancia, 
destinada a aumentar los conocimientos y la educación, 
y la creación de centros de educación básica no formal. 
Los resultados demostraron que el programa “Mejorar la 
Vida de los Adolescentes en Pakistán” había contribuido a 
reducir el matrimonio infantil y que los centros de educa-
ción básica no formal habían aumentado la asistencia esco-
lar (especialmente en el caso de las niñas), así como las 
habilidades de lectura. Las campañas de concienciación 
dirigidas a hombres y niños también mejoraron conside-
rablemente las actitudes respecto al matrimonio infantil.
Debido al fenómeno meteorológico “El Niño”, que 
provocó una grave sequía en el sur de Madagascar, el 
Gobierno malgache declaró el estado de emergencia 
en septiembre de 2016. Para hacer frente a la grave 
inseguridad alimentaria de los hogares afectados por la 
sequía, con niños y niñas menores de 5 años, en el sur 
de Madagascar, UNICEF Madagascar se asoció con el 
Banco Mundial y el Ministerio de Población, Protección 
Social y Apoyo a la Mujer, con el fin de llevar a cabo una 
transferencia en efectivo de emergencia (Fiavota) en los 
cinco distritos del sur de la provincia de Toliara. La evalua-
ción de impacto tenía por objeto ayudar a los responsa-
bles de la formulación de políticas a determinar cuál era la 
mejor manera de atender las acuciantes necesidades de 
las poblaciones afectadas, durante la fase de respuesta 
de emergencia de Fiavota, entre diciembre de 2016 y 
septiembre de 2017. En la evaluación se utilizaron técni-
cas de diseño cuasiexperimentales (emparejamiento por 
puntuación de propensión) para crear grupos de trata-
miento y de comparación. A través de ella, se pudo cons-
tatar que el programa había repercutido de forma posi-
tiva y constante en la seguridad alimentaria y que había 
impulsado el consumo. Sin embargo, no se observaron 
impactos positivos en cuanto a las inversiones agrícolas 
o el estado de desnutrición de los niños y las niñas (medi-
ciones antropométricas). El componente cualitativo de la 
evaluación reveló que, en general, el programa se había 
ejecutado según lo planificado.
Grupo de objetivos 2 
Todos los niños y niñas 
aprenden
Grupo de objetivos 3 
Todos los niños y niñas 
están protegidos 
frente a la violencia y la 
explotación
Grupo de objetivos 5 
Todos los niños y niñas 
disfrutan de oportuni-
dades justas
https://www.unicef-irc.org/publications/pdf/5.Mozambique.pdf
https://www.unicef.org/evaluation/reports#/detail/16428/end-of-programme-evaluation-ikea-ii-improving-adolescents-lives-in-pakistan
https://www.unicef.org/madagascar/media/1701/file/FIAVOTA%20Evaluation.pdf
https://www.unicef.org/madagascar/media/1701/file/FIAVOTA%20Evaluation.pdf
16
Para obtener más información, escriba a la siguiente dirección:
UNICEF 
Oficina de Evaluación 
3 United Nations Plaza 
Nueva York, NY 10017 
Estados Unidos de América
www.unicef.org/evaluation
UNICEF-Evaluation
evalhelp@unicef.org 
© Fondo de las Naciones Unidas para la Infancia (UNICEF) 
marzo de 2023
http://www.unicef.org/evaluation
https://www.linkedin.com/showcase/unicef-evaluation/
mailto:evalhelp%40unicef.org?subject=
http://www.unicef.org/evaluation
https://www.linkedin.com/showcase/unicef-evaluation/
mailto:evalhelp%40unicef.org?subject=

Continuar navegando