Logo Studenta

Autoevaluación de centros educativos - San Fabián Maroto

¡Este material tiene más páginas!

Vista previa del material en texto

AUTOEVALUACIÓN DE CENTROS EDUCATIVOS
CÓMO MEJORAR DESDE DENTRO
2
PROYECTO EDITORIAL
BIBLIOTECA DE EDUCACIÓN
Director:
Antonio Bolívar Botia
3
AUTOEVALUACIÓN DE CENTROS EDUCATIVOS
CÓMO MEJORAR DESDE DENTRO
JOSÉ LUIS SAN FABIÁN MAROTO
ANA GRANDA CABRALES
4
Consulte nuestra página web: www.sintesis.com
En ella encontrará el catálogo completo y comentado
Colaboración técnica: Inés Villamil Rico
Reservados todos los derechos. Está prohibido, bajo las sanciones penales y el resarcimiento civil previstos en las
leyes, reproducir, registrar o transmitir esta publicación, íntegra o parcialmente, por cualquier sistema de
recuperación y por cualquier medio, sea mecánico, electrónico, magnético, electroóptico, por fotocopia o por
cualquier otro, sin la autorización previa por escrito de Editorial Síntesis, S. A.
© José Luis San Fabián Maroto
Ana Granda Cabrales
© EDITORIAL SÍNTESIS, S. A.
Vallehermoso, 34. 28015 Madrid
Teléfono 91 593 20 98
http://www.sintesis.com
ISBN: 978-84-995875-0-9
5
http://www.sintesis.com
http://www.sintesis.com
Índice
Prólogo
Introducción: ¿La evaluación al servicio de la educación? Una duda legítima
PARTE I:
EVALUACIÓN DE CENTROS Y APRENDIZAJE INSTITUCIONAL: EL PAPEL DE
LA EVALUACIÓN INTERNA
1. La evaluación de centros educativos en el contexto actual
1.1. La evaluación de centros en nuestro país: una breve reseña
1.2. El auge de la evaluación estandarizada
1.3. Los excesos de la evaluación externa basada en estándares
1.4. Tendencias que reclaman nuevas formas de evaluación
1.4.1. Autonomía institucional de los centros educativos
1.4.2. Creciente diversidad de los centros
1.4.3. Limitaciones de los sistemas de inspección
1.4.4. Insuficiencia de la evaluación externa
1.5. El referente de toda evaluación: una idea sobre la calidad educativa y la
manera de obtenerla
6
2. Evaluación interna y evaluación externa
2.1. Un debate: evaluación interna versus externa
2.2. Una necesidad: coexistencia de la evaluación externa y la evaluación interna
2.3. Un problema: el papel de la inspección
2.4. La autoevaluación no es una inspección interna
2.5. El difícil equilibrio entre la presión externa y la responsabilidad interna
3. Un nuevo paradigma de evaluación
3.1. De la perspectiva del control a la perspectiva de la responsabilidad
3.2. De la perspectiva eficientista a la perspectiva de la complejidad
3.3. De la perspectiva jerárquica a la perspectiva democrática
3.4. De la perspectiva sancionadora a la perspectiva constructiva
3.5. De la perspectiva técnica a la perspectiva sociopolítica
4. La autoevaluación institucional
4.1. Marcos teóricos de referencia
4.1.1. Innovación basada en el centro
4.1.2. Investigación-acción institucional
4.1.3. Movimiento para la mejora
4.1.4. Organizaciones que aprenden
4.1.5. Comunidades de aprendizaje
4.1.6. Evaluación participativa
4.2. Conceptualizando la autoevaluación
4.2.1. Qué es lo específico o novedoso de la autoevaluación
4.2.2. Finalidades y efectos positivos de la autoevaluación
4.3. La autoevaluación del centro: una puerta a la innovación y el aprendizaje
institucional
PARTE II:
LA PRÁCTICA DE LA AUTOEVALUACIÓN INSTITUCIONAL
5. Principios básicos de autoevaluación
7
5.1. Transparencia
5.2. Visión global del centro
5.3. Contextualización
5.4. Participación
5.5. Orientación a la acción
5.6. El diálogo como método: el papel del evaluador
6. La autoevaluación escolar en diferentes contextos educativos
6.1. Experiencias en otros países
6.2. La autoevaluación en nuestro sistema educativo
6.2.1. Marco legal de la autoevaluación de centros
6.2.2. Experiencias en varias comunidades autónomas
6.2.3. El caso de Asturias: los planes experimentales de autoevaluación y
mejora
7. El ciclo de revisión y mejora interna: descripción de las etapas básicas
7.1. Contextualización y preparación del campo
7.1.1. Frente a la pérdida de tiempo, utilidad y mejora como objetivo
7.1.2. La participación y confidencialidad como método
7.1.3. Condiciones para el éxito: formación, tiempos y apoyos externos
7.2. Planificación y coordinación
7.2.1. Formación del equipo de evaluación y mejora
7.2.2. Elaborar el plan de acción
7.2.3. Negociar y difundir
7.2.4. Formar y buscar asesoramiento
7.3. Revisión interna
7.3.1. Concretar los aspectos a evaluar
7.3.2. Formular indicadores
7.4. Recogida de información
7.4.1. De los indicadores a los instrumentos
7.4.2. Decidir momentos y muestras
7.4.3. Recoger y analizar la información
7.5. Redacción y difusión del informe
7.5.1. Elaboración del informe provisional
7.5.2. Discusión y validación del informe
7.5.3. Difusión del informe a la comunidad
7.5.4. Metaevaluación del proceso
8
7.6. Elaboración del plan de mejora
7.6.1. Identificación de las áreas de mejora
7.6.2. Elaboración del plan de mejora
7.6.3. Integración en la dinámica del centro
8. Aprendiendo de la experiencia previa
8.1. Diversidad de prácticas y flexibilidad metodológica
8.2. Ser conscientes de las dificultades y vencer las resistencias
8.3. Metaevaluación: criterios de calidad de la autoevaluación
8.4. Las condiciones internas
8.5. Coherencia del apoyo externo
8.5.1. El papel de la formación
8.6. Desafío y confianza
9. Materiales y recursos
Nota bibliográfica
9
Prólogo
Aún sabiendo que los centros escolares tienen una buena imagen social en el conjunto de
las instituciones públicas, es menester admitir que existe siempre un umbral para la
mejora, umbral que justifica los esfuerzos para acometer su evaluación. Con frecuencia
los centros escolares, al no asumir su evaluación, tienden a esperar, solicitar e incluso
contratar evaluaciones externas, cuando deberían ser los más interesados en poner en
práctica su propia evaluación, sin esperar a las ofertas o directrices procedentes de fuera.
La hipótesis de la que parte este libro es la de que el potencial de las organizaciones
educativas para el cambio se relaciona directamente con su capacidad de llevar a cabo
procesos internos de diagnóstico y planificación de su acción, esto es, con su capacidad
para evaluarse.
Una organización escolar que se define cada vez con mayor autonomía profesional
para tomar decisiones, más participativa y corresponsable, demanda nuevas formas de
evaluación acorde con estos postulados. Desde una perspectiva de la gestión, la
evaluación es un proceso de producción de información jerarquizado dirigido a
incrementar la calidad de las decisiones organizativas. Sin embargo, esta perspectiva
clásica es insuficiente si tenemos en cuenta que la organización es algo más que gestión,
es un conjunto de relaciones, grupos, tradiciones, intereses, etc.
En gran medida lo que necesita un centro para mejorar está dentro de él. El
desarrollo de su capacidad y responsabilidad para reflexionar y analizarse se convierte así
en la condición básica de su mejora. Autoevaluarse requiere de una actitud investigadora
dirigida a recoger evidencias de la práctica cotidiana para llegar a un mejor conocimiento
de la misma. Al mismo tiempo exige un compromiso ético y de autoexigencia a los
diferentes colectivos implicados en la educación.
La autoevaluación escolar, lejos de ser una reacción defensiva frente a las demandas
de control y responsabilización, puede contribuir a hacer más públicas las políticas y las
prácticas educativas (Simons, 1982). Según esta autora una autoevaluación basada en
principios democráticos permite, por un lado, ayudar a los miembros del centro a tomar
decisiones y, por otro, informar de su trabajo a otros colectivos de la comunidad.
La autoevaluación es una vía para introducir la reflexión en las prácticas educativas,
tanto las que se desarrollan en el aula como aquellas que tienen lugar en el centro.
¿Conocemos realmente nuestros centros, nuestras prácticas, nuestros alumnos? ¿Cómo
podemos poner ese conocimiento al servicio de los fines educativos?
10
La constatación inicial o, si se prefiere, la hipótesis de partida que motiva la
elaboración de este libro, es que toda la maquinaria de evaluación de la eficacia de
nuestros sistemaseducativos no parece guardar una relación muy directa con la
generación de procesos de cambio y mejora en el interior de las organizaciones
encargadas de materializar esa educación (Merchán, 2011). Sus efectos en la mejora de
los sistemas educativos, ¿justifican el gasto en energías humanas y recursos materiales y
formales que conllevan las evaluaciones educativas?
Esto lleva a plantearnos no solo qué tipo de evaluación (enfoque o metodología) es
el más adecuado para promover procesos de cambio orientados a la mejora educativa,
sino cómo y dónde se sitúan los procesos evaluativos dentro de esa red compleja de
intercambios, poderes e influencias que constituye el sistema educativo. En definitiva,
nos preguntamos por las modalidades, condiciones y contextos de evaluación
generadores de la mejora docente, con especial referencia a los modelos de
autoevaluación (en este libro utilizamos indistintamente las denominaciones
autoevaluación y evaluación interna).
Con esa finalidad en la Parte I del libro se analiza críticamente el papel que
desempeña la evaluación en la mejora de los centros educativos. Los efectos no deseados
de los enfoques de evaluación externa basados en estándares junto con las nuevas
tendencias en la gestión de la educación (autonomía, responsabilización institucional,
etc.) cuestionan las políticas de evaluación dominantes, más preocupadas por medir la
calidad educativa que por mejorarla. La tensión entre la evaluación externa y la interna
pone de manifiesto la necesidad de crear un nuevo paradigma de evaluación basado en la
perspectiva de la responsabilidad, la complejidad, la participación, el constructivismo y
las relaciones sociopolíticas.
También se describen los principales marcos teóricos que sirven de referencia al
desarrollo de la autoevaluación institucional, tales como la innovación basada en el
centro, la investigación-acción o la evaluación participativa… lo que nos permite
acercarnos a una conceptualización de esa corriente evaluativa.
En la Parte II del libro se recogen principios básicos, políticas y estrategias de
autoevaluación, con referencia a diferentes sistemas educativos, nacionales e
internacionales. Por otra parte, se describen las principales etapas y procesos implicados
en el ciclo de revisión y mejora interna: contextualización, planificación, coordinación,
recogida de información, redacción de informes y elaboración de un plan de mejora.
Finalmente, las experiencias y análisis previos realizados en este ámbito nos permiten
derivar criterios de calidad y ser conscientes de las posibles resistencias que han de
afrontarse en el desarrollo de un proyecto de autoevaluación institucional, con el objeto
de crear las condiciones internas y externas que faciliten su implantación.
Expresamos nuestro agradecimiento a las comunidades educativas de los centros
participantes en los proyectos experimentales de autoevaluación y mejora durante los
años 2005 a 2009 y al Servicio de Evaluación y Calidad de la Consejería de Educación y
Ciencia del Principado de Asturias.
11
12
Introducción: ¿La evaluación al servicio de
la educación? Una duda legítima
Dado que las personas somos ‘evaluadores naturales’, podemos asumir el compromiso de
desarrollar esta capacidad para ponerla al servicio de la mejora de las instituciones en las que
trabajamos y vivimos.
Educación y evaluación son expresiones que suelen ir juntas, aunque a menudo sus
relaciones no son cordiales. En su planteamiento más básico, si la educación pretende
tener efectos, por ejemplo generar cambios en las personas, la comprobación de esos
cambios constituye una parte inseparable del propósito educativo (evaluación de
resultados). Por otra parte, si la enseñanza debe someterse a revisión y actualización para
garantizar su continuo perfeccionamiento, ha de contar con algún procedimiento
sistemático de recogida y análisis de la información acerca de la práctica docente
(evaluación de procesos). De ambos casos se deriva una misma consecuencia: los
sistemas de evaluación no pueden constituirse en un componente independiente o
autónomo de los propósitos educativos, sino que adquieren su sentido al servicio de las
finalidades educativas. A su vez, la práctica educativa, como práctica deliberada, necesita
de algún mecanismo que le permita conocer sus efectos a corto y medio plazo.
Pero esta lógica impecable suele chocar con una realidad implacable. A través de
diversos mecanismos las prácticas evaluadoras pueden frustrar las intenciones de los
agentes educativos, llegando a obstaculizar, enmascarar o pervertir los mismos procesos
educativos. Al preguntarnos si la evaluación contribuye a la calidad educativa
simplemente estamos planteando la duda legítima que suscita la aplicación de numerosos
sistemas de evaluación cuya relación con la mejora de la educación queda lejos de ser
demostrada.
Los sistemas de evaluación externa de los centros educativos vienen generando
desde hace años mucha información sobre los resultados obtenidos, las estructuras
organizativas o los recursos existentes. Los métodos y los instrumentos se han ido
perfeccionando progresivamente, logrando que los datos que derivan de estas
evaluaciones sean cada vez más precisos y puedan ser comparados unos con otros.
Permiten incluso conocer las condiciones en las que trabajan los centros y sus
profesores. Constituyen un “barómetro” cada vez más preciso sobre la situación y
evolución de la educación escolar, informando sobre la eficacia así como sobre las
13
posibles causas de los éxitos y fracasos del sistema. Y sin embargo, esta maquinaria de
evaluación de la eficacia de nuestros sistemas educativos no parece guardar una conexión
muy directa con la generación de procesos de cambio en el interior de las organizaciones.
Esto no significa que las evaluaciones carezcan de efectos. La evaluación, como
dispositivo social e institucionalmente legitimado, es un instrumento de poder cuya
utilización media las relaciones entre la teoría y la práctica educativa. El poder de la
evaluación es tal que puede llegar a subvertir la misión de la educación, imponiendo
criterios particulares, generalmente de forma implícita, y promoviendo relaciones y
procesos antieducativos en aras de la eficacia y la eficiencia. Así, a veces se utilizan
metodologías de evaluación sofisticadas que tienden a mistificar los procesos evaluativos
e inhibir a los agentes del programa. En otras ocasiones las evaluaciones se plantean de
forma superficial y paralela a los procesos y prácticas educativas, al margen de los
lugares donde se toman las principales decisiones.
La difusión de sistemas de evaluación externa no ha evitado que en muchas
ocasiones se sigan tomando decisiones sin información. Guerrero Ortiz (2007) sugiere
que esto se produce porque:
a) En el mundo de la educación el hábito de tomar decisiones basándose en
información es en general muy escaso. Muchas veces los decisores son
personas bien intencionadas pero cuya larga experiencia y trayectoria
profesional les hace sentirse poseedores de todo el saber necesario para tomar
buenas decisiones; luego, la información sobra o, en todo caso, concurre a
reforzar sus ideas previas sobre los males y los remedios de la educación. Si
creen saber lo que se debe hacer y han convertido su convicción en prédica y
en una obvia verdad, no habrá realidad que los desmienta, ni fuente lo
suficientemente creíble, ni instrumentos sobradamente confiables, ni expertos
mínimamente solventes, que les hagan modificar sus certezas ni sus
decisiones.
b) El sistema educativo está diseñado de tal modo que vuelve sumamente lento,
incómodo y engorroso cualquier cambio significativo en las decisiones. Es una
cadena larga de procedimientos la que se afecta y que puede llegar a amenazar
los difíciles equilibrios internos entre distintos grupos de interés y de poder.
Naturalmente, todo se mueve cuando llega una orden expresa del más alto
nivel, pero la organización termina siempre arreglándoselas para cumplirla sin
modificar en esencia sus agendas.c) Otra razón, asociada a la anterior, reside en el carácter básicamente ejecutor de
los aparatos de gestión educativa. Los planes anuales y multianuales suelen
elaborarse a toda prisa, en medio del vértigo de un sinnúmero de actividades
pendientes y en plazos usualmente perentorios, tendiéndose, pragmáticamente,
a dar continuidad a lo que se venía ejecutando en años anteriores. No hay
tiempo ni tranquilidad para detenerse a analizar y discutir más información de
la que cada uno tiene en mente ni para sentarse a leer los informes de la
14
evaluación nacional o de las mediciones internacionales. Pero si alguien lo
intenta, más pronto de lo que supone puede ser acribillado con demandas
operativas, todas urgentes, que lo harán desistir con resignación.
d) Quienes toman las decisiones no suelen tener el tiempo ni la experiencia
suficiente para analizar y digerir cuerpos complejos de información, que
exigen establecer relaciones a varios niveles y dimensiones entre distintos
aspectos de la realidad. Ciertamente, el actor político no tiene que hablar
necesariamente el lenguaje del investigador; pero la evitación de la
complejidad, la prisa y la poca familiarización con el tipo de información que
se le presenta, puede derivar en simplificaciones tan arbitrarias como inútiles
para resolver los problemas y a las que podría haberse llegado, además, sin
mirar dato alguno.
e) La necesidad que tiene el decisor de considerar otras cuestiones, a las que
atribuye mayor peso que los resultados de una evaluación. Es el caso del
presupuesto. Si las cifras indican, por ejemplo, que los problemas principales
de rendimiento están en los primeros grados de la primaria y se concentran en
las áreas rurales y más pobres del país, asignar recursos especiales a una
intervención dirigida a esas escuelas puede suponer ajustes en el presupuesto
que van a generar conflictos.
f) Los expertos muchas veces dan cuenta de sus hallazgos a través de su lenguaje
especializado. Quienes toman decisiones y quienes producen información son
actores que pertenecen a “culturas” separadas con intereses y lenguajes
distintos.
Esto lleva a la cuestión decisiva: ¿qué hacer para que las evaluaciones educativas
sean realmente útiles para tomar mejores decisiones?
El poder de la evaluación es a la vez simbólico, instrumental e institucional (ver
Correia, 2010). Por una parte, la evaluación tiene un gran poder simbólico en cuanto
ejercicio sancionador, en su doble sentido de lo bueno (autorizando) y de lo malo
(penalizando), como juicio acerca de lo correcto y lo incorrecto. Esto se relaciona a su
vez con el poder instrumental que la evaluación ejerce mediante el uso de una tecnología
específica que permite reducir la complejidad de la realidad educativa a unos pocos
parámetros y, en última instancia, a un juicio o sello final. A su vez, tanto el poder
simbólico como el poder instrumental de la evaluación necesitan una estructura para
ejercerse de forma estable, asociándose a un poder institucional. De esta forma, la
función evaluadora se vincula al ejercicio de autoridad legítimo y pasa a formar parte de
la estructura organizativa, creando dentro del sistema unidades específicas para su
ejercicio.
La expansión de las prácticas evaluadoras va pareja a la existencia de un problema
ampliamente difundido, como es la utilización inadecuada o incluso la noutilización de los
resultados de las evaluaciones, lo que cuestiona la justificación de los recursos invertidos.
Por una parte, las sucesivas iniciativas de reformas plantean cambios rara vez basados en
15
datos; por otra, desde la administración se recogen continuamente datos que apenas se
utilizan. Esto cuestiona directamente el papel que desempeña la evaluación en la mejora
del sistema.
Lo anterior no impide que las propuestas evaluadoras aparezcan casi siempre
asociadas a términos de mejora, calidad, eficiencia… Por una parte, existe la
consideración explícita y general de que la evaluación es un instrumento necesario para
ayudar a la toma de decisiones en el diseño, implementación y gestión de la educación;
pero, a su vez, es habitual encontrarse prácticas evaluadoras que no responden a estas
expectativas o que incluso generan efectos no deseados. Esta doble potencialidad de las
evaluaciones para crear expectativas y a la vez para frustrarlas debe ser tenida en cuenta
como punto de partida para el desarrollo de cualquier proyecto o propuesta evaluadora.
Y es que el ámbito de la evaluación no es ajeno a las paradojas de la realidad educativa,
al contrario, se sitúa en el centro de sus contradicciones.
Los discursos recientes sobre las reformas educativas dan por sentado el papel
central que ha de tener la utilización de “datos” para mejorar la enseñanza, la toma de
decisiones basada en evidencias. Pero ¿cómo pueden ayudar los datos a mejorar las
prácticas docentes? Generar datos, evidencias, no es suficiente para mejorar la práctica
educativa. Una evaluación para la mejora debe ser una evaluación que permita un uso
formativo de los datos. Muchas evaluaciones se denominan a sí mismas formativas
porque tienen entre sus propósitos mejorar la toma de decisiones, pero eso no significa
que tengan en cuenta las condiciones necesarias para que esto de produzca. Parecen
influir factores como las prácticas de evaluación, el tipo de datos (relevancia, utilidad,
accesibilidad), el papel a desempeñar por los profesores, los contextos de trabajo de los
docentes, esto es, el liderazgo, el apoyo para la utilización de los datos, las estrategias
institucionales de formación o los estándares de aprendizaje y de colaboración de los
adultos (Young y Kim, 2010). En su revisión de la literatura, estos autores comprueban
que la expresión evaluación formativa es imprecisa y analíticamente inadecuada.
La débil socialización profesional, el aislamiento docente y las normas burocráticas
determinan prácticas de evaluación individuales y descontextualizadas. Es importante la
unidad de evaluación elegida. El docente individual y su aula no son la única unidad de
evaluación, la cual debe ir más allá de la evaluación del rendimiento. Ello remite a las
condiciones organizativas necesarias para el uso formativo de la evaluación: liderazgo de
apoyo y no amenazante, información relacionada con el aprendizaje de los estudiantes,
colaboración docente, papel de los asesores… llegando a ser más importante el proceso
que el tipo de datos recogidos (Wayman et al., 2007; Young, 2006).
Hablar de evaluación educativa conlleva hacer referencia a diferentes niveles en la
toma de decisiones del sistema educativo, esto es, el político-administrativo, el técnico-
evaluador, el director-gestor, el profesional-docente y el de los beneficiarios. Uno de los
principales retos del sistema educativo es establecer relaciones entre estos niveles, que
con frecuencia constituyen mundos separados que se desarrollan en recíproca ignorancia:
el de la política educativa, el de la gestión, el de la práctica docente, el de la evaluación-
investigación educativa. El contexto de la práctica docente suele ser obviado desde los
16
entornos políticos de decisión y apenas tenido en cuenta por la gestión escolar, mientras
que las políticas se deciden al margen de los resultados obtenidos en la investigación y la
evaluación educativa (San Fabián, 2010). Una consecuencia de esto es la falta de
impacto de las políticas y las evaluaciones educativas en la toma de decisiones sobre la
práctica docente.
Los factores que han llevado a esta situación, algunos de los cuales serán descritos a
lo largo de este libro, suelen tener en común la existencia de una desconfianza recíproca
entre los diferentes ámbitos institucionales así como la pervivencia de un modelo
jerárquico de toma de decisiones, lo que repercute directamente en la evaluación. Los
docentes no creen en la utilidad de las evaluaciones y dudan de sus propósitos explícitos,
las evaluaciones se diseñan y desarrollan sin la implicación necesaria del profesorado, las
consideraciones políticas y económicaspesan más que las pedagógicas a la hora de
decidir por parte de gestores y políticos, etc. Una vía para modificar esta realidad pasa
por revisar los modelos de evaluación dominantes, cuestionar sus presupuestos y, a la
vez, desarrollar modelos alternativos.
Pruebas, tests, notas, exámenes, auditorías, informes, actas… forman parte del
funcionamiento cotidiano de las instituciones educativas, constituyendo lo que se ha
denominado un tipo de “evaluación bancaria”, entendida como un proceso donde se
genera y acumula información sin tener en cuenta a sus actores ni los escenarios donde
se realizan las prácticas (Azevedo, 2007). Este sin sentido de la evaluación como
acumulación de papeles e informes, resultado de la inercia burocrática del sistema, es lo
primero que debe ser cuestionado. En el contexto de esta sociedad de la información, la
evaluación educativa provoca, y también padece, una enfermedad ampliamente
extendida: la acumulación de información no utilizada, mal utilizada y, cómo no, inútil,
esto es, no utilizable. Frente al exceso de información, los procedimientos sistemáticos de
provisión del conocimiento −la evaluación es uno de ellos− se ven obligados a ser
altamente selectivos; ante la superficialidad de la información requieren ser relevantes y
rigurosos; ante el predominio de lo anodino han de ser incisivos y críticos. En una
sociedad del conocimiento, donde el exceso de información plantea la necesidad de una
selección inteligente de la misma, la evaluación no puede seguir desempeñando una
función “bancaria”.
Se receta evaluación como si de ella viniesen las respuestas a los principales problemas o
como si constituyese en sí una política o un valor. Por el contrario, los procesos de evaluación
están inmersos en el campo de la política e implican valores y aspiraciones de la sociedad. En este
sentido, la cuestión pertinente será: ¿cómo puede la evaluación contribuir a la lucidez? (Azevedo,
2007: 17).
17
PARTE I
Evaluación de centros y aprendizaje
institucional: el papel de la evaluación
interna
18
1
La evaluación de centros educativos en el
contexto actual
Más allá de la concepción, ya clásica, de evaluación entendida como un proceso
sistemático de recogida de información que implica realizar juicios de valor y se orienta a
la toma de decisiones para mejorar la práctica (Guba y Lincoln, 1982; Mateo, 2000), el
consenso sobre la evaluación es prácticamente inexistente. Ello se debe en gran medida a
la naturaleza sociopolítica de la evaluación.
En la mayoría de los debates sobre evaluación, de marcado carácter técnico, suele
estar ausente esta cuestión básica: ¿cuál es el papel de la evaluación en una sociedad
democrática?; de la que derivan otras tantas, ¿cuál es el papel de la evaluación en el
cambio social?, ¿pone a disposición de los actores la información necesaria para mejorar
sus condiciones?, ¿es capaz de informar desde todas las caras del debate?, ¿los
evaluadores deberían actuar en beneficio de sus respectivos clientes, como los abogados,
o trabajar por los intereses del conjunto de la sociedad?… (Smith, 2007).
Cualquier evaluación institucional tiene necesariamente como referencia imágenes y
representaciones acerca de lo que es y debe ser un centro educativo. El propósito de
evaluar una organización contiene siempre, aunque sea de forma implícita, alguna idea
sobre las finalidades de esa organización, de su estructura, de sus procesos y, lo que es
más importante, sobre lo que es su correcto funcionamiento. Estas concepciones
preexistentes al proceso evaluador no deben darse por supuestas sino que han de hacerse
explícitas, pues determinan en gran medida las propias finalidades, procedimientos,
criterios y uso final de las estrategias evaluadoras.
Un análisis de las políticas y prácticas de evaluación institucional constituye un ejercicio de
hermenéutica organizacional, a través del cual se procederá a un inventario crítico e interpretativo
de las concepciones organizativas, explícitas o implícitas, de los centros (Lima, 2002: 27).
La base neoliberal que impregna actualmente las políticas educativas imprime una
orientación específica a los procesos de evaluación de centros. Nociones como mercado
de servicios educativos, privatización, rendimiento de cuentas basado en resultados,
competencia, libertad de elección, procesos de estandarización, reducción de costes…
19
contribuyen a definir el marco en el que se desenvuelven hoy las políticas educativas y
en particular las políticas de evaluación (OCDE, 2005).
En los últimos años asistimos al auge de los llamados procesos de reforma educativa
basados en estándares y, más concretamente, basados en resultados de evaluación
centrados en el rendimiento de los estudiantes (Ruiz, 2009). Se trata de una tendencia
ampliamente extendida en los sistemas educativos actuales que forma parte de la
corriente de rendimiento de cuentas o responsabilización por parte de los centros
escolares y sus profesores. Con ella se busca que las principales decisiones de política
educativa, sobre recursos, innovaciones, asesoramiento, oferta escolar, etc. que recaen
sobre los centros y el profesorado se hagan depender de los resultados evaluados.
Los sistemas de rendición de cuentas mediante evaluaciones externas basadas en
estándares gozan hoy de una gran aceptación por parte de los gestores políticos, pues
suponen para ellos un asidero muy atractivo en un campo como el de la educación,
caracterizado por la complejidad y la incertidumbre, mayormente en tiempos de crisis.
Las tasas de rendimiento, el uso de rankings, las pruebas estandarizadas… aportan una
dosis de tangibilidad y de objetivación, no necesariamente de objetividad, que resulta
efectiva para reducir, al menos provisionalmente, dicha incertidumbre. De esta forma, las
estrategias de evaluación ocupan un lugar privilegiado en el conjunto de las políticas
educativas.
1.1. La evaluación de centros en nuestro país: una breve reseña
En España, con especial incidencia en los años ochenta y noventa, han predominado los
enfoques positivistas y tecnocráticos en la evaluación de centros, orientados a regular
administrativamente el control de la escuela (Bolívar, 1994b). Al respecto, la clasificación
de los diferentes enfoques de evaluación de centros educativos realizada por T. Escudero
(1997) es clarificadora, como lo fue el estudio bibliométrico realizado por Expósito et al.
(2004) sobre enfoques y metodologías empleadas en evaluación educativa, donde se
constataba el claro predominio de los enfoques positivistas y los métodos cuantitativos de
evaluación en nuestro contexto.
En los años ochenta, la incipiente corriente de evaluación de centros y profesores en
nuestro país se planteaba aún si esa evaluación era posible (Escudero Escorza, 1980). La
mayoría de las propuestas de evaluación procedían de inspectores o antiguos inspectores
(p. ej., Casanova, 1992; Chavarría y Borrel, 2003). A la vez fueron apareciendo diversas
herramientas dirigidas a evaluar dimensiones particulares de los centros, como el
ambiente y el clima organizativo del centro y del aula, siendo el cuestionario el
instrumento más utilizado a la hora de llevar a cabo una evaluación de centros educativos
(p. ej., Rodríguez Díez, 1992; Ruiz, 1992). Entre lo más novedoso que podíamos
encontrar, por su orientación más cualitativa, era algún instrumento como el QUAFE-80
(Cuestionario para el Análisis del Funcionamiento de la Escuela) de J. A. López y P.
Darder (1985).
20
La Ley Orgánica 1/1990, de 3 octubre, de Ordenación General del Sistema
Educativo (LOGSE, en adelante) y otros desarrollos oficiales señalan, entre los principios
por los que se regirá la actividad educativa, “la evaluación de los centros docentes y de
los diversos elementos del sistema” (art. 2.3). Como concreción de las propuestas
legislativas derivadas de la LOGSE, el Servicio de Inspección del Ministerio diseñó un
Plan de Evaluación de Centros (llamado Plan EVA) que comenzó el curso 1991-1992
como experiencia piloto, para irse generalizandoen los cursos siguientes a todos los
centros. Diseñado por técnicos del CIDE e inspectores, incluía las siguientes
dimensiones: contexto del centro, recursos humanos y materiales, apoyos externos,
alumnado, organización y funcionamiento, procesos didácticos y rendimiento educativo;
cada una con sus correspondientes subdimensiones e indicadores. Utiliza un conjunto de
escalas descriptivas (fichas de evaluación), guías (para análisis de la documentación y
para la realización de entrevistas o reuniones) y cuestionarios para los diferentes sectores,
adaptados a cada nivel educativo (Luján y Puente, 1996). Sin embargo, por más que el
Plan EVA (MEC, 1992) insista en su carácter formativo y que su objetivo fundamental
es “mejorar la organización y funcionamiento de los centros”, así como “asesorar,
estimular y apoyar las actividades de evaluación interna” de los centros evaluados…, el
propio contexto, agentes e informes de evaluación lo acercan más a un control
administrativo, tal como sugiere Bolívar (1994).
Las tendencias que invadían la educación desde el ámbito de la empresa llevaron a
diversos gestores (Gento, 1995) y a los responsables de Educación del momento (MEC,
2001) a proponer los modelos de evaluación basados en la EFQM (European
Foundation for Quality Management) y la calidad total. En realidad pocos centros
llegaron a implantar dichos modelos de evaluación excesivamente formalizados y poco
adaptados a las características de las organizaciones escolares. Ante el predominio de la
evaluación externa de centros, una preocupación ha sido conocer el impacto de las
evaluaciones externas estandarizadas en los centros y en su mejora (Torres, 2003,
Bolívar, 2004b y Gairín, 2006).
En 1990 aparece una obra que marca un cambio de perspectiva en evaluación de
instituciones escolares, se trata del libro Hacer visible lo cotidiano de M. A. Santos
(1990), obra que el autor continuará con otras (Santos, 1993) que profundizan en esta
perspectiva cualitativa y etnográfica de la evaluación dirigida a la comprensión y mejora
de las organizaciones. Pero el cambio en las prácticas evaluadoras sería más lento.
Según Torres (2006: 156-179), el auge de los indicadores de rendimiento, asociado
al devenir de las políticas conservadoras y neoliberales, constituye una tecnología
vinculada al discurso eficientista y productivista de la educación. A partir de 1993 se
comenzó a diseñar un Sistema Estatal de Indicadores de la Educación, con la creación
del Instituto Nacional de Calidad y Evaluación (INCE), publicándose su primera versión
en el año 2000 hasta la actualidad. La LOCE (2002), que para lograr una menor
resistencia a la implantación de dicha tecnología tuvo que asignarle un “carácter
orientador”, previó que dicho sistema contribuiría a “orientar la toma de decisiones en la
enseñanza, tanto de las instituciones educativas, como de la administración, los alumnos
21
o las familias” (art. 97.1).
Esta perspectiva se mantiene en la LOE cuatro años después, proponiéndose la
realización de evaluaciones externas a los centros. Además, se implantan las llamadas
pruebas de diagnóstico, que versarán sobre las competencias básicas del currículo, pero
“en ningún caso los resultados de estas evaluaciones podrán ser utilizadas para el
establecimiento de clasificaciones de los centros” (art. 114). Dicho artefacto se plantea
como un instrumento técnico y neutral para corregir los desajustes del sistema, de donde
se deriva, según Torres (2006) que los problemas educativos son básicamente de tipo
técnico y tienen que ver (se resuelven) con lo que haga el profesorado y el alumnado.
Además, surgen otras cuestiones fundamentales como el carácter formativo de tales
evaluaciones, la neutralidad del Instituto de Evaluación, dependiente del Ministerio de
Educación, Cultura y Deporte (MEC, en adelante), respecto al gobierno, etc. Torres
propone una pluralidad de agencias de evaluación. En realidad esto, que ya ocurre en
varias CC.AA., no asegura la independencia política de las mismas.
La evaluación cualitativa dirigida a promover la mejora interna de los centros fue
poco a poco abriéndose paso. Desde finales de los años ochenta fueron apareciendo
algunos artículos sobre la revisión basada en la escuela (González, 1988), la
autoevaluación escolar (Beltrán y San Martín, 1992; San Fabián, 1996) o la
autoevaluación institucional (Bolívar, 1994a; Álvarez Méndez, 1997), los cuales
iniciaron en España una vía que posteriormente se plasmaría en propuestas más
desarrolladas de evaluación interna de centros (Cardona, 1994; AA.VV. 1999; Estefanía
Lera y López Martínez, 2001; Rul y Zaitegui, 2003), así como en la elaboración de
instrumentos de autoevaluación institucional (e.g. Tomás et al., 2000). La idea de mejora
interna de los centros escolares mediante proyectos de colaboración entre centros
escolares y otros agentes externos (profesores universitarios o asesores de CEP) ha dado
lugar a experiencias (iniciadas a fines de los ochenta) entre la universidad y los centros
escolares (e.g. Escudero et al., 1990; González y Martínez, 1992), que:
apuntaban a la construcción de una dinámica de trabajo cooperativo en los centros, que
permitiera la propia autoevaluación, la formación desde la práctica de los profesores, y, de este
modo, la mejora de aquellas facetas organizativas y pedagógicas de su trabajo que fueran definidas
como susceptibles de mejora por los centros y los profesores (Escudero y Bolívar, 1994: 144).
En 1990 Sabirón Sierra publicó una Guía para la valoración y el desarrollo de la
institución escolar (DIE-1) como documento de trabajo y pauta de valoración y
diagnóstico interno del centro escolar. Posteriormente aparecerían otros materiales
destinados a servir de ayuda a los centros que se impliquen en procesos de
autoevaluación institucional, como los construidos por San Fabián (2005), San Fabián y
Granda (2007 y 2008) o Murillo (2008), siendo varias las Comunidades Autónomas que
irán incorporando propuestas de autoevaluación institucional, como Cataluña, Canarias,
Castilla-La Mancha o Asturias, entre otras.
22
1.2. El auge de la evaluación estandarizada
Los resultados escolares son importantes en una sociedad donde el éxito escolar es una
puerta para el éxito profesional y social. Como señalan Elmore y Fuhrman (2003,
introducción), “en una sociedad donde el logro educativo está fuertemente relacionado
con los ingresos futuros, la repetición, la denegación de diplomas y los abandonos tienen
consecuencias extremadamente serias para los alumnos”.
La cuestión es en qué medida las evaluaciones dan cuenta de esos resultados de una
manera global y estable; y, sobre todo, cómo contribuyen dichas evaluaciones al
perfeccionamiento del sistema educativo. En otras palabras, ¿qué control tenemos de las
condiciones que hacen posible los aprendizajes?, ¿es ético castigar a alumnos por no
aprender lo que no se les han enseñado o que se les ha enseñado de forma inadecuada?,
¿es ético sancionar a los docentes por la producción de unos resultados que sólo en parte
dependen de su actuación? (Ravela, 2006).
Esta modalidad de toma de decisiones basada en el rendimiento escolar suscita
numerosas cuestiones: ¿qué miden realmente las pruebas de rendimiento?, ¿qué efectos
tienen las medidas del rendimiento del alumnado en la mejora de la docencia?, ¿cómo
condicionan el trabajo docente?, ¿cómo contribuyen a la equidad del sistema y a la
configuración de diferentes redes escolares?, ¿hablar de evaluación de rendimientos es lo
mismo que hablar de evaluación de la calidad de la enseñanza? y, sobre todo, ¿qué
certeza tenemos de que la evaluación del rendimiento de los estudiantes puede llevar a
mejorar la calidad de los centros?, ¿están conduciendo a mayores tasas de éxito escolar?,
¿están logrando retener una mayor cantidad de alumnos de la enseñanza secundaria, por
ejemplo? Tras estas preguntas una cuestión se encuentra en el fondo de todas ellas, el
impacto de las evaluaciones en la toma de decisiones orientada a la mejora: ¿los agentes
decisoresy en especial los docentes, como protagonistas directos de las acciones
educativas, utilizan los resultados de las evaluaciones para mejorar su docencia?
Esto lleva al problema del uso de los indicadores, de su contribución a uniformidad y
estandarización de los sistemas, a la cuantificación de la evaluación… El proceso de
traducción de los indicadores a la práctica varía según las condiciones del sistema
(Mahony y Hextall, 2000), donde influyen especialmente los intereses de los que toman
decisiones. Un ejemplo lo encontramos en la utilización que hizo la ministra Esperanza
Aguirre de las pruebas de evaluación para intentar justificar su fracasada reforma de las
Humanidades, bajo la que escondía el interés por controlar los contenidos de la
enseñanza en la ESO.
Indica Ravela (2006) que una cosa es generar información sobre las escuelas que
están logrando que sus alumnos adquieran los aprendizajes esperados y otra
completamente diferente es convertir eso en una tabla de posiciones tipo campeonato de
fútbol, de manera simplista y con gran daño para muchos centros. En consecuencia
propone varios criterios que deben tenerse en cuenta al efectuar comparaciones entre
escuelas:
23
a) Utilizar diversos indicadores de calidad y no uno solo, lo que probablemente
dará lugar a diversos ordenamientos, dado que unas escuelas destacarán en
ciertos aspectos y otras en otros.
b) Cuando se ordena a las escuelas por un único indicador como, por ejemplo, sus
resultados en una prueba de Matemáticas, evitar denominar “calidad” a ese
único indicador. Es legítimo explicitar que ello no da cuenta de todo lo que las
escuelas realizan.
c) Tener en cuenta la composición social del alumnado de cada centro. Si esto no
se hace, lo que se está comparando principalmente es la selección social del
alumnado. Es preferible realizar varios ordenamientos o rankings por
separado, para escuelas de diferente composición social.
d) Utilizar datos de varios años o varias mediciones para evitar ofrecer imágenes
falsas que obedecen a factores aleatorios, dado que los resultados de escuelas
individuales son altamente volátiles y cambiantes.
e) Controlar la significación estadística de las diferencias, tanto en la comparación
entre escuelas en un mismo momento del tiempo como en la comparación de
los resultados de una misma escuela a lo largo del tiempo. Esto
necesariamente llevará a relativizar las posiciones en el ranking, dado que cada
escuela no tiene una única posición sino varias posibles. Por este motivo, es
preferible trabajar con agrupamientos de escuelas (escuelas de muy buenos
resultados, escuelas de resultados intermedios, escuelas de resultados
inferiores, etc.) más que con un ordenamiento individualizado.
f) Focalizar las comparaciones en la proporción de alumnos que están logrando los
aprendizajes que deberían lograr, más que en las posiciones relativas de las
escuelas en función de sus promedios. Una escuela puede tener un promedio
superior a otra, pero ambas ser malas en términos de lo que sus alumnos están
logrando.
El interés por relacionar los resultados de los aprendizajes de los estudiantes con la
eficacia docente ha provocado un uso creciente de los denominados Métodos de Valor
Añadido (MVA), desarrollados por Newton et al. (2010) para evaluar incrementos en los
aprendizajes de los alumnos. Estos autores cuestionan si se pueden aislar los efectos de la
práctica docente o de los centros en el rendimiento escolar respecto a otros factores. Para
ello exploran las posibilidades y limitaciones de estos métodos encontrando que no son
del todo fiables, especialmente cuando se aplican a la valoración de la eficacia docente de
un profesor, la cual puede variar sustancialmente a través de los distintos modelos
estadísticos, los grupos de clase asignados y los años de experiencia. Además, las
características de los estudiantes pueden impactar drásticamente las clasificaciones de los
profesores, aun cuando tales características hayan sido previamente controladas
estadísticamente. Los profesores que enseñan a los estudiantes menos aventajados en un
curso o año determinado reciben clasificaciones de eficacia más bajas que cuando un
mismo profesor está enseñando a los estudiantes más aventajados en otro curso o año.
24
Los modelos que no toman en cuenta las características demográficas de los
estudiantes perjudican adicionalmente a los profesores que sirven a un gran número de
estudiantes de bajos ingresos, con conocimientos limitados del idioma o que estén en
grupos de menor rendimiento académico. Los criterios de asignación de docentes y
alumnos a centros y grupos, las características de los estudiantes, su esfuerzo y el de sus
familias, la contribución de múltiples factores al aprendizaje, la interferencia del efecto
centro y el efecto docente, etc. dificultan determinar el papel específico que desempeñan
los centros y los docentes en la producción de incrementos medibles de aprendizaje
estudiantil, lo que lleva a realizar inferencias problemáticas y a formular hipótesis
demasiado complejas e inestables sobre la eficacia de los centros y sus profesores (Baker
et al., 2010).
Ello interroga por las finalidades de las políticas de evaluación. Los sistemas de
rendición de cuentas basados en pruebas de rendimiento pueden utilizarse de diversas
maneras y con diferentes objetivos (Carnoy y Loeb, 2002). Pueden ser usados como
indicador que informa a administradores y docentes si se están logrando los objetivos de
la organización y proporcionar información sobre qué elementos del currículo están
incidiendo en los estudiantes y cuáles no. Pueden ser utilizados como medida de éxito o
fracaso para establecer sistemas de incentivos. Pueden emplearse como criterio para
aumentar el nivel, para evaluar planes de estudio o para proporcionar asistencia técnica.
También se pueden utilizar como un mecanismo para asignar recursos adicionales con el
fin de mejorar los resultados de los centros que afrontan mayores dificultades… ¿Cuáles
de estas finalidades son las más apropiadas a la naturaleza de la evaluación? ¿Cuáles
justifican su empleo? ¿Cuál es la evaluación más adecuada a cada finalidad?
Ravela (2006) distingue dos tipos de propósitos diferentes en las evaluaciones
externas:
1. Dar publicidad a los ordenamientos resultantes como forma de generar un
mercado educativo o para establecer un sistema simbólico de premios y
castigos a las escuelas en función de sus resultados.
2. Establecer programas de apoyo a las escuelas más deficientes y aprender de los
mejores centros.
El primer propósito ha sido el más extendido, lo que lleva a preguntarnos por los
efectos que tienen los rankings públicos derivados de las evaluaciones. Incluso donde no
se publican puntajes crudos, sino medidas más refinadas de valor agregado, el uso de
rankings hace inevitable que haya ganadores y perdedores, y una vez que una escuela es
etiquetada como deficiente es difícil encontrar la manera de ayudarla, en un ambiente en
el que prevalecen actitudes de recriminación y reproche, impidiendo el surgimiento de
estrategias de mejora (Ravela, 2006).
1.3. Los excesos de la evaluación externa basada en estándares
25
No hay duda de que las reformas educativas basadas en estándares han convertido la
evaluación en un instrumento primordial para impulsar y sostener los cambios. El
principal problema surge cuando los sistemas de rendimiento de cuentas externos basados
en estándares se asocian a la política de libertad de elección de centros desligándose de
los procesos de mejora interna. En manos de una interpretación neoliberal, demasiado
lineal e infundadamente optimista, estas políticas hacen de la evaluación del rendimiento
una herramienta al servicio del mercado donde, supuestamente, las familias cuenten con
información sobre los resultados académicos de los centros y así puedan escoger
correctamente. No obstante, los resultados de rendimiento obtenidos reflejan solo
parcialmente la calidad del centro, no informan de los procesos, siendo más bien un
indicadorde la capacidad de selección social del centro o, dicho de otra forma, del nivel
sociocultural de sus estudiantes (Redondo et al., 2004). Un aspecto que critican estos
autores se refiere a que los instrumentos de medición de la calidad no recogen la
integralidad de la experiencia educativa, por lo que si se le considera el único instrumento
de medición puede generar una imagen distorsionada de lo que es la calidad global de la
educación obtenida. Las evaluaciones estandarizadas son poco adecuadas para conocer si
los estudiantes son pensadores innovadores, ciudadanos tolerantes y responsables,
culturalmente alfabetizados y otros resultados educativos valiosos (Stein, 2001; Willinsky,
2004). Existen modelos e iniciativas tendientes a medir el valor agregado de cada centro,
pero no suelen llevarse a cabo debido a limitaciones políticas y burocráticas.
Según diversos autores (Elmore y Fuhrman; 2003; Bolívar, 2003; Ravela, 2006), los
estándares de evaluación pueden generar mejoras en la educación solo cuando se dan
unas condiciones específicas y se hace un uso correcto de los mismos. De lo contrario,
tienden a generar efectos perversos. Entre los posibles efectos de los indicadores de
rendimiento centrados en el alumnado pueden citarse (Torres, 2006: 165-175):
a) Se reducen los contenidos a enseñar.
b) Los contenidos se acaban fragmentando en exceso, no solo en asignaturas, unas
al margen de otras, sino en temas o lecciones y listados o resúmenes a
memorizar.
c) Las perspectivas conflictivas del conocimiento se obvian a favor de un falso
consenso.
d) Se marginan todavía más las culturas tradicionalmente silenciadas en los centros
de enseñanza.
e) Se perjudica el aprendizaje de las niñas y los niños, en especial de los
pertenecientes a la clase trabajadora, de las familias sin empleo y en
situaciones de pobreza, de etnias minoritarias sin poder, etc. en la medida en
que las culturas silenciadas no se promueven, ya que no es posible que los
tests de evaluación se preocupen de ellas.
f) Se auspicia el regreso a estrategias didácticas más tradicionales y autoritarias
para trabajar en las aulas.
g) Se refuerza la política de libros de texto más estandarizados aún, construidos
26
con información que únicamente tiene como objetivo resaltar útil en las
pruebas de control de los indicadores.
h) La preocupación principal del profesorado vuelve a ser la disciplina y la cultura
del esfuerzo.
i) Se elimina la autonomía del profesorado, apostando, en consecuencia, por
prescribir y centralizar las decisiones sobre los contenidos escolares, con el
subsiguiente efecto colateral de contribuir a una mayor desprofesionalización
del profesorado.
j) Las políticas de estándares hay quien las defiende para “estimular” a los malos
profesores y profesoras, no a los buenos, a los que se proclama que no les
afecta, pero los resultados de numerosas investigaciones en otros países dicen
que también los acaban forzando a acomodarse a trabajar unos determinados
contenidos y a emplear metodologías más acordes con las formas en que se
evalúan los estándares.
k) Las relaciones del profesorado con la Administración llegan a ser siempre de
sospecha e, incluso, de temor.
l) Los resultados de las políticas de estándares contribuyen a construir un ranking
de centros.
m) Se incrementan los niveles de burocracia y los gastos en el sistema educativo.
n) Favorece la entronización del positivismo como única epistemología válida en
educación.
Todas estas cuestiones llevan a examinar la evidencia en torno a los efectos de las
actuales políticas de evaluación para el rendimiento de cuentas o accountability.
Desde fines de los años sesenta se ha medido el nivel de aprendizaje de los alumnos para
elevarlo, pero no ha sido evidente la forma de conseguirlo. Los sistemas de rendición de
cuentas o responsabilidad por los resultados, en particular aquellos que intentan
establecer presiones directas sobre distritos, escuelas y maestros para que mejoren los
resultados de sus alumnos, no siempre han traído consigo los beneficios prometidos. Al
menos, la evidencia empírica no muestra que se produzcan mejoras sostenidas en el
tiempo a partir de los mismos (Ravela, 2006). Según este autor, los rankings son modos
inapropiados de valorar la calidad de las escuelas, siendo cuatro los tipos de problemas
que presentan la mayoría:
a) Pretenden ordenar los centros en función de la “calidad”, cuando en realidad
utilizan un único indicador o, a lo sumo, unos pocos.
b) Ofrecen una falsa impresión de precisión en el ordenamiento.
c) No tienen en cuenta que, a nivel escolar, los resultados son altamente volátiles.
d) No consideran las diferencias en la composición social del alumnado y en los
recursos de los centros.
Carnoy y Loeb (2002), en un estudio sobre las reformas basadas en estándares de
27
los años ochenta y noventa en los EE.UU., encuentran que en aquellos Estados donde la
evaluación externa alcanza mayor presión se observa un incremento en las pruebas de
rendimiento. Sin embargo, esta relación entre el incremento de la política de rendimiento
externo de cuentas y los resultados escolares medidos en tests no garantiza una mejora
en el aprendizaje escolar global ni efectos sostenidos en el tiempo (niveles de graduación
posterior). Por otra parte, detectan que los centros que ya tienen mejores rendimientos
son los que responden mejor a las demandas de evaluación externa, por lo que puede
decirse que se trata de una política que mejora a los centros mejores. Dichos autores
ponen de manifiesto los límites de la evaluación externa como vía para obtener mejoras
en los procesos y resultados de la enseñanza, señalando los efectos perversos que pueden
llegar a generar.
El rendimiento del alumnado medido en test es el principal procedimiento que usan los estados
para detectar la mejora educativa. Sin embargo, las mejoras en los exámenes estatales pueden no ser
una medida exacta de los avances educativos, ya que los centros pueden sustituir la adquisición de
aprendizajes más duraderos en los estudiantes por estrategias que aumenten su desempeño en la
contestación a los tests particulares. Debido a esto, es importante utilizar medidas alternativas para
evaluar el éxito de estas políticas (Carnoy y Loeb, 2002: 305).
Los principales supuestos en que se apoya la perspectiva de la mejora basada en el
rendimiento de cuentas suelen ser demasiado simples, cuando no abiertamente ingenuos,
pudiendo resumirse así: como consecuencia de los resultados (y la publicidad) de las
evaluaciones, los diferentes actores concernidos (mediante las sanciones o incentivos
consiguientes) se esforzarán necesariamente en mejorar.
Sin embargo, existen pocas evidencias de que el rendimiento de cuentas de centros y
profesores mediante tests provoque, por sí mismo, una mejora de los resultados
educativos (Mehrens, 1998; Amrein y Berliner, 2002). Una de las críticas más
contundentes a los modelos de rendimiento de cuentas es la realizada por Elmore
(2003a). Para ese autor, las demandas de rendimiento de cuentas en la actual estructura
del trabajo docente y organización de los centros no funcionan, es decir, no provocan la
mejora y además no son razonables.
Uno de los autores que mejor ha sistematizado la crítica a los sistemas de
rendimiento de cuentas es el ya citado Pedro Ravela (2006). Según él, los sistemas que
buscan generar competencia entre las escuelas a partir de la publicación de rankings y de
la apuesta a que los padres “castiguen” a las escuelas que no tienen buenos resultados
retirando a sus hijos de ellas, pueden tener efectos no deseados e incongruentes con sus
propósitos. Estos son sus principales argumentos:
a) El efecto “chicle” en los sistemas de mercado competitivo. Una escuela con
buenos resultados tendría, como consecuencia de ello, una alta demanda en el
siguiente ciclo lectivo. Como su capacidad para recibir alumnos es limitada,
tendería a seleccionar a los mejores alumnos. De este modo el director se
aseguraría que sus resultados sean aún mejoresen la siguiente evaluación. Por
el contrario, las escuelas cuyos resultados no sean buenos, tenderían a perder
28
a los alumnos hijos de las familias más educadas, dado que éstas contarían
con más información y mayores recursos para desplazar a sus hijos. Dichos
centros se quedarían con los alumnos de las familias menos educadas, lo cual
determinará que sus resultados empeoren en la siguiente evaluación. De este
modo se generaría una dinámica de incremento o “estiramiento” de las
distancias en los resultados entre los extremos del sistema educativo, también
denominado “efecto goma de mascar”. Este fenómeno fue constatado por
Orlyo Mella (2003) para el caso chileno, donde se ha apostado fuertemente
por este tipo de esquema de responsabilidad por los resultados desde los años
ochenta.
b) Los sistemas de incentivos motivan a los que ganan y desmoralizan a quienes
pierden. Todo sistema de incentivos tiene ganadores y perdedores. Lo que
muestra la evidencia empírica es que quienes ganan los incentivos se motivan
y tienden a querer seguir participando en el sistema y mejorar para volver a
ganar. Lo mismo puede ocurrir con quienes no ganan pero quedan cerca de
hacerlo. Simultáneamente, se ha constatado también que quienes quedan lejos
de ganar se desmoralizan, tienden a creer que nunca lograrán alcanzar los
primeros lugares y a volverse indiferentes ante el sistema. Como
consecuencia, queda sin resolver el problema de cómo mejorar las escuelas
cuyos resultados son peores. El efecto desmoralizador puede afectar incluso a
escuelas que han hecho esfuerzos importantes y han logrado mejoras pero no
las suficientes como para compararse a otros centros.
c) Entrenar a los alumnos para responder a pruebas estandarizadas. Todo sistema
de evaluación estandarizada tiene como efecto dirigir una parte de la
preocupación y el tiempo de enseñanza hacia lo que las pruebas evalúan. Este
efecto es mayor cuanto más importantes sean las consecuencias de las
pruebas para escuelas y docentes. En sí mismo, esto no es malo, en realidad
es parte de los efectos buscados cuando se evalúa. El problema se plantea
cuando se vinculan consecuencias fuertes a pruebas que no son lo
suficientemente complejas y amplias, por ejemplo, cuando se emplea
exclusivamente pruebas de opción múltiple dado su menor coste para
evaluaciones censales. En estos casos puede ocurrir que la “mejora” educativa
se limite a entrenar a los alumnos para responder pruebas de elección múltiple.
Cuando las pruebas no tienen consecuencias fuertes, es más fácil que los
docentes puedan considerarlas como lo que son (indicadores de lo que los
alumnos están aprendiendo) y aprender de ellas sin estar presionados a
mejorar los resultados de cualquier modo.
d) La tentación o necesidad de “rebajar” los niveles de exigencia. Si los niveles de
exigencia de las pruebas son muy altos, se corre el riesgo de generar un
fracaso generalizado entre los estudiantes o entre las escuelas que, por
diversas razones (costes financieros, sociales o políticos, entre otros), obligue
a reducir los niveles de exigencia. Si los niveles de exigencia se “rebajan” para
29
evitar el fracaso mencionado, se corre el riesgo de adaptar las expectativas al
nivel promedio de la población escolar y transmitir a los docentes una señal
equivocada en cuanto a qué es lo que todos los alumnos deberían aprender.
Además, las pruebas externas, si son exigentes y tienen consecuencias para los
alumnos, seguramente generarán, al menos en una primera etapa, incrementos
en los niveles de fracaso y deserción.
e) Aliento a conductas de corrupción. Finalmente menciona el autor que todo
sistema de consecuencias fuertes tiene como efecto altamente probable el de
generar conductas reñidas con la ética profesional, tales como dejar a los
alumnos más retrasados fuera de la prueba, ayudar a los alumnos en la
prueba, etc., lo cual a su vez obliga a establecer sistemas de vigilancia y
control que muchas veces contribuyen a generar un clima hostil hacia la
evaluación.
Fuhrman (2003) señala la existencia de numerosas debilidades de los nuevos
sistemas de accountability de los centros basados en los resultados de los alumnos. Bajo
los nuevos sistemas de evaluación externa del rendimiento, y aunque algunos alumnos
están más en riesgo que otros, como señala Ravela (2006), son los alumnos en general
los que sufren las consecuencias, más que los adultos. Los adultos están en cierto sentido
protegidos por el hecho de que una escuela es un conjunto de individuos y, por ende, las
consecuencias se difunden a través de la organización en lugar de recaer en individuos
específicos; pero los alumnos sufren las consecuencias en forma individual.
Refiriéndose a las evaluaciones estandarizadas de rendimiento como un “gesto del
poder que quiere deslumbrarse a sí mismo con algo verdaderamente mega”, Ana Zavala
(citado en Ravela, 2006: 75) considera que:
…difícilmente pueden ser consideradas acciones educativas en la medida en que (siempre
fieles a la pasión cuantitativa) saber cuánto saben los estudiantes en general no tiene demasiado
sentido para alumnos o para profesores en particular. Tal vez si hubieran querido saber qué saben, la
cosa hubiera sido distinta, pero en la concepción de base de estos procedimientos llamados
evaluatorios, todos los estudiantes saben lo mismo, solo que algunos más que otros, y eso es lo
único que interesa.
Refiriéndose al caso belga, Vanhoof y Van Petegem (2005) dan estas razones del
limitado uso de los informes de evaluación estandarizados:
a) Falta de competencia para analizar la información estadística pues los datos son
demasiado formalizados y con elevada abstracción.
b) Falta de competencia en el uso de la información.
c) La demora entre la realización de las pruebas y la recepción de los resultados.
d) Los resultados no aportan nada nuevo y confiando más en intuición y la
experiencia directas.
e) Dudas sobre la comparabilidad de los resultados.
30
Ryan (2005) sostiene que los sistemas de evaluación de centros basados en las
pruebas de rendimiento estandarizado son sistemas de control jerárquico. Responden a
un modelo de eficacia que emplea indicadores de productividad, sin referencia a los fines
en sí, sino a la utilización de unos recursos para conseguir esos fines; en consecuencia, el
debate sobre los fines se obvia. Cumplen una función de auditoría, pero desligada de la
mejora de los procesos de enseñanza-aprendizaje, son sistemas que no generan
información formativa sobre qué hacer para mejorar la formación. Tampoco brindan una
información que responda a una visión global de un centro, sino que, en todo caso, un
centro es eficaz en relación con los resultados obtenidos en unas pruebas. Son sistemas
de control verticales: la escuela es auditada desde fuera pero ella no puede evaluar a las
agencias externas de otros niveles territoriales. Las perspectivas de familias, estudiantes,
docentes y administradores no son incluidas en las definiciones habituales de rendimiento
de cuentas. Frente a la evaluación de control externa propone una evaluación
democrática (democratic accountability), de forma que los resultados derivados de los
controles externos se incorporen a debates internos democráticos:
Los centros necesitan definir lo que significa “eficacia”, ser proactivos y menos reactivos, y
mejorar los procesos de enseñanza-aprendizaje, todos estos elementos ausentes en los sistemas de
rendimiento de cuentas. Propongo que los centros superen estas limitaciones de la evaluación
externa para el control y se impliquen en un sistema de rendimiento de cuentas democrático (Ryan,
2005: 536).
No se trata de desdeñar ningún tipo de evaluación, sino de distinguir qué tipo de
información facilita cada una de ellas, con el fin de utilizarlas adecuadamente. La
información que se provee externamente a los centros sirve para alertar a los
responsables educativos y a la sociedad de sus resultados en función de indicadores
estándares de rendimiento. Estos indicadores señalan problemas y necesidades existentesy apuntan una dirección general a la que dirigirse. Sin embargo, no aportan información
sobre por qué los estudiantes o subgrupos de estudiantes de un mismo centro o zona
obtienen diferentes niveles de rendimiento, y por tanto qué medidas correctoras deben
ser tomadas (Ryan, Chyler y Samuels, 2007).
Los resultados de las pruebas estandarizadas internacionales raramente son utilizados para
identificar las principales dificultades de aprendizaje y definir actuaciones de mejora en las prácticas
docentes en los centros. Con frecuencia, los resultados llegan demasiado tarde, de forma que los
profesores pueden haber cambiado… Es necesario ver a los centros como los destinatarios
principales de los resultados de las pruebas de evaluación (Azevedo, 2004: 79).
El gran desafío a la comunidad evaluadora reside en conseguir una confluencia entre
los propósitos de la evaluación y los del currículo. Tradicionalmente ésta es una cuestión
que se ha planteado, aunque no siempre resuelto, en el nivel del diseño curricular, como
requisito de la coherencia del trabajo docente. La cuestión se complica al desplazarse del
nivel de aula al nivel de sistema educativo mediante la generalización de la evaluación
externa basada en resultados, lo que desborda lo estrictamente curricular y docente,
31
introduciendo la perspectiva del rendimiento de cuentas y con ella sistemas de
recompensas y sanciones en función de los resultados.
Aunque los métodos de valor añadido han supuesto un avance metodológico, aislar
los efectos de los centros y los docentes sigue siendo complicado debido a la existencia
de variables omitidas o parcialmente medidas. Newton et al. (2010: 20) sostienen que
resulta improbable evaluar con precisión la aportación que cada docente particular hace al
aprendizaje del alumnado, dados los numerosos factores implicados en ese aprendizaje,
las limitaciones de los tests y métodos utilizados y la organización del sistema escolar.
Discuten posibles razones para explicar estos resultados, entre ellas la naturaleza
específica de las medidas de las evaluaciones y los métodos estadísticos utilizados, y
concluyen que se debe tener precaución al hacer inferencias sobre la efectividad de
profesores individuales basadas en modelos de valor añadido especialmente para
determinar resultados que puedan tener consecuencias severas, como la promoción u
otros incentivos profesionales.
Varios autores ya habían alertado de que la evaluación de rendimientos por sí sola no
produce mejoras en la educación, siendo necesario a la vez mejorar la capacidad de
docentes y centros para desarrollar la mejora. Smith, O’Day y Cohen (1990) sugieren
que no se produce mejora sin un desarrollo de la capacidad de cambio de centros y
profesorado. Cuando los profesores saben qué hacer y la organización actúa en apoyo de
sus esfuerzos para lograr los objetivos, ello aumenta la capacidad colectiva de las
instituciones para mejorar la educación. De aquí podemos derivar una conclusión
relevante: la necesidad de establecer nuevos modelos de evaluación de la calidad
educativa que contribuyan a la mejora del conjunto del sistema y no excluya a los centros
que más lo necesitan.
Las escuelas con bajo rendimiento, que son las que nos deben primariamente importar, no
mejorarán justo por clasificarlas como de bajo nivel, justamente porque carecen de capacidades
para hacerlo mejor y, además, porque llegar a niveles aceptables será fruto de un proceso (largo) de
desarrollo. La construcción de capacidades es, pues, la ´missing piece ́ de la reforma basada en
estándares (Bolívar, 2003: 2).
1.4. Tendencias que reclaman nuevas formas de evaluación
A continuación describimos brevemente varias tendencias en la organización y gestión de
los sistemas educativos que están demandando el desarrollo e implantación de nuevos
modelos de evaluación y rendimiento de cuentas.
1.4.1. Autonomía institucional de los centros educativos
La evaluación de centros tiene inevitablemente como trasfondo ideológico el debate entre
autonomía y control externo de los centros (McNamara y O’Hara, 2008). La evaluación
32
externa suele ir acompañada de un incremento en la toma de decisiones a nivel local. En
un contexto de políticas de evaluación externa, transferir la responsabilidad del
rendimiento escolar a centros y profesores tiene importantes consecuencias para el
modelo de trabajo docente y la organización de los centros (Bolívar, 2006). En la
actualidad pueden constatarse dos corrientes que pueden colisionar: la descentralización
de decisiones hacia unidades periféricas del sistema y el reforzamiento de los objetivos y
resultados a nivel regional y nacional. Estas dos tendencias, descentralización e
integración, autonomía y regulación, delegación y responsabilidad… actúan como dos
capas tectónicas cuyos movimientos explican gran parte de las tensiones y oscilaciones
que afectan a la evaluación. Cuando las políticas promueven la desregulación se origina
un movimiento hacia un tipo de evaluación, cuando se refuerza la centralización aparece
otro movimiento evaluador de diferente signo.
La autonomía de los centros facilita la autoevaluación, a su vez que la
autoevaluación contribuye a la autonomía de los centros, lo que potencia nuevas formas
de regulación internas. El desarrollo de procesos de autoevaluación no conlleva una
desregulación del sistema, sino una nueva forma de regulación que compagina el control
externo con procesos de reflexión interna.
La descentralización lo que hace generalmente es “sancionar”, esto es, legitimar la
capacidad (o incapacidad) existente en los centros, ya que se les asigna más
responsabilidad en las decisiones pero no siempre saben cómo ejercer efectivamente
dicha responsabilidad. Por lo tanto, las reformas descentralizadoras frecuentemente
tienden a aumentar las desigualdades en el desempeño estudiantil, ya que los estudiantes
de menores ingresos tienden a asistir a escuelas o zonas donde existen escasas
habilidades para sacar provecho de la gestión de sus recursos (Whitty et al., 1999;
McEwan y Carnoy, 2000; Torres, 2001; Carnoy, 2005).
Como señala Bolívar (1994a), el fracaso de las estrategias centralizadas podría llevar
a pensar que sólo estrategias descentralizadas, focalizadas en el centro escolar, podrían
hacer exitosa una reforma. Sin embargo, tal como postula Fullan (1994), tras revisar las
evidencias de las experiencias de gestión basada en la escuela, los esfuerzos en devolver
la toma de decisiones a los centros pueden alterar los sistemas de gobierno, pero no
afectan por sí mismos al núcleo docente, dada la ambigua conexión entre las estructuras
de gobierno y los procesos de enseñanzaaprendizaje. Según esto, las escuelas, como
otras organizaciones, no suelen iniciar cambios en ausencia de estímulos externos y los
sistemas descentralizados no necesariamente dan lugar a acciones docentes más eficaces,
haciéndose más difícil aún el rendimiento de cuentas. En consecuencia, este experto en
cambio educativo propone utilizar conjuntamente estrategias centralizadas y
descentralizadas, maximizar la combinación productiva de iniciativas de arriba, incentivos
y responsabilidad de un lado, con las iniciativas, el desarrollo y el rendimiento de cuentas
de abajo (Fullan, 1994: 199), a través de una coordinación descentralizada (Clune,
1993). El ejercicio de la autonomía institucional conlleva un incremento en el rendimiento
de cuentas externo que debe ser equilibrado por la práctica de la revisión interna.
33
1.4.2. Creciente diversidad de los centros
Las diferencias entre las instituciones no son sólo una consecuencia de la
descentralización o de su contexto específico. Son también resultado de cómo las
instituciones han ido acumulando con los años una cultura propia, más o menos explícita,
basada en múltiples ajustes, negociaciones y decisiones que han ido tomando a lo largo
del tiempo.
La singularidad de cada organización escolar requiere que se evalúe no sólo el
cumplimiento de los fines normativos (finalidades y valores del sistema),sino también los
objetivos que la propia institución escolar se ha propuesto, teniendo en cuenta el camino
recorrido por el centro en relación con una situación de partida dada o un resultado
obtenido anteriormente o la media de un conjunto de centros de condiciones similares,
sin olvidar que el valor añadido permite establecer correlaciones y no asignar causas, por
lo que debe ser usado como medio de estimación y no como evaluación final (Saunders,
2001; Azevedo, 2004).
La tendencia creciente al benchmarking (comparación entre sistemas organizativos),
nacional e internacional, tiene a medio plazo importantes efectos. Por un lado, contribuye
a una mayor uniformidad de unos sistemas educativos que, en general, en los últimos
años han evolucionado hacia modelos descentralizados. Por otro, aumenta el peligro de
imitación acrítica de prácticas educativas, especialmente en países donde no existe una
gran tradición de evaluación del sistema educativo y donde los indicadores
internacionales se convierten en instrumentos directos de política educativa. En el caso
de la universidad, esto puede verse en países como el nuestro, donde los indicadores de
los rankings internacionales son con frecuencia interpretados de manera lineal por los
gestores de turno.
Es dudoso el impacto que puedan producir los indicadores de rendimiento
internacional sobre la mejora de los centros escolares. No decimos que de ellos no se
puedan derivar orientaciones y sugerencias interesantes para gestionar las políticas
educativas, sino que es difícil que esas sugerencias tengan una incidencia real en el
currículo impartido. Al fin y al cabo, se trata de una perspectiva jerárquica, donde
expertos superiores dan instrucciones de mejora descontextualizadas y muy alejadas de la
realidad de los centros.
Frases como hay que evaluar para conocer los efectos del sistema o sin evaluación
no es posible mejorar son muestra del reduccionismo retórico del lenguaje político-
legislativo cuando se refiere a la evaluación de centros y docentes como instrumento de
calidad (Sugrue, 2006). Sin embargo, los objetivos externos impuestos a los centros por
la administración junto con el incremento de la toma de decisiones por el centro
incrementan sensiblemente la complejidad de los procesos de evaluación.
Actualmente, uno de los principales retos en el ámbito curricular es cómo abordar la
evaluación de competencias. Si tenemos en cuenta que se trata de configuraciones de
capacidades que se expresan de distinta manera según el contexto, podemos deducir la
dificultad para ser evaluadas mediante procedimientos estandarizados.
34
1.4.3. Limitaciones de los sistemas de inspección
El alto coste y la ineficacia de los sistemas de inspección externa están impulsando las
iniciativas de autoevaluación. Ya en 2003 John MacBeath hizo constar que la
autoevaluación está teniendo un gran auge en los países más avanzados
económicamente. Para la comunidad de evaluadores, esto no deja de ser sorprendente,
pues significa un cambio importante en la orientación de su trabajo tradicional, al pasar
de ser técnicos externos a agentes de cambio en un ciclo de mejora institucional. Esto ha
llevado durante los últimos años a un notable desarrollo teórico, práctico y legislativo de
los marcos y modelos de autoevaluación. Pero, lo que parece que no se ha desarrollado
tanto es la capacidad e interés de los centros y los profesores para implicarse en los
procesos autoevaluativos (McNamara y O’Hara, 2008).
Los sistemas de accountability no parecen movilizar nuevas capacidades por sí
solos; las respuestas de las escuelas a ellos dependen fuertemente de la capacidad que ya
tienen. Como señala Elmore (2003b: 10), “el mejor predictor de la forma como
responderá un centro a la introducción de una innovación es su cultura y capacidad
organizacional previa”.
Según este autor, a medida que aumenta la presión, las escuelas con baja capacidad
tal vez agreguen contenidos y soluciones académicas, pero sin el desarrollo deliberado de
capacidades es poco probable que logren grandes mejoras en su capacidad instructiva
medular. Los centros que prestan más atención al éxito académico y cuentan con mayor
capacidad para lograrlo frecuentemente responden a las presiones de accountability de
maneras que refuerzan su perspectiva y coherencia académicas.
Las “nuevas” orientaciones de la gestión de la escuela (descentralización, autonomía
escolar, liderazgo participativo) han movilizado las resistencias a las medidas de vigilancia
y control impositivo que sitúan al profesorado en la condición de agente subordinado a
las reglas dictadas por otros estamentos. La evolución del papel y la función de las
inspecciones escolares han llevado a plantear nuevas formas de seguimiento promovidas
desde el interior de las organizaciones. El concepto de autorresponsabilidad institucional
se considera que debe ser compatible con el de supervisión externa.
MacBeath y McGlynn (2003) sugieren que la inspección debería considerar en
primer lugar si existe alguna forma de autoevaluación en los centros y, en ese caso, cómo
es la misma. En numerosos países la inspección informa sobre la calidad de la
autoevaluación escolar, lo que expresa a la vez respeto y apoyo a la autonomía de los
centros (Van Amelsvoort, 2001). Más aún, los mismos resultados de la autoevaluación
pueden condicionar el contenido, la forma y la frecuencia de la intervención de la
inspección (Inglaterra, Holanda, Escocia y Baja Sajonia).
1.4.4. Insuficiencia de la evaluación externa
De acuerdo con el principio de la “práctica reflexiva” (Schön, 1987), transformar
35
unidades de trabajo tan complejas como las escuelas requiere enfrentarse a problemas
que son a la vez globales y específicos, teniendo en cuenta los diferentes factores que
inciden en su progreso. Las “nuevas” teorías de la organización ven a las escuelas como
organizaciones que se caracterizan por la ausencia de consenso y la diversidad de metas;
lugares de confrontación ideológica, donde están en juego recursos, carreras y
reputaciones; campos de lucha, divididas por conflictos entre sus miembros, débilmente
coordinadas e ideológicamente diversas (Weick, 1985; Ball, 1989). Bien se resalte su
“celularismo” o su fuerte componente micropolítico, las escuelas son vistas como
organizaciones con rasgos distintivos (Gairín, 1996; Santos Guerra, 1997): indefinición
de metas, ambigüedad tecnológica, dificultad para establecer estándares de actuación,
debilidad estructural, dependencia de recursos externos, falta de tiempo para la gestión,
difícil control externo del trabajo, etc. Pero el hecho de que los centros sean
organizaciones con rasgos propios o específicos no significa que no sean evaluables, en
todo caso serán evaluables de una manera diferente a las de corte empresarial, es decir,
aplicando métodos alternativos adaptados a la naturaleza de su trabajo.
Esta especificidad de las organizaciones escolares se manifiesta especialmente a la
hora de promover cambios en profundidad en su interior. Los resultados de muchas de
las iniciativas de reforma escolar han sido decepcionantes (Sarason, 1990), esencialmente
aquellas basadas en las políticas de reestructuración escolar, al prestar poca atención a las
condiciones que permiten crear en los centros capacidad para incorporar tales cambios
(Fullan, 1999). Construir la capacidad de la organización implica crear oportunidades y
experiencias para la colaboración y el aprendizaje mutuo, supone que las personas tienen
confianza en su capacidad, en la capacidad de sus colegas y en la del centro para
promover el desarrollo profesional (Mitchell y Sackney, 2000). El desafío de las reformas
educativas estriba en la dificultad para mantener las iniciativas de cambio (Usdan y
Cuban, 2002). Cuando no se presta atención a la capacidad y condiciones internas de los
centros, el trabajo innovador termina siendo marginado (Hopkins et al., 2000).
Adams y Kirst (1999), tras distinguir entre diferentes sistemas de rendimiento de
cuentas (burocráticos, legales,

Continuar navegando