Las repeticiones de curso y la evaluación de políticas públicas

Un sistema educativo ineficaz o un currículum mal diseñado pueden sin duda lastrar el potencial de desarrollo del alumno en el futuro, así como su contribución al progreso económico y el bienestar social

Estas últimas semanas la prensa y las redes sociales han sido testimonios de un acalorado debate acerca de las repeticiones escolares. El decreto de evaluación recogido el borrador de la nueva ley educativa, la LOMLOE, establece que la repetición de un alumno en la ESO no dependerá del número de suspensos sino de la decisión del claustro de profesores. El 30% de los alumnos españoles de 15 años ha repetido al menos una vez, un porcentaje alejado de la media de la OCDE, que se sitúa en el 13%.

Los críticos afirman que la reforma resultará lesiva tanto para el alumno que no disponga de las competencias necesarias para pasar de curso como para los compañeros agraviados. Sin embargo, la evidencia científica disponible parece indicar que, en la mayoría de los casos, la repetición de un año es perjudicial para las posibilidades de éxito académico de un estudiante. Los alumnos que repiten curso hacen un promedio de cuatro meses menos de progreso académico a lo largo del año.

Además, los estudios sugieren que es poco probable que los alumnos que repiten un año se pongan al día con sus compañeros, incluso después de completar un año más de escolaridad. También sugieren que los estudiantes que repiten un año tienen más probabilidades de abandonar la escuela antes de completarla.

En líneas generales, la literatura muestra que se trata de una de las intervenciones educativas menos coste-efectivas. En el caso de España, una investigación reciente financiada por el gobierno vasco (De la Rica et al, 2019), elaborada a partir de datos longitudinales de alumnos de ESO, muestra que los alumnos repetidores tienen una probabilidad un 20% mayor de abandonar la escuela dos o tres años después.

Durante décadas el debate sobre las sucesivas reformas educativas en España – la LODE, la LOGSE, la LOE, la LOMCE, la LOMLOE – se ha basado en modas pedagógicas y apriorismos. La evaluación basada en la evidencia ha estado ausente del debate. Cuando se decide financiar nuevos programas educativos, rara vez vienen acompañados de una evaluación de impacto. Peor aún, en ocasiones se toman decisiones contrarias a la evidencia empírica existente.

En el ámbito de la medicina y la epidemiología, los experimentos aleatorizados son la práctica habitual para realizar evaluaciones de impacto. Para obtener la aprobación de un fármaco es obligatorio realizar un experimento aleatorizado que debe demostrar que dicha molécula es más efectiva que un grupo control (un placebo o los fármacos existentes en el mercado) y que los afectos adversos son limitados en relación con los beneficios.

Es relativamente sencillo aplicar el mismo método en educación, con pequeños grupos piloto, contrastando hipótesis sobre la efectividad de determinados programas formativos o métodos pedagógicos. Evidentemente, un sistema educativo ineficaz o un currículum mal diseñado no pueden causar la muerte a los alumnos, pero sin duda pueden lastrar su potencial de desarrollo futuro, así como su contribución al progreso económico y el bienestar social.

La información que generan grandes estudios cuantitativos como PISA, TIMMS, PIRLS, etc. permite discutir sobre los méritos de distintos sistemas educativos. Sin embargo, es difícil extraer conclusiones robustas sobre los factores que determinan el éxito educativo. Por ejemplo, los estudiantes de Finlandia y Corea tienen puntuaciones muy altas pero sus sistemas educativos son muy diferentes en múltiples dimensiones. La ventaja del método experimental es que puede establecer una relación causal creíble entre la introducción de un determinado programa pedagógico, política o reforma y el impacto concreto en el desempeño de los alumnos.

Un buen ejemplo que muestra la dirección correcta es el programa de tutorías de matemáticas Menttores, coordinado por EsadeEcPol y la Fundación Empieza por Educar. Las tutorías mejoraron las notas en matemáticas un 17% respecto al grupo control, lo que equivale a unos seis meses de aprendizaje. Desafortunadamente, se trata de un caso aislado de evaluación en la educación española.

La ministra de Educación, Pilar Alegría durante la sesión de control que se celebra, este miércoles, en el Congreso de los Diputados. EFE/ Juan Carlos Hidalgo

El Departamento de Educación de los Estados Unidos mantiene una base de datos llamada “What Works Clearinghouse”, que sintetiza la investigación sobre intervenciones educativas con el objetivo de elaborar guías prácticas para maestros estadounidenses. En una línea parecida el Education Endowment Fund del Reino Unido, mantiene una base de datos con metaanálisis de estudios sobre la efectividad de tres docenas de intervenciones educativas. Gracias a este último, hoy tenemos evidencia que dar ordenadores personales a cada estudiante, como el programa español Escuela 2.0 establecido en 2010, no tienen un efecto significativo en el desempeño escolar, mientras que el aprendizaje en pequeños grupos, o el uso colaborativo de la tecnología, sí parece tener un impacto positivo.

Toda política pública debería ser evaluada antes (ex ante), durante (in itinere) y después (ex post) de su introducción. La evaluación independiente, presente de forma sistemática en países como Dinamarca, Reino Unido, Canadá u Holanda, debería impregnar toda la acción de nuestras instituciones, tanto por parte del ejecutivo como del legislativo. Es por ello por lo que desde el Instituto Ostrom y la Asociación Catalunya Sense Límits, hemos puesto en marcha una campaña – mesurarperavançar.cat – para retar a nuestros políticos a incorporar estos principios a su acción diaria.

Ahora en portada