Lucas Sempé | EDUCACCIÓN
La reciente Resolución Ministerial 275-2020-MINEDU ha suspendido la realización de la Evaluación Censal de Estudiantes (ECE) y la Evaluación Muestral (EM) en el año 2020. Ello implica un terror de los estadísticos, llámese “interrumpir la serie histórica” de los datos. A mí eso no me preocupa, ni antes, ni ahora. Lo que sí me preocupa es que se pierda una oportunidad para repensar un sistema de evaluaciones estandarizadas cuya utilización en la política pública esté centrada en los usuarios finales, llámese profesores, escuelas, y UGEL.
Quisiera centrarme en el principal párrafo que justifica el acto administrativo de dejar sin efecto la implementación de las evaluaciones, donde se presentan dos principales razones para la no realización de las evaluaciones estandarizadas, que literalmente dice así:
“Debido a la suspensión de actividades escolares presenciales por el estado de emergencia nacional, la emergencia sanitaria para la prevención y control del COVID-19, la situación de aislamiento social y el estado de ánimo generalizado por la pandemia, hacen que las condiciones de aprendizaje de los estudiantes de educación básica, no sean las de un año escolar típico y que difícilmente las estrategias de aprendizaje a distancia y de recuperación de clases logren recomponer en su totalidad las condiciones ideales de aprendizajes afectadas por la pandemia; en ese sentido, dadas las condiciones del sistema educativo afectadas por la crisis del COVID-19, no resulta pertinente desarrollar la ECE 2020 ni la EM 2020 a los estudiantes de las instituciones educativas…”
En mi opinión las razones esgrimidas son las que me llevan a afirmar la imperiosa necesidad de realizar evaluaciones estandarizadas en el año 2020. Paso a explicar mi argumento.
En primer lugar, al estar en un año escolar atípico, no sabemos qué está pasando en términos de aprendizajes. No sabemos si los estudiantes que están por salir al mundo laboral o de educación superior tendrán brechas fundamentales que deban ser subsanadas. O, por ejemplo, el proceso de enseñanza/aprendizaje de lectoescritura y conceptos matemáticos, donde el rol del docente es crítico para acompañar de forma personalizada el avance de los estudiantes.
Sin diagnósticos claros, los docentes y escuelas harán planificaciones del año 2021 a ciegas. Puede que esperen que la media de sus estudiantes esté en un cierto nivel cuando no lo están. ¿Podemos esperar 1 a 2 meses más del año 2021 hasta que los profesores y escuelas ajusten sus planificaciones a la realidad? ¿Tendremos que priorizar competencias, reducir expectativas en niveles a ser alcanzados, modificar estrategias pedagógicas para que sean más efectivas en menos tiempo? No creo que podamos respondernos eso sin saber en qué situación se encuentran los estudiantes, las UGEL, las Regiones y el país en su conjunto.
La segunda razón esgrimida es en realidad una hipótesis a la que yo también me adhiero. La lógica del documento propone que las estrategias de aprendizaje a distancia y recuperación de clases no son efectivas de forma homogénea. Y suena sensato. No podemos esperar que los estudiantes, cuyas características y contextos difieren enormemente, aprendan por igual. Donde, por ejemplo, grados de autonomía en aprender varían (edades, sexo, estilos, etc.), de acceso a recursos externos, o el mayor o menor apoyo o condiciones en la familia pueden variar, los efectos de las estrategias a distancia serán diversos. Aquí podrían darse dos o tres escenarios, y una combinación de estos: uno es que la brecha entre aprendizajes aumente dado que el docente no puede apoyar durante un año al que más requiere de ayuda. El otro es que la mayor parte se vea afectada, donde en general se retrasa el proceso de adquisición de competencias. Una tercera alternativa es el caso de estudiantes que superan, al menos en algunas áreas, el desarrollo de las competencias esperadas (lo planteo teóricamente, aunque no creo que ocurra en demasía, lamentablemente).
Dado que la educación en el 2021 no será simplemente la continuación inercial o con menores ajustes de las competencias desarrolladas en el año 2020, es necesario tener un claro punto de partida. Ello de cara a hacer un uso más efectivo y eficiente de recursos, a focalizar y priorizar políticas y acciones y, sobre todo, de aprovechar el COVID-19 como un partidor de aguas para las evaluaciones estandarizadas.
¿A qué me refiero?
Hasta el presente, hay muy poco uso de las evaluaciones estandarizas a nivel de la escuela y UGEL (Sempé et al, 2017). El uso además es superficial, y en muchos casos, en detrimento de los aprendizajes (por ejemplo, elaboración de rankings que no consideran factores contextuales). Más bien, el uso se ha concentrado en el Ministerio de Educación, que también lo ha usado poco y mal (un ejemplo es la transformación implícita de la ECE en una prueba con altas consecuencias, como otorgar dinero a cambio de mejoras).
Al igual que otras evaluaciones de larga-escala como las distintas evaluaciones de la carrera docente, PISA, TIMSS, la ECE y EM podrían proveer información valiosa y útil para la mejora de los procesos pedagógicos. Allí está el giro que propongo. Ello implica, a mi entender, al menos cuatro aspectos para el año 2020:
- Diseñar evaluaciones que sirvan más a los estudiantes, la escuela y las UGEL. Me refiero no sólo a la elaboración de los ítems que se preguntan sino a una lógica integral de comprensión y comunicación de los aprendizajes evaluados. La UMC ha venido durante años haciendo un esfuerzo titánico en comunicar, movilizar, explicar, pero ello no es suficiente dado que la dimensión de la tarea excede su rol, prioridades y recursos. Aquí el link para que vean todo lo que hacen: http://umc.minedu.gob.pe/. Pero tenemos que pensar que las áreas pedagógicas articulen un diseño de evaluaciones que permita, por ejemplo, un refuerzo a la implementación del diseño curricular, priorizando (sí, priorizando) competencias, contenidos, entre otros. Ello implica que las evaluaciones son parte del paquete de herramientas que el MINEDU ofrece, y no algo paralelo al mismo. Obvio es decir que la lógica de fiscalización, publicación de rankings, uso vinculado a recursos no tiene mayor sentido aquí.
- Obviamente hay problemas logísticos serios, así que creo que hay que pensar en las pruebas mismas. Yo sugiero una evaluación de forma modular (menos ítems y varios módulos), en forma de juegos virtuales, que permitan ser accedidos por medio de un celular o Tablets a lo largo de una cierta ventana de tiempo. Eso para fomentar la participación, y al mismo tiempo para recolectar datos a gran escala, que pudieran ser procesados automáticamente ya sea con una lógica sencilla de Teoría clásica de test o más complejos de Teoría de Respuesta al Ítem usando “Computer Adaptative Testing”. Creo que podemos convocar estudiantes de ingenierías y computación a una “evaluatón” y que ayuden a elaborar plataformas. También creo que se puede conversar con operadoras para que el acceso a esa página específica no genere gasto en datos móviles, o hasta llegar a hacer lo mismo con SMS.
- Alternativamente, una lógica de evaluaciones sencillas tipo ASER (http://www.asercentre.org/), utilizadas en países con muchos menos recursos que el Perú también podría ser una herramienta útil en dos sentidos. Para extender el alcance del recojo de información y para involucrar a los maestros en el proceso de diagnóstico de sus estudiantes. Lo más importante es que podamos cubrir la mayor cantidad de grados, al menos priorizando competencias por grado.
- Finalmente creo que como sistema educativo tenemos que entender, a grandes rasgos, qué ha pasado en el año 2020. Eso para poder acercarnos a estimar la magnitud de las brechas inter-temporales. Para ello necesitamos de una evaluación cuya muestra refleje al menos el estado de cada región. Nada tan complejo como la EM 2019, que evaluó a 125,000 estudiantes en 2do y 4to grados en 124 estratos, con una cobertura por encima del 95.8%-97-8% (UMC, 2019). Eso corresponde a alrededor del 25% del universo de estudiantes de sus grados y no es viable. Una muestra aleatoria de 400 estudiantes por región en dos grados sería suficiente para tener una buena aproximación a nivel nacional (desagregando por público/privado, rural/urbano, sexo) y gruesa a nivel regional (sin desagregar los resultados).
Cabe indicar, sin embargo, que no estoy sugiriendo hacer la ECE o EM según formato tradicional (ver excelentes reportes técnicos en link de UMC que describen a detalle el diseño de la evaluación, muestreo, modelos, etc.). No lo sugiero porque creo que el costo-beneficio de la ECE ya es negativo hace varios años, y ha habido una transición importante hacia evaluaciones muestrales, que permiten un análisis en mayor profundidad, a más grados, y con diseños donde, por ejemplo, se acompañe el desempeño de ciertas cohortes. Todo ello para producir información importante para los decisores de política.
Queda claro que la evaluación no tendrá los rigurosos estándares de la UMC. Pero creo que necesitamos conocer, primero las escuelas, y subiendo en la cadena de mando, el estado de la cuestión en términos de competencias adquiridas o no, la magnitud de las brechas intra e inter-escuelas, y lo mismo entre UGEL y Gobiernos regionales.
Eso implica que no podemos actuar con planificaciones y presupuestos como si todo estuviera igual, porque no lo está. Antes de la pandemia, sabemos que hay problemas en la repartición de recursos, atención a poblaciones más vulnerables, y problemas endémicos de calidad. Bueno, ahora no sabemos si siguen en los mismos lugares, o si hay otros que han empeorado más.
Londres, 10 de agosto de 2020
REFERENCIAS
Sempé, L., Andrade, P., Calmet, F., Castillo, B., Figallo, A., Morán, E., … & Verona, O. (2017). Evaluación de uso de informes de la Evaluación Censal de Estudiantes en la Escuela.
UMC (2019). Reporte técnico de las Evaluaciones Censales y Muestrales de Estudiantes 2019. http://umc.minedu.gob.pe/wp-content/uploads/2020/07/RT-Evaluaciones-2019.pdf

