José Saturnino Martínez, profesor de Sociología en la Universidad de La Laguna y director de la Agencia Canaria de Calidad Universitaria y Evaluación Educativa, es uno de los mayores expertos españoles en el Informe PISA. Nacido hace 55 años en Las Palmas de Gran Canaria (en el barrio de La Isleta, precisa), Martínez empezó a estudiar hace dos décadas la gran evaluación en matemáticas, lengua y ciencias que la OCDE realiza regularmente a estudiantes de 15 años. Y lamenta que la mayor parte de los análisis sobre PISA se limiten a encontrar aquello que iban buscando.
Pregunta. Usted defiende el gran peso del contexto socioeconómico de los estudiantes en sus resultados educativos, pero admite que su previsión de que el rendimiento de España aumentara a medida que dichas condiciones mejoraban se ha visto defraudada. ¿Por qué?
Respuesta. Partimos de la base de que lo que más influye en el resultado de un alumno es el nivel educativo de su madre. Y si en el año 2000 uno comparaba el nivel educativo de las mujeres de 40 años con las de 20, comprobaba que estas últimas tenían más estudios, y la proyección te llevaba pensar que 20 años más tarde habría más mujeres universitarias madres de alumnos y que por tanto la media de los resultados aumentaría. Lo mismo sucedía con otro elemento que suele considerarse beneficioso para el rendimiento de los estudiantes a largo plazo, que es la educación infantil. Si mirabas el porcentaje de alumnos matriculados en la etapa de 3 a 5 años en los años ochenta y noventa, y los de estas dos últimas décadas, se ve que ha habido un gran aumento. Así que yo, como otros, pensábamos allá por 2003 que ambos factores harían que el rendimiento mejorara de forma inercial en las sucesivas oleadas de PISA. Pero nuestra sorpresa es que eso no se esté produciendo, y no solo en España. Hay países donde los resultados mejoran, que suelen sitios donde los niveles eran muy bajos, y otros donde empeoran, que suelen ser lugares donde los niveles eran altos, aunque tampoco ocurre siempre.
P. ¿A qué lo atribuye?
R. Lo estoy analizando, pero no me atrevo a dar una respuesta hasta que lo haya estudiado bien. De momento, lo que me ha llamado la atención es la enorme cantidad de mujeres con estudios superiores que aparecen como madres de los alumnos de 15 años que se examinan ahora en PISA, casi la mitad. Es posible que la asociación que observábamos entre nivel educativo de las madres y resultados de los hijos, haya variado y ya no sé dé tanto. ¿Por qué? No lo sé. Es posible que, al haber más madres universitarias, dicho nivel de estudios señaliza ahora en menor medida la calidad educativa, entre comillas, de la madre. O puede ser que, como se ha proletarizado el trabajo de las madres universitarias, las pobres están tan agobiadas que ya no pueden estar tan pendientes de los estudios de sus hijos como antes. No lo sé, tengo que mirar más datos, aparte de que no solo influye el nivel de estudios de la madre.
P. Dice que ser coreano influye más que vivir en Corea del Sur en los resultados educativos. ¿Qué quiere decir?
R. Es como si hubiera una sustancia de la coreanidad, que determina los resultados educativos no solo de los alumnados coreanos en Corea, sino también cuando están viviendo (de primera generación o incluso posteriores), por ejemplo, en Estados Unidos. Es algo sobre lo que también necesitamos más investigación que quizá se podría atribuir a la tradición educativa de un país. Tanto en Corea como en otros países asiáticos existe tradición de supervisar a los chavales por parte de las familias y, por ejemplo, de más juegos matemáticos infantiles a través del ábaco. Es posible que esa tradición familiar de fomento de la educación y la cultura se sostenga cuando las personas cambian de país. Es llamativo también el caso de los alumnos turcos en Alemania, que tienen resultados más próximos a los de los turcos de Turquía. Y también lo vemos aquí en Canarias, donde, a pesar del idioma, en promedio obtienen mejor resultados los estudiantes que proceden de Alemania que de América Latina. Lo que me parece importante de ello es que la gente atribuye muchas veces los resultados a cuestiones de políticas educativas del país, cuando el propio informe PISA advierte que la variabilidad de los resultados del alumnado reside en un 88% en factores que no son el país, sino otros, como el factor individual (el cual incluye el nivel socioeconómico y cultural familiar) y el del centro educativo donde estudian.
P. ¿Qué opina de la evolución de España en la prueba?
R. En los últimos 10 años ha habido una tendencia un poco a la baja en matemáticas y en lengua, no en ciencias, que se ha acentuado con el coronavirus. Creo que puede decirse que hay algo que está cambiando, y que el coronavirus puede complicarnos la interpretación. Es algo suave, que en España además lo está siendo más que en otros países. Nunca habíamos estado tan cerca de la media de los países europeos.
P. ¿A qué se debe esa tendencia a la baja?
R. Es algo que quiero investigar. Ver hasta qué punto lo que cambia es la composición de la población, por ejemplo, de porcentaje de inmigrantes (PISA considera como tales tanto a los de primera como de segunda generación). O hasta qué punto lo que cambia es la relación de las variables con los resultados, como lo que hablábamos en relación con el efecto del nivel de estudios de la madre.
P. Ha considerado usted errático el cambio de la OCDE respecto a cuántos puntos de diferencia en los resultados equivalen a un curso académico, que en su día se consideraba como tal unos 40 puntos, y en la última edición se han reducido a 20.
R. La propuesta de este año parte de una serie de informes que avisan de que se trata de una cuestión orientativa, que no se puede interpretar de forma automática para traducirlo en cursos académicos, y que hay que tener cuidado a la hora de hacer comparaciones entre países. Es decir, los mismos que lo proponen piden mucha precaución. Pero lo que me preocupa de verdad es que, si nos tomamos en serio lo que dice ahora el informe, y 20 puntos equivalen a un curso, eso quiere decir que un año de escolarización sirve de muy poco, porque la propia PISA divide las puntuaciones que obtienen los estudiantes en ocho niveles de competencias, cada una de las cuales vienen ser como el triple dichos 20 puntos. Lo que sucede es que rebajar la equivalencia de un curso de 40 puntos, como se hacía antes, a la mitad facilita el alarmismo, el catastrofismo, los pinchazos en los titulares de las noticias web. Decir que a pesar del coronavirus las cosas están más o menos como estaban, no es lo mismo que decir: occidente se extingue porque hemos caído 20 puntos en PISA.
P. Su conclusión es que extraer conclusiones sobre los resultados de PISA es extremadamente complejo.
R. Mi idea es que se puede trabajar con PISA. Pero es como si te sacan una radiografía y se pone todo el mundo a comentarla, a pesar de que la gran mayoría no son expertos en radiología ni en huesos. Interpretar bien PISA se requiere un saber muy especializado, que no está muy extendido. Y mucha gente, además, solo ve lo que quiere ver. En muchos análisis, sus autores encuentran lo que han ido a buscar.
P. ¿Qué opina cuando ve que las variaciones en los resultados se atribuyen de forma casi exclusiva a una sola causa?
R. Me parece una tomadura de pelo, porque es algo complejo, que requiere muchos matices y contextos. Decir que las cosas han cambiado porque cambió la ley o porque los estudiantes ahora usan teléfonos móviles, no es serio. Creo que los datos tienen utilidad, iluminan. Pero se ha generado un debate, tanto de expertos como mediático, en el que no hay interés por saber lo que dicen realmente los datos. Hay interés en desplegar la agenda propia sobre los datos.
Puedes seguir EL PAÍS Educación en Facebook y X, o apuntarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites
_