lunes, abril 06, 2009

La investigación que todo lo aguanta

Por ejemplo:
El informe [evaluación de 6º de Primeria del Instituto de Evaluación] señala un dato sobre la importancia del profesorado, desde un punto de vista que celebrarán los sindicatos: la diferencia entre que los alumnos tengan un profesor que disfruta de una situación estable en su puesto de trabajo, o uno en una situación muy inestable es de 28 puntos a favor de los primeros. Los resultados de los que tienen un profesorado bastante estable (248 puntos) o poco estable (237) también se quedan por debajo de la media. (El País, 06/04/09).
Hipótesis para explicar este resultado:
  • Los profesores estables tienen más experiencia. Estabilizar por decreto no aportaría nada.
  • Los profesores estables no tienen que andar preparando oposiciones y pueden dedicarse a sus alumnos. Estabilizar aportaría.
  • Los profesores estables tienen un puñado largo de puntos para pedir un buen destino. Ni locos se van al último barrio marginal, donde están los chavales más conflictivos, los que necesitarían de profesores con amplia experiencia. El sistema de distribución de profesores es socialmente injusto y estabilizar puede incluso restar.
Eso, sin darle demasiado a la cabeza. Seguro que si ustedes se ponen pueden generar unas cuantas hipótesis adicionales. Por desgracia, todas ellas son compatibles con los datos y el informe del Insituto de Evaluación no permite descartar ninguna.

En España se ha abierto el festival de la evaluación educativa. Evaluaciones por Comunidades, nacionales, de Infantil, de Primeria, de Secundaria, de Lengua, de Matemáticas, de Inglés, de educación cívica... Y seguimos sin tener claro que la base para poder extraer cualquier conclusión pasa por: (a) que la conclusión se ajuste a los resultados; y (b) poder descartar razonablemente todas las explicaciones alternativas.



El gasto por alumno de Primaria se dispara y los resultados no acompañan. Seguimos, más o menos, donde estamos. (A falta de leer el informe, por el momento sin acceso al público). Quizá si no hubiéramos gastado más, todavía iríamos peor. Quizá unos cuántos políticos tendrían que dar la cara por dilapidar un dinero que no ha conllevado mejora alguna. Pero, ya se sabe, lo importante es poder fardar de gasto por alumno, no de buenos alumnos.

Gracias, Folken.

2 comentarios:

  1. El festival de la evaluación educativa es falso. No hay evaluación digna de tal nombre sin transparencia. Ni siquiera publican resultados por comunidades autónomas, para qué vamos a hablar de hacer públicas las bases de datos de todos los estudios, que ya llevamos unos cuantos, y salvo excepciones insuficientemente analizados.

    ResponderEliminar
  2. Tres comentarios:
    a) Empiezan a publicar resultados por CC.AA. Ahora bien, esto presenta algunos problemas importantes. Los diseños muestrales se confeccionan para conseguir representatividad a nivel nacional, no regional, por lo que, a veces, se presentan datos incomparables. Y no sólo por que se disparen los errores típicos, sino porque se compararían muestras desequilibradas en variables importantes. Dicho esto, reconozco el absurdo que supone que las comparaciones intrapaís tengan que venir del PISA, teniendo datos propios.
    b) Empiezan a hacer públicas algunas bases de datos. Por ejemplo, el CIS empieza a hacer accesibles los datos, algo que era impensable hace poco. A ver hasta dónde llega esta línea de apertura.
    c) Sí, hay festival evaluativo. Miles de niños pasan exámenes y más exámenes. Lástima que sea para posteriores análisis pobres. El día que vea a algún responsable de estos estudios publicando en alguna de las revistas serias de medición educativa se elevará mi confianza en estos menesteres patrios.

    ResponderEliminar