¿Es posible convertir las encuestas de evaluación del profesorado en instrumentos fiables para medir la calidad docente?


La respuesta corta es que no. Si tienes curiosidad, puedes seguir leyendo y te explicaremos con algo más de detalle los motivos.

Como ya contamos en un post anterior, las encuestas de evaluación del profesorado (EEP), es decir, esas encuestas en las que los alumnos evalúan a sus profesores, siguen siendo fuente de polémica. Los sesgos no instruccionales (fatores ajenos a la calidad docente y que sin embargo afectan a las valoraciones que reciben los docentes) tienen un impacto importante. Uno de ellos, el área al que pertenece la asignatura, es de hecho de los más relevantes, pues los alumnos penalizan a los profesores que imparten asignaturas “que no les gustan”, como las matemáticas, la estadística o la econometría (Arroyo-Barrigüete et al, 2023. https://doi.org/10.7717/peerj.13456).

La pregunta es, conociendo tanto los sesgos existentes como la magnitud de los mismos, ¿es posible corregir las EEP para que realmente reflejen la calidad docente? Por ejemplo, si sabemos que los profesores que otorgan mejores calificaciones reciben mejores EEP, quizá podríamos corregir las encuestas: si un profesor pone notas por encima de la media de sus compañeros en la misma asignatura, a la evaluación que obtenga en las EEP se le aplicaría una penalización para corregir el efecto espurio. Esto es por ejemplo lo que proponen Berezvai et al. (2022, https://doi.org/10.1080/02602938.2020.1821866).

El problema de este planteamiento es que hay tal cantidad de sesgos no instrucciones que parece complicado aplicar correcciones individualizadas. Es aquí donde Arroyo-Barrigüete et al. (2023) proponen un procedimiento relativamente original: ajustar modelos de regresión con todos los sesgos no instruccionales y trabajar con los residuos. Sin entrar en detalles técnicos (quienes estén interesados, abajo tienen la referencia al artículo), la idea es evaluar hasta qué punto es posible eliminar todos los sesgos no instruccionales simultáneamente y de forma automática, sin aplicar correcciones concretas. Y los resultados no fueron muy buenos… no es posible corregir las EEP. Es decir, incluso tras un procedimiento relativamente sofisticado de limpieza, sigue habiendo efectos espurios. Lamentablemente las EEP no recogen únicamente la calidad docente, sino un conjunto de factores muy variados, que en muchos casos nada tienen que ver con la capacidad del docente para enseñar.

A falta de una herramienta mejor, probablemente no quede otra alternativa que seguir usando las EEP. Pero debemos ser conscientes de sus limitaciones y problemas. Su utilidad podría estar limitada a aquellos docentes que obtienen EEP sistemáticamente muy buenas (probablemente sí sean buenos profesores) o muy malas (probablemente sí sean malos profesores). Pero en todo el rango intermedio, que es donde la mayoría de los docentes se mueve, las EPP ciertamente miden algo, pero a saber lo que es…

Artículo original:

https://www.sciencedirect.com/science/article/pii/S0191491X23000299?via%3Dihub

Arroyo-Barriguete, J. L., Bada, C., Lazcano, L., Márquez, J., Ortiz-Lozano, J. M., & Rua-Vieites, A. (2023). Is it possible to redress noninstructional biases in student evaluation of teaching surveys? Quantitative analysis in accounting and finance courses. Studies in Educational Evaluation, 77, 101263. https://doi.org/10.1016/j.stueduc.2023.101263

Comentarios

  1. Trataré de recordar este artículo cuando tenga malas encuestas. No es fácil de encajar cuando has puesto ilusión y trabajo en la docencia. Está bien tratar de buscar la causa de unas encuestas bajas para tratar de llegar mejor a los estudiantes. Pero es muy difícil tener siempre buenas encuestas. Así que se agradecen saber que no todo depende de nuestro buen hacer.

    ResponderEliminar
    Respuestas
    1. Gracias por el comentario. Efectivamente (y esta es mi opinión personal) creo que es peligroso usar las EEP para tomar decisiones sobre la carrera docente de los profesores. Solo lo veo razonable en 2 casos, como digo en el artículo: en aquellos docentes que obtienen unas EEP sistemáticamente muy buenas (probablemente sí sean buenos profesores) o muy malas (probablemente sí sean malos profesores). Para todos los demás, creo que las EEP están midiendo una suma de factores muy diversos y en muchos casos no relacionados con la calidad docente.

      Eliminar
    2. Gracias por tu respuesta. Mi intuición coincide con lo que dices.

      Eliminar
  2. No siempre podemos gustar a todos los estudiantes. Existen muchos estilos de docente como también hay muchos estilos de aprendizaje y no siempre encajan a la perfección. Pero a falta de otro sistema de evaluación, las EEP son una aproximación, con sesgos de naturaleza diversa, que nos lleva a una reflexión de la acción de docente, de nuestras debilidades y fortalezas, para una mejora contínua.

    ResponderEliminar
  3. Otra cuestión aparte es el contenido de las EEP, es decir, los llamados "atributos" del docente sobre los que se encuesta a los estudiantes. Existen mucha literatura al respecto.

    ResponderEliminar
    Respuestas
    1. Este es un tema muy interesante. Un reciente trabajo que hemos escrito sobre ello prueba que realmente los alumnos realmente no discriminan entre esos atributos al responder. Te copio un párrafo de las conclusiones: "o bien los alumnos no son capaces de responder aisladamente a cada uno de los ítems de la encuesta, o bien simplemente deciden no leer las preguntas y responder a casi todas con una valoración global del profesor. La primera conclusión es, por tanto, que de nada sirve elaborar complejos cuestionarios con múltiples preguntas, pues los discentes no parecen aislar sus respuestas: en todos los casos apenas 2 o 3 factores son capaces de explicar entre el 81% y el 85% (valor del R2 en las regresiones) de la variabilidad en la valoración general que se hace del docente" El trabajo está actualmente en prensa, pero en cuanto se publique, te puedo pasar la referencia.

      Eliminar
    2. Estoy de acuerdo con eso de que aquellos profesores/ as que obtienen sistemáticamente resultados excelentes sean excelentes. Hay posibilidades de mejora en las encuestas que se hacen a los estudiantes para minimizar la subjetividad y esos sesgos que ya sabemos por otras investigaciones que penalizan a ciertos profesores: a los que son más estrictos, a los que lidian con asignaturas más cuantitativas y a los que resultan menos atractivos a los estudiantes ( porque te vean más serio, o cuentes menos chistes que otros). No es broma lo de los chistes, me consta por alguna confesión de algún estudiante: los que cuentan más chistes, reciben mejor puntuación... Así que ya sabemos...

      Eliminar
  4. Vaya, así que no tienen arreglo, en todo caso podrían ponderarse en función de lo que sí se sabe como el sesgo de género o el del contenido de la asignatura, aunque no se pueda corregir por otros factores...

    ResponderEliminar
  5. Con independencia de todos los resultados obtenidos en estos y otros trabajos previos, se tiene una radiografía más o menos opaca sobre qué aspectos o "atributos" valoran los estudiantes de sus profesores. Es una guía para transitar por un campo cubierto de brumas.

    ResponderEliminar

Publicar un comentario

Entradas populares de este blog

¿Existe brecha de género en el rendimiento en matemáticas entre estudiantes universitarios?

Jornada de divulgación 12 de junio

¿Afecta la enseñanza en inglés al rendimiento de los estudiantes universitarios?