Carlos López Nozal docente miembro del Consejo Asesor del Centro de Enseñanza Virtual de la Universidad de Burgos (UBUCEV) nos muestra cómo analizar, con cuestionarios Moodle, el aprendizaje de los alumnos aplicando una metodología didáctica de tipo pregunta/respuesta.
Interpreta con un caso de estudio real los indicadores de validez de los cuestionarios para ayudar a probar la adquisición del nivel de aprendizaje deseado por los estudiantes.
La formulación de preguntas a los estudiantes durante el proceso de enseñanza, es una de las técnicas pedagógicas utilizada por los profesores para poder conocer las destrezas adquiridas por los estudiantes. La preguntas se enuncian dependiendo del nivel de conocimiento que se desea que adquiera el estudiante. Los niveles de conocimientos de un nuevo concepto evolucionan en el tiempo y algunos autores como Bloom los ha ordenado en una taxonomía: recordar (1), comprender (2), aplicar (3), analizar (4), evaluar (5) y crear (6). Se entiende que para pasar a un nivel superior previamente se ha adquirido el anterior. El tiempo necesario para incrementar el nivel de conocimiento puede ir desde semanas a años. Bajo este prisma, el aprendizaje continuo puede ser entendido como la capacidad de responder preguntas de niveles superiores en el tiempo.
Un profesor con experiencia suele formular preguntas a sus estudiantes en muchos momentos de su proceso de aprendizaje. Además, a las preguntas, las asigna un nivel de conocimiento adecuado al objetivo de enseñanza de una actividad pedagógica concreta. Los profesores son conocedores del gran esfuerzo que conlleva formular buenas preguntas en el momento y lugar adecuado. Para reforzar la comprensión de esta máxima pedagógica, me parece interesante reflejar dos dinámicas de enseñanza pregunta/respuesta bien conocidas y aplicadas por profesores experimentados.
La primera dinámica la desarrollamos en un contexto de una clase magistral presencial con muchos estudiantes (más de 20). El profesor pregunta a los estudiantes para tener una evidencia de que van comprendiendo la lección. Este contexto de enseñanza es muy abierto y no obliga a los estudiantes a dar una respuesta. Muchas veces suelen tomar la iniciativa de responder los mismos estudiantes. Mientras los estudiantes van contestando, el profesor analiza sus repuestas y vuelve a reformular la pregunta para guiar y reflexionar sobre el aprendizaje que emerge del diálogo concreto. El uso de esta dinámica puede ocasionar un visión errónea al profesor por tomar un análisis sesgado de como están aprendiendo/respondiendo los estudiantes.
La segunda dinámica, ampliamente conocida, se desarrolla en el contexto de evaluación para acreditar la adquisición de conocimientos. Lo que se denomina comúnmente como examen. La responsabilidad del profesor en este contexto está orientada a garantizar la objetividad y la adquisición del nivel de aprendizaje deseado por los estudiantes. La objetividad en la corrección perfecta ocurre cuando se definen unas reglas de corrección precisas de tal forma que si la pregunta es corregida por varios expertos que utilicen las reglas, el resultado de la evaluación debería converger. La garantía de adquisición del nivel de conocimiento exigiría un análisis más profundo garantizando que las respuestas de mayor nivel de conocimiento (taxonomía de Bloom) sean contestadas por el primer tercio de alumnos con mejores calificaciones globales de la prueba.
El amplio espectro de configuraciones posibles de cuestionarios y la riqueza de los múltiples tipos de preguntas disponibles en Moodle, permiten a un profesor aplicar en online sus propias estrategias de enseñanza basadas en dinámicas de tipo pregunta/respuesta.
¿Cómo se pueden mejorar los análisis pedagógicos que hacen los profesores sobre el aprendizaje tanto grupal como individual de sus estudiantes?
Para intentar responder os proporciono un vídeo con un caso real, aplicando una dinámica distinta del clásico examen. El vídeo se utiliza en un curso de cuestionarios en Moodle online de tres semanas, que se imparte a profesores de las cuatro universidades de Castilla y León una vez al año. Se titula Informe de análisis de respuestas de un cuestionario y a través de su índice descriptivo de contenidos se puede navegar a sus diferentes secciones.
- 0:05 Introducción
- 0:48 Descripción del diseño del caso de estudio
- 2:30 Acceso a los intentos/respuestas de los estudiantes
- 3:20 Análisis global de calificaciones
- 4:23 Análisis individual por preguntas
- 6:05 Análisis de esfuerzo del estudiante con las calificaciones en múltiples intentos
- 7:50 Revisión de los intentos de los estudiantes para mejorar su aprendizaje
- 10:15 Validez del cuestionario a partir de las respuestas de los estudiantes
- 11:38 Coeficiente de dificultad y eficiencia discriminativa
- 12:04 Calificación aleatoria
- 12:58 Conclusión
Para continuar con mi continuo aprendizaje, me gustaría terminar la entrada al Blog con mis propias dudas formuladas como preguntas:
- ¿Interesa a las agencias de calidad universitarias, órganos institucionales, profesores o estudiantes estos tipos de análisis del aprendizaje?
- ¿La utilización de otros módulos de Moodle (foros, lecciones, tareas…), para implementar dinámicas de tipo pregunta/respuesta permiten obtener un análisis del aprendizaje de mejor calidad?
- ¿El análisis individual de intentos permite una enseñanza personalizada para cada estudiante?
- ¿Los estudiantes aceptarán de buen grado el uso de cuestionario como recurso de evaluación de su aprendizaje?
- ¿Cómo se puede ayudar y motivar a los profesores para que diseñen buenas preguntas de múltiples niveles de conocimiento y las evolucionen con el tiempo?
- ¿Se debería auditar los diseños de los cuestionarios antes de ser contestados por los estudiantes?
- ¿Quién debería ser el responsable de analizar la validez de los cuestionarios que certifican la adquisición de una competencia? ¿Una agencia de calidad del sistema universitario, un órgano colegiado de la institución académica o el propio profesor?