Evaluación Continua on-line en Sesiones Prácticas - IEEE-RITA
Transcripción
Evaluación Continua on-line en Sesiones Prácticas - IEEE-RITA
VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 175 Evaluación Continua on-line en Sesiones Prácticas como Complemento a un Examen Final I. Pardines, M.Sanchez-Elez, D. Chaver y J. I. Gómez Title—On-line Evaluation Methodology sessions in Computer Science Degree. of laboratory Abstract—This paper presents a proposal for assessment the laboratory sessions of a subject of the first course in Computer Science degrees. This methodology is based on on-line shortanswer exam questions related to the concepts studied in each session. Analyzing the academic results of a wide group of students, it has been demonstrated that this way of evaluating the knowledge is precise. The obtained grades norsub-estimate neither overestimate the student’s work, being similar to the ones achieved in a final exam. Moreover, there is a feedback which allows the teacher to go into detail about those aspects of the subject that students have not understood. Index Terms— Continuous assessment, online learning environments, teaching/learning strategies, laboratory practicals I. INTRODUCCIÓN L A implantación de los nuevos grados dentro del Espacio Europeo de Educación Superior ha introducido una serie de cambios en el modelo educativo tradicional. Desde el punto de vista del profesor, éste se convierte en un orientador, que ayudará al alumno a seguir un método de aprendizaje adecuado que le permita alcanzar los objetivos buscados. Y desde el punto de vista del alumno, éste se convierte en el centro de la enseñanza, no solo se evaluarán sus conocimientos sino las destrezas adquiridas para poder alcanzar dichos conocimientos[1]-[4]. En este contexto, adquiere especial importancia el concepto de evaluación continua, en la que al alumno se le evalúa por todo el trabajo realizado en la asignatura a lo largo del curso y no solo por la calificación que obtiene en un examen final. La evaluación continua goza de diversas ventajas (fuerza a que el alumno estudie a diario, permite al profesor analizar la evolución de cada estudiante a lo largo del curso, etc.), pero de cara al profesor presenta como principal inconveniente un aumento significativo de su carga de trabajo [5], especialmente en titulaciones técnicas, en las que a la parte teórica hay que añadir una importante carga práctica que también es necesario evaluar. Resulta, por tanto, crucial desarrollar estrategias que permitan que el alumno sea evaluado de forma completa y objetiva en todos los aspectos de la asignatura, pero que a la vez sean suficientemente Departamento de Arquitectura de Computadores y Automática, Universidad Complutense, 28040, Madrid, España (autor de contacto, Tel.: +34913947573; e-mail: inmapl|marcos|dani02|[email protected]). sencillas y automáticas para no aumentar en exceso el trabajo del profesor. En este artículo nos centraremos en desarrollar una metodología de evaluación continua para la parte práctica de una asignatura de primer curso de los Grados en Informática que se imparten en la Universidad Complutense de Madrid (UCM). Buscaremos que dicha metodología sea fiable (es decir, que puntúe fielmente a los alumnos, algo que demostraremos comparando la calificación continua con el examen final), completa (que cubra la evaluación de todos los conocimientos) y eficiente (que minimice el trabajo del profesor y no suponga dedicar gran parte de la sesión práctica a la evaluación). El sistema que presentamos se basa en la realización de un cortoexamen on-line al final de cada sesión de laboratorio, que permitirá comprobar, tanto al profesor como al alumno, si se han adquirido las competencias y conocimientos asociados a un determinado tema. Demostraremos que esta estrategia consigue comprobar de forma cuantitativa y precisa si el alumno ha adquirido las competencias y conocimientos necesarios, y a la vez reducir significativamente la tarea del profesor en cuanto a evaluación y corrección. Existen en la literatura diversos estudios que proponen la realización de tests como base de la evaluación continua de una asignatura, y cuyos resultados demuestran que dichas pruebas, compuestas por preguntas de respuesta múltiple o de respuesta corta, influyen positivamente en el proceso de aprendizaje de los alumnos [6]-[12]. Particularizando sobre metodologías de evaluación de asignaturas con carga práctica de laboratorio hemos encontrado propuestas muy interesantes. En [13] se propone que los alumnos realicen un proyecto que será evaluado tanto por el profesor como por el resto de sus compañeros. Los comentarios y calificaciones otorgados por los compañeros serán controlados en todo momento por el profesor. En [14] no solo se califica el resultado final de la práctica realizada sino que además el alumno deberá detallar qué problemas ha ido encontrando a lo largo de la misma y cómo los ha ido resolviendo. Aunque ambas ideas nos parecen muy interesantes, en ambos casos los grupos de trabajo han de ser reducidos para no aumentar en exceso la carga de trabajo del profesor. Dado que en nuestro caso el número de alumnos es muy elevado, creemos que la aplicación de estas técnicas no es viable. Una propuesta semejante a la nuestra la encontramos en [15], donde se realiza una práctica por módulos, con distintas fechas de entrega. Cada vez que se entrega un módulo, se hace un pequeño examen sobre el mismo, lo que permite al alumno conocer los errores y corregirlos. La metodología propuesta en este artículo es muy similar, la diferencia estriba en que nuestras prácticas, aunque relacionadas, no forman parte de una práctica final, ya que ISSN 2255-5706 © IEEE-ES (Capítulo Español) 176 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 al tratarse de una asignatura de primer curso y con un número de créditos limitado, los alumnos no tendrían ni el tiempo ni los conocimientos suficientes para abordarla. Además, en nuestro caso, las prácticas se realizan con el objetivo principal de que el alumno afiance los aspectos teóricos explicados en clase, lo que debería contribuir a la obtención de mejores resultados en el examen final [16]. Por último debemos mencionar que en la metodología que proponemos hacemos un uso intensivo de las nuevas tecnologías (infraestructura Moodle [24] que nos proporciona el Campus Virtual de la UCM), facilitando significativamente la labor del profesor en la realización de este tipo de pruebas. Las TICs (Tecnologías de la Información y la Comunicación) han demostrado ser muy útiles para los profesores y para los estudiantes como complemento a los métodos de enseñanza tradicional [17][20]. El artículo está organizado del siguiente modo. En la siguiente sección se describe cómo está estructurada y cómo se evalúa la asignatura sobre la cual se va a aplicar la metodología propuesta. A continuación, se describe brevemente dicha metodología y se explica cómo se ha implementado, en qué consiste y cómo es el interfaz que ven los alumnos. Por último, se analizan los resultados obtenidos y se exponen las principales conclusiones de este trabajo. II. MOTIVACIÓN DEL TRABAJO En primer lugar, resulta procedente hacer una breve descripción de la asignatura sobre la que se va a aplicar la metodología propuesta. El modelo de evaluación que proponemos se ha probado en el segundo cuatrimestre de la asignatura Fundamentos de Computadores del primer curso de las titulaciones de Grado en Ingeniería del Software, Grado en Informática y Grado en Ingeniería de Computadores. La asignatura consta de dos cuatrimestres claramente diferenciados: un primer cuatrimestre (6 créditos) está centrado en tecnología de computadores, en el que se enseña especificación e implementación de sistemas digitales; y un segundo cuatrimestre (6 créditos) que introduce la estructura de computadores, en el que se enseñan los conceptos básicos de la programación en ensamblador del ARM [21] y se estudia la implementación del procesador y del sistema de memoria de un computador MIPS [22]. Esta asignatura tiene una importante carga práctica, con sesiones distribuidas a lo largo de todo el curso, que tratan de afianzar los conceptos presentados a nivel teórico. En cada cuatrimestre se realizan 5 sesiones de laboratorio, de dos horas de duración cada una. En el primero, se pide a los alumnos implementar una serie de circuitos digitales. El alumno tiene que desarrollar el diseño antes de asistir al laboratorio, y una vez en éste, realizar el montaje sobre el entrenador y comprobar el correcto funcionamiento del circuito. En el segundo cuatrimestre, los estudiantes deben desarrollar una serie de programas en el lenguaje ensamblador de ARM en el entorno EmbestIDE [23]. En cada práctica, se les pide desarrollar uno o dos programas antes de la misma y comprobar su funcionamiento en el entorno utilizado (se proporciona a los alumnos equipos de uso libre en la facultad; además la funcionalidad requerida para el desarrollo de las prácticas está incorporada en la versión gratuita de la herramienta, por lo que el alumno tiene la posibilidad de instalarlo y utilizarlo en su propia casa). Durante la sesión de laboratorio, se plantean algunas modificaciones a estos programas que el alumno debe desarrollar. Dado que las prácticas tienen un peso importante en la nota final de la asignatura (25%, ampliable hasta un 40% según el plan de estudios), resulta imprescindible que sean calificadas de forma completa y objetiva a través de la evaluación continua. Se presentan en este punto varios retos: en primer lugar, es necesario comprobar que el trabajo del alumno, tanto previo como durante la práctica, haya sido realizado de forma totalmente individual. En segundo lugar, para conseguir calificar de forma precisa a los estudiantes es necesario plantearle a cada uno un número amplio de preguntas que cubran todos los aspectos de la práctica. Sin embargo, se debe tener en cuenta que solo se dispone de dos horas, en las que además de examinar a los alumnos se les debe dar tiempo para desarrollar una parte de la práctica y para resolver sus dudas. Por último, dado el elevado número de alumnos con el que cuenta cada grupo de primero y para que los alumnos puedan realizar las prácticas de forma individual, se crean varios turnos de laboratorio, cada uno con un profesor diferente. Es importante que no se produzcan diferencias de exigencia significativas en los distintos turnos. La metodología empleada, en ambos cuatrimestres, cuando no se aplica el sistema propuesto en este artículo es la siguiente: al principio de la sesión se entrevista a cada alumno para comprobar si trae preparado el diseño/programa, si lo conoce en profundidad y si lo ha realizado de forma autónoma. De esta breve entrevista (no se dedican más de 2 ó 3 minutos por alumno) se obtiene una primera calificación. A continuación, se le pide al alumno implementar el circuito en el entrenador (primer cuatrimestre) o modificar el programa de ensamblador (segundo cuatrimestre), y se le resuelven las dudas que le vayan surgiendo. Por último, se comprueba el funcionamiento correcto de los circuitos/programas y se le hacen algunas preguntas, completando su calificación de la práctica. Seguir esta metodología cuando el laboratorio está completo (20 alumnos) supone que el profesor dedica más del 50% del tiempo a calificar la práctica. Nuestra metodología pretende evaluar las prácticas de manera fiable y completa liberando al profesor de esta tarea para que se pueda dedicar a ayudar a los alumnos a resolver sus dudas. Dado que existe una gran similitud entre los contenidos del examen final y los de las prácticas realizadas, cabe esperar que las calificaciones obtenidas en las prácticas sean una estimación muy fiable de la calificación del examen final. Asimismo, como demostraremos en la sección de resultados, la evaluación de las prácticas mediante pruebas tipo test mejora ligeramente las calificaciones obtenidas en el examen final. III. METODOLOGÍA DE EVALUACIÓN DEL LABORATORIO Nuestra propuesta se basa en plantear a los alumnos, en cada sesión de laboratorio, una serie de preguntas tipo test (o de respuesta corta cuando un tipo test no sea adecuado)relacionadas con la práctica. El cuestionario se lleva a cabo a través de la conocida herramienta docente Moodle [24], y durante el mismo se permite al alumno hacer uso del entorno de desarrollo EmbestIDE en el que ha desarrollado la práctica. Con este examen, podremos evaluar aspectos tales como el manejo que tiene el estudiante del entorno de desarrollo, la corrección de los códigos que haya ISSN 2255-5706 © IEEE-ES (Capítulo Español) PARDINES et al.: EVALUACIÓN CONTINUA ON-LINE EN SESIONES PRÁCTICAS COMO COMPLEMENTO... 177 programado o si ha adquirido los conceptos teóricos asociados a la práctica. La solución que proponemos es planificar el laboratorio del siguiente modo: 1) Proponer (de 7 a 10 días antes de la sesión de laboratorio) la realización y depuración de un programa en ensamblador. Los alumnos deberán simularlo y comprobar su correcto funcionamiento. 2) Completar, durante la sesión de laboratorio, el trabajo previo con alguna ampliación de la práctica original que el alumno tendrá que programar durante la sesión. 3) Realizar, durante esa misma sesión, una prueba con preguntas tipo test o de respuesta corta sobre el trabajo realizado antes y durante la práctica. Esta metodología presenta diversas ventajas: 1) Utilizar test automáticos permite: emplear autocorrección (incluso en determinadas preguntas de respuesta corta), reduciendo significativamente el trabajo de evaluación del profesor en el laboratorio; realizar un examen similar pero distinto para cada alumno y, temporalizar claramente la duración de la prueba. 2) Se facilita la retroalimentación, pues el profesor podrá comprobar de forma rápida qué conceptos no han sido asimilados y podrá volver a hacer hincapié sobre ellos en las sesiones teóricas, e incluso proponer nuevos trabajos prácticos. Los alumnos, por su parte, podrán comprobar si sus respuestas son correctas e incluso, si el profesor lo habilita, podrán realizar la prueba de evaluación de nuevo con nuevas preguntas y comprobar así si han entendido los conceptos explicados. Esta última característica de la herramienta está muy vinculada a la especial importancia que adquieren en los nuevos grados los métodos de aprendizaje autónomos [25], [26]. 3) La metodología es especialmente adecuada para una asignatura práctica: El examen se puede hacer en un tiempo razonable gracias a estar formado por preguntas cortas, algo fundamental en el laboratorio. La evaluación de la práctica ya no depende del criterio de cada profesor de laboratorio (nótese que al ser una asignatura con tantos alumnos es necesario repartirlos en grupos de laboratorio, cada uno con un profesor diferente). Su función será solamente ayudar a los alumnos a entender los conceptos asociados a cada práctica y resolverles las dudas concretas que les vayan surgiendo. 4) Como se ha demostrado en multitud de estudios, una asignatura evaluada de forma continua consigue que los alumnos afiancen mejor los conceptos. La principal desventaja de este método es el pico de trabajo que supone para el profesor el primer año de implantación de la asignatura, en el que será necesario desarrollar los exámenes asociados a cada práctica con una batería de preguntas lo suficientemente amplia como para asegurar que los alumnos realizan la práctica de forma individual y autónoma. Por supuesto, este trabajo se puede reutilizar en los años siguientes. IV. GENERACIÓN DE LA PRUEBA DE EVALUACIÓN DEL LABORATORIO En esta sección describiremos paso a paso el proceso de generación de las pruebas de evaluación de las prácticas. A. Baterías de Preguntas Cada prueba o examen de laboratorio constará de una serie de cuestiones tipo test o de respuesta corta relacionadas con la práctica (entre 4 y 6 por prueba). Para poder asegurar que el trabajo ha sido realizado de manera individual por el alumno cada cuestión de la prueba se obtendrá de una batería que constará de un gran número de preguntas (50 o más), asociadas a un mismo concepto teórico, que serán seleccionadas por el entorno Moodle de forma aleatoria. Cada batería de preguntas constituye un fichero en formato gift (uno de los diferentes formatos de importación/exportación de datos para Moodle). Cada línea de ese fichero se corresponde con una pregunta y, entre llaves, precedida por un signo igual, irá la respuesta o respuestas que se consideren correctas, como se puede ver en la Fig. 1. B. Generación de la Prueba Una vez creados los ficheros de cuestiones cortas será necesario subirlos al Campus Virtual para poder generar la prueba. La herramienta Moodle para crear exámenes nos permite importar las preguntas desde un fichero. Si existen varios grupos de preguntas se tendrán que crear distintas categorías (una categoría por cada cuestión de la prueba), importar cada fichero y vincularlo a la categoría correspondiente. Utilizando el ejemplo de la Fig. 2 vamos a describir cómo se generaría una prueba con 5 cuestiones. En la figura podemos observar que existen 5 categorías asociadas a esta prueba, cada una con un número distinto de preguntas (este número aparece entre paréntesis al lado del nombre de la categoría). El siguiente paso consistirá en seleccionar las preguntas que conformarán la prueba o examen. Las preguntas serán seleccionadas aleatoriamente por el entorno Moodle. El profesor seleccionará cuántas preguntas de cada categoría desea añadir de forma aleatoria al examen. Tendrá que seleccionar el tipo de categoría de la pregunta (en la Fig. 2 cuadro de texto “Categoría”) y seleccionar en “Agregar” (parte inferior derecha de la figura) el número de preguntas aleatorias que desea añadir. Cuando el número de preguntas de cada categoría ha sido seleccionado, el examen queda configurado como podemos ver en la parte superior izquierda de la Fig. 2. Como paso final, será necesario editar la prueba y definir cómo la visualizará el alumno. En nuestro caso hemos optado por que se muestre una sola cuestión por página (el alumno puede pasar de una pregunta a otra tantas veces como quiera mientras no confirme el envío del examen). También es necesario definir el número de fallos permitidos; en nuestro caso, no permitimos ningún fallo, y el alumno no sabrá hasta finalizar el examen cuántas de sus respuestas son correctas. Por último, controlaremos la hora de comienzo y de final de la prueba, limitándola al tiempo que estimemos necesario dentro de la sesión de laboratorio. Según nuestra experiencia 30 minutos es suficiente para que no se robe demasiado tiempo a la práctica y que a la vez la prueba sea suficientemente completa. La configuración de todos estos parámetros se puede ver en la Fig. 3. ISSN 2255-5706 © IEEE-ES (Capítulo Español) 178 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 Fig. 1. Ejemplo de una batería de preguntas (formato gift). Fig. 2. Visualización del banco de preguntas en el entorno Moodle. C. Autocorrección de los Test Una de las principales ventajas de realizar las pruebas a través de la herramienta Moodle es que la labor de corrección se ve notablemente simplificada. Este entorno dispone de un sistema de autocorrección que compara la respuesta del alumno con las que el profesor ha introducido como respuestas válidas. Si coinciden, la respuesta se marca como correcta, otorgándole la puntuación pre-asignada, y si no coinciden, se marcará como errónea (existiendo en este caso la posibilidad de otorgar una puntuación negativa). Si el examen se configura con la opción de ver las soluciones una vez finalizada la prueba, cuando el alumno accede a su examen podrá ver qué respuestas ha acertado y cuáles ha fallado, y en este último caso podrá ver también la respuesta correcta. Podría ocurrir que el alumno dé una respuesta correcta pero con un formato distinto del exigido por el profesor. En ese caso, la autocorrección considerará dicha respuesta como errónea. Para resolver este tipo de incidencias de forma rápida el profesor puede consultar la opción Análisis de ítems dentro de la ventana de Resultados. En la nueva ventana (en la Fig. 4 se muestra un ejemplo de esta opción) aparece cada pregunta que se ha planteado en una de las pruebas con la respuesta que el profesor ha indicado como válida, y a continuación, aparecen las respuestas de los alumnos a esta pregunta. Por ejemplo, en la Fig. 4 se puede observar que ante una pregunta cuya respuesta correcta es “N”, un alumno ha contestado “el bit N (negativo)”, que es una respuesta perfectamente válida. Al detectar este problema, el profesor tendrá que editar la pregunta (algo que puede hacer fácilmente a partir del icono situado en la columna izquierda de la Fig. 4), añadir la nueva respuesta como solución válida, y recalificar el examen, con lo que a este alumno (o a cualquier otro que haya respondido lo mismo) se le cambiará la evaluación de la pregunta a correcta. La ventana de Análisis de ítems también permite al profesor comprobar si los alumnos han entendido los conceptos que deben adquirir en cada tema. Si una pregunta tiene un elevado número de respuestas erróneas el profesor puede volver a retomar ese tema durante las clases teóricas, haciendo especial hincapié en aquello que considere un objetivo fundamental de la asignatura. Otra ventaja que ofrece la herramienta Moodle es que si el profesor asigna un valor numérico a cada pregunta, el sistema, tras la finalización del examen, calificará automáticamente a todos los estudiantes. El profesor puede incluso visualizar los resultados de forma gráfica para comprobar las calificaciones obtenidas (Fig. 5). ISSN 2255-5706 © IEEE-ES (Capítulo Español) PARDINES et al.: EVALUACIÓN CONTINUA ON-LINE EN SESIONES PRÁCTICAS COMO COMPLEMENTO... 179 Fig. 3. Ventana de edición de un examen en Moodle. Fig. 4. Visualización de la ventana Análisis de ítems. V. CASO PRÁCTICO En esta sección vamos a detallar cómo se llevaría a cabo nuestra metodología de evaluación en una sesión de laboratorio concreta. Nos vamos a centrar en la segunda práctica que se propuso en el curso 2011-2012, en la que se pretende comprobar: La familiarización del alumno con el entorno de desarrollo. La habilidad en el manejo de estructuras de datos tipo vector y su almacenamiento en memoria. La capacidad para codificar en lenguaje ensamblador del ARM sentencias especificadas en lenguaje de alto nivel. Entre 7 y 10 días antes de la sesión de laboratorio se proporciona al alumno el guion de la práctica. Este documento repasa los conceptos teóricos principales de la práctica, especifica lo que se le va a pedir en el laboratorio y enuncia la parte de la práctica que el alumno deberá llevar desarrollada al laboratorio. El trabajo previo asociado a esta práctica consistió en codificar en ensamblador del ARM el código C de la Fig. 6. Este programa busca el valor máximo de un vector A de enteros positivos de longitud N y lo almacena en la variable max. Se obliga a los alumnos a escribir en memoria el valor de max cada vez que éste cambie, con el objetivo de generar una mayor batería de preguntas sobre los accesos a memoria. El siguiente paso consiste en crear un conjunto amplio de preguntas que permitan al profesor saber en qué grado se han alcanzado los objetivos buscados. Teniendo en cuenta los objetivos enunciados anteriormente, se pueden realizar el siguiente tipo de preguntas: En la iteración i=x, ¿cuánto vale la variable max? Una vez ejecutado el código, ¿cuál es el valor almacenado en la dirección 0x0c00003c? (Siendo ésta una dirección donde está almacenada una variable del código). ¿En qué dirección de memoria está almacenado cada elemento del vector A? En el ejemplo hemos considerado adecuado que la prueba conste de 5 cuestiones en total, juntando las cuestiones de la prueba del trabajo de casa con las cuestiones de la prueba del trabajo en el laboratorio. Cada cuestión tiene asociada una categoría diferente. Dentro de una categoría todas las preguntas son iguales a excepción de que cada una hace referencia a datos diferentes, de este modo garantizamos que aunque las preguntas se eligen aleatoriamente, todas las ISSN 2255-5706 © IEEE-ES (Capítulo Español) 180 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 #define N 8 int A[N]={7,3,25,4,75,2,1,1}; int max; max=0; for(i=0; i<N; i++){ if(A[i]>max) max=A[i]; } Fig. 6. Código en lenguaje de alto nivel que el alumno debe traducir a ensamblador del ARM. Fig. 5. Gráfico de barras del número de estudiantes que alcanzan los rangos de calificación. pruebas (existe una prueba por alumno) resultan de idéntica dificultad. Para aumentar el número de preguntas por categoría y disminuir la probabilidad de que la misma pregunta se repita varias veces, añadimos una estrategia más: dividimos a los alumnos de forma aleatoria y completamente automática en varios grupos y planteamos la prueba de cada grupo con las mismas preguntas pero con un vector A distinto. En este caso, para poder seguir realizando la corrección de las pruebas de forma automática, deberemos añadir como soluciones correctas las correspondientes a cada vector A utilizado. La Fig. 7 muestra cómo ven el test los estudiantes en el entorno Moodle (son cinco preguntas, una por página). VI. EVALUACIÓN Y RESULTADOS A. Escenario del Estudio Para el estudio de la bondad de la metodología propuesta, hemos analizado los resultados obtenidos por un grupo de 159alumnos de Fundamentos de Computadores, tanto en la evaluación continua como en el examen final del segundo cuatrimestre. Creemos que tomar como base de calificación el examen final es una buena solución, pues es una prueba que ha sido depurada por muchos profesores distintos a lo largo de muchos cursos, y creemos que constituye una referencia de calificación fiable y completa de la asignatura. Asimismo, se comparan los resultados con los que obtuvieron estos mismos alumnos en el primer cuatrimestre de la misma asignatura. De esta forma comprobamos como afecta la metodología a los mismos alumnos a la hora de calificar la evaluación continua. Dado que la dificultad de los conceptos a adquirir no es equivalente entre el primer y el segundo cuatrimestre (como corroboran todos los profesores que han impartido esta materia), analizamos también los resultados obtenidos en el segundo cuatrimestre por 105 alumnos pertenecientes a grupos en los que no se ha seguido la metodología propuesta sino una metodología basada en entrevistas como la descrita en la Sección II. Los grupos de alumnos se han formado como resultado de haber extraído, del total de matriculados, aquellos alumnos que no han realizado alguna de las 8 pruebas de evaluación continua (4 por cuatrimestre) llevadas a cabo a lo largo de la asignatura. Estos grupos los denotaremos en adelante del siguiente modo: E1: calificación sobre 10 del examen final del primer cuatrimestre (en febrero). C1: calificación sobre 10 de las actividades de evaluación continua realizadas en el laboratorio en el primer cuatrimestre (no se ha seguido la metodología presentada en este artículo). E2T: calificación sobre 10 del examen final del segundo cuatrimestre (en junio) en el grupo de alumnos que sigue la metodología propuesta. C2T: calificación sobre 10 de las actividades de evaluación continua realizadas en el laboratorio en el segundo cuatrimestre en el grupo de alumnos que sigue la metodología propuesta. E2NoT: calificación sobre 10 del examen final del segundo cuatrimestre (en junio) en el grupo de alumnos que no sigue la metodología propuesta. C2NoT: calificación sobre 10 de las actividades de evaluación continua realizadas en el laboratorio en el segundo cuatrimestre en el grupo de alumnos que no sigue la metodología propuesta. B. Resultados Experimentales La Tabla I y la Fig. 8 muestran estadísticamente los resultados obtenidos por los alumnos en cada grupo. En particular, la Figura 8, ilustra en un gráfico de cajas, la distribución del 50% de las calificaciones entorno a la mediana. Fig. 7. Vista del test de la práctica 2. ISSN 2255-5706 © IEEE-ES (Capítulo Español) PARDINES et al.: EVALUACIÓN CONTINUA ON-LINE EN SESIONES PRÁCTICAS COMO COMPLEMENTO... 181 TABLA I DESCRIPCIÓN ESTADÍSTICA DE LAS SEIS EVALUACIONES Media Mediana D. Estándar Varianza Mínimo Máximo E1 C1 E2T C2T E2NoT C2NoT 5,64 5,7 8,27 8,8 4,36 4,25 4,46 4,2 3,78 4,00 2,20 6,20 6,73 2,64 2,40 5,74 0 10 2,11 4,46 1,2 10 2,45 6,03 0 10 2,76 7,54 0 10 4,83 0 9 6,99 0 10 TABLA II PORCENTAJE SOBRE EL TOTAL DE APROBADOS EN CADA UNA DE LAS EVALUACIONES Aprobados Nota ≥ 7,0 E1 63,5 35,2 C1 91,8 79,9 E2T 39,6 16,3 C2T 40,8 17,6 E2NoT 32,4 8,6 C2NoT 69,5 46,7 TABLA III DESCRIPCIÓN DE LA CORRELACIÓN Y ANÁLISIS DE LAS VARIANZAS DE LAS SEIS CALIFICACIONES ANALIZADAS E2T vs C2T E2NoTvs C2NoT E1 vs C1 E2T vs E2NoT a·x b Pearson t 0,64 0,25 0,44 -- 1,50 2,21 1,95 -- 0,720 0,300 0,392 -- -0,529 -8,635 -14,45 -1,978 P(T<=t) una cola 0,298 1e-14 1e-31 0,024 Fig. 9. Segundo cuatrimestre: Evaluación continua vs Examen Final, en los grupos donde no se aplica la metodología. Fig. 10. Segundo cuatrimestre: Evaluación continua vs Examen Final en los grupos donde se aplica la metodología. Fig. 8. Gráfico de cajas de la distribución de calificaciones sobre 10 de cada una de las evaluaciones. En la Tabla II estudiamos el porcentaje de alumnos que han aprobado el examen y la evaluación continua por separado, así como el porcentaje de alumnos que han destacado en la calificación (aquellos que han obtenido un siete o más). La comparación del número de aprobados por si solo es insuficiente para obtener una conclusión, por lo que para conseguir una mejor caracterización de los resultados de los dos métodos de evaluación continua hemos representado, para cada grupo del segundo cuatrimestre (Figs. 9 y 10), la calificación (sobre 10) de cada estudiante en el examen final (eje Y) frente a la calificación (sobre 10) de cada estudiante en la evaluación continua (eje X). Estas figuras nos facilitan visualizar de forma rápida la correlación entre ambas calificaciones. Además, en las Figs. 9 y 10, se ha sombreado el recuadro que representa a aquellos alumnos que suspendiendo la evaluación continua aprobaron el examen y viceversa. Las zonas sombreadas inferiores engloban a aquéllos que aprobaron la evaluación continua pero suspendieron el examen final. En el grupo de evaluación continua sin test (Fig. 9) un 36,2% de los alumnos aprobaron la evaluación continua y suspendieron el examen, mientras que en el grupo de evaluación continua con test (Fig. 10) esta proporción fue de tan solo un 14,5%. Las zonas sombreadas superiores engloban a aquellos alumnos que aprobaron el examen final pero suspendieron la evaluación continua, un 11,4% para el caso de evaluación continua sin test frente a un 6,9% para el caso de evaluación continua con test. La Tabla III muestra los resultados de la recta de regresión que relaciona la calificación de la evaluación continua con el examen, así como el coeficiente de correlación de Pearson [27]. Las variables estarán tanto mejor correlacionadas cuanto más cercano a 1 sea este coeficiente. Además, la Tabla III presenta resultados de la t de student [28], aplicada sobre muestras emparejadas para los pares examen-evaluación continua (son los mismos alumnos), y sobre dos muestras generales para los grupos con y sin metodología en el examen del segundo cuatrimestre (E2T vs E2NoT). C. Discusión de los Resultados En lo que se refiere a la similitud en las calificaciones entre examen y evaluación continua, podemos ver en la Tabla I que la media (y la mediana) de E2T y C2T son mucho más parecidas que las de E1 y C1 y las de E2NoT y C2NoT, lo cual, si tomamos el examen final como un ISSN 2255-5706 © IEEE-ES (Capítulo Español) 182 VAEP-RITA Vol. 1, Núm. 4, Dic. 2013 referente de calificación objetiva, completa y precisa del estudiante, es un dato que apoya la bondad de la metodología seguida en la evaluación continua. Además, los resultados presentados en la Tabla III confirman que la metodología proporciona unas calificaciones notablemente cercanas a las obtenidas en el examen final del cuatrimestre (Pearson = 0,720), algo que en cambio no ocurre ni para el primer cuatrimestre ni para la evaluación continua sin test (Pearson igual a 0,392 y 0,300 respectivamente). Finalmente, del estudio de la t de student se puede observar que no existen diferencias estadísticas entre la evaluación continua del segundo cuatrimestre y su examen final si seguimos la metodología propuesta, es decir, podríamos predecir a partir de los resultados de la evaluación continua la calificación en el examen (P(T<=t) una cota superior a 0,05). Sin embargo, no hay relación estadística entre la evaluación continua y el examen final para los otros dos grupos, donde la probabilidad es prácticamente cero (P(T<=t) igual a 1e-31 y 1e-14). Del análisis de las Figs. 9 y 10 se puede extraer que aquellos alumnos que aprobaron la evaluación continua y suspendieron el examen (recuadro sombreado inferior) estaban sobre-evaluados (puede que se les trasladara la sensación de que tenían un mejor conocimiento de la asignatura del que tenían en realidad). Por el contrario, aquellos que suspendieron la evaluación continua y aprobaron el examen estaban infra-evaluados (recuadro sombreado superior). Convendría en los dos casos que éstos fueran el menor número posible, sin embargo, en el caso de la evaluación continua sin test, estos dos casos suponen casi un 50% frente a un 21% en la evaluación continua con test. Además, obsérvese que los puntos de los recuadros sombreados de la Fig.10 están mucho más cerca del centro, con lo que las dos calificaciones (examen y evaluación continua) pueden ser consideradas mucho más coherentes entre sí que en la Fig. 9, en la que los puntos están mucho más dispersos en dichos recuadros. Finalmente, aunque no es el objetivo principal de este artículo, de manera tangencial podemos comprobar que, al utilizar nuestra metodología, no solo estamos calificando la evaluación continua de forma fiable, (es decir, estamos dando una visión correcta a los estudiantes de los conocimientos alcanzados), sino que además estamos ayudando a mejorar la adquisición de estos conocimientos y por tanto su calificación en el examen. En la Tabla II, de la comparación de los resultados E2T y E2noT se observa que el número de aprobados es ligeramente superior al aplicar esta propuesta, y además que el porcentaje de alumnos con calificaciones buenas o muy buenas en el examen es el doble en caso de seguir la metodología. Además, como indica la Tabla III, hay una diferencia estadística entre los resultados de E2T vs E2noT, que unido al hecho de que los alumnos que siguieron esta propuesta tienen mejor media, indicaría que al realizar la evaluación continua con la metodología descrita en este artículo estaríamos mejorando los resultados finales. enseñanza más práctica, y por lo tanto, hacia una evaluación continua. En este artículo hemos presentado una metodología para realizar la evaluación continua de la parte práctica de la asignatura Fundamentos de Computadores, de tal forma que ésta sea tan objetiva como pueda serlo un examen final, normalmente más ampliamente aceptado por los docentes. Del análisis de los resultados obtenidos podemos concluir en primer lugar que la metodología propuesta mide fielmente los conocimientos adquiridos por los alumnos. Además, la evaluación por medio de exámenes de respuesta corta es independiente del criterio particular de cada profesor de laboratorio, y la técnica asegura que cada estudiante es evaluado de forma individual. Por otra parte, estos exámenes cubren perfectamente la evaluación de todos los conocimientos de la práctica, por lo que podemos decir que la evaluación es suficientemente completa (las prácticas complementan y amplían los temas vistos en teoría). Por último, la carga de trabajo para el profesor se ve muy reducida (excepto en el primer curso de impartición de la asignatura), gracias a la generación automática de exámenes o a la autocorrección de preguntas que permite Moodle. El hecho de que los resultados obtenidos en la evaluación continua y en el examen final sean similares implica que al seguir esta metodología se puede incrementar el peso de la parte de la evaluación continua en la calificación final de la asignatura, ya que no estaríamos calificando por exceso o por defecto dicha evaluación con respecto al examen final. Además, la metodología aquí presentada intenta reducir el efecto nocivo que supone una calificación continua excesiva, que estaría, desde nuestro punto de vista, representada por el porcentaje de estudiantes que hayan aprobado la evaluación continua pero suspendido el examen final (en nuestro caso, ligeramente superior al 10%). Por último, como resultado adicional, debemos destacar que los estudiantes que siguieron esta metodología obtuvieron mejor calificación final que los que no la siguieron. Creemos que los motivos son que el alumno recibe una mejor realimentación de la evaluación continua, y que la metodología le exige mayor trabajo diario, con lo que afianza mejor los conocimientos. AGRADECIMIENTOS Nos gustaría agradecer a los profesores del Departamento de Arquitectura de Computadores y Automática, Guadalupe Miñana, Katzalin Olcoz, Juan Lanchares, Victoria López y Mª Carmen Molina, por colaborar con los datos de sus evaluaciones. REFERENCIAS [1] [2] [3] VII. CONCLUSIONES La implantación del Espacio Europeo de Educación Superior ha supuesto en muchos casos cambiar el modelo de enseñanza y evaluación inclinando la balanza hacia una [4] Documento Marco del MEC sobre “La integración del sistema universitario español en el Espacio Europeo de Enseñanza Superior”, 2003. P. Salaburu (director), G. Haug y J. G. Mora, España y el proceso de Bolonia Un encuentro imprescindible. Madrid: Academia Europea de Ciencias y Artes, 2011. M. Valero García, “Algunas reflexiones sobre innovación docente en el marco del proyecto Bolonia,”ARBOR Ciencia, Pensamiento y Cultura, vol. 187, pp. 117-122, Dic. 2011. M. Del Pozo Andrés, “El proceso de Bolonia en las aulas universitarias: una perspectiva europea,” Cuestiones Pedagógicas, vol. 19, pp. 55-73, 2008/2009. ISSN 2255-5706 © IEEE-ES (Capítulo Español) PARDINES et al.: EVALUACIÓN CONTINUA ON-LINE EN SESIONES PRÁCTICAS COMO COMPLEMENTO... 183 [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] M. Llamas Nistal, “Una experiencia de evaluación continua en la ETSIT: Nuevos costes para el profesor,” IEEE-RITA, vol. 7, pp. 46– 52, Feb. 2012. T. M. Haladyna, S. M. Downing and M. C. Rodriguez, “A review of multiple-choice item-writing guidelines for classroom assessment,”Applied measurement in education, vol. 15, no. 3, pp. 309-333, 2002. R. Arocena, C. Gascue y J. Leymonié, “Evaluación y validación de pruebas parciales de opción múltiple de un curso universitario de primer año,” Revista Electrónica de Enseñanza de las Ciencias, vol. 9, no. 3, pp. 737-756, 2010. D. L. Stufflebeam, y A. J. Shinkfield, Evaluación sistemática. Guía teórica y práctica. Madrid: Paidós, 1987. Dindia, Laura "Pre-lecture Activities in Undergraduate Science Courses," Teaching Innovation Projects: vol. 3, no. 1, Article 6, 2013. A. García-Beltrán, R. Martínez, J. A. Jaén y S. Tapia, “La autoevaluación como actividad docente en entornos virtuales de aprendizaje/enseñanza,” Revista de Educación a Distancia, 2006. S. K. Carpenter, ”Testing Enhances the Transfer of Learning,” Current Directions in Psychological Science, vol. 21, pp. 279-283, Oct. 2012. G. O. Einstein, H. G. Mullet and T. L. Harrison, “The Testing Effect: Illustrating a Fundamental Concept and Changing Study Strategies,” Teaching of Psychology, vol. 39, no. 3, pp. 190-193, July 2012. A. Garrido, M. C. Penadés y V. Pelechano, “Un modelo de evaluación de prácticas en Laboratorio de Ingeniería del Software,” in Actas IV Jornadas de Enseñanza Universitaria de Informática, pp. 222-227, 2001. J. L. Poza, P. Cruz y V. Santoja, “Un método de evaluación de prácticas de monitorización de redes basado en los incidentes críticos,” in Actas del XI CIEET, pp. 10-19, paper 84-688-2216-7, 2003. M. Durán, A. Caro y P. G. Rodríguez, “Una apuesta por la motivación al alumnado en las asignaturas de programación: el sistema de evaluación continuada,” in Actas de IX Jornadas de Educación Universitaria de Informática, pp. 191-195, 2003. A. Calduch, J. M. Prats, V. Giner y S. Vidal-Puig, “Un estudio sobre la utilidad de realización de prácticas de laboratorio en el proceso de aprendizaje y su influencia en los resultados de evaluación del alumno,” in Actas de XII Jornadas de Educación Universitaria de Informática, pp. 177-184, 2006. M. M. Elizondo, V. M. M. Morejón, M. C. A. Acosta, J. D. B. Cabrero and O. P. Ávila, “Skills centered professional training in an e-learning environment using the Moodle,” in Global Conference on Business & Finance Proceedings, vol. 7, no. 2, pp. 391, 2012. J. I. Aguaded Gómez y J. Cabero Almenara, Educar en red: Internet como recurso para la educación. Colección biblioteca de educación, Aljibe, 2002. A. Bates, Managing technological change. Strategies for College and University Leaders. San Francisco: Jossey-Bass, 2002. R. Perez Casales, J. Rojas Castro y P.Hechevarría, “Algunas experiencias didácticas en el entorno de la plataforma Moodle,” Revista de Informática Educativa y Medios Audiovisuales, vol.5, no. 10, 2008. D. Seal, ARM Architecture reference manual. Glasgow: AddisonWesley, 2001. D. A. Patterson and J. L. Hennessy, Estructura y Diseño de Computadores. Interfaz hardware/software. Reverté, 2011. ShenzenEmbestInfo&Tech Co., LTD. (2004). Embest IDE Pro for ARM 2004. User guide. Disponible: http://www.armkits.com/download/UserGuide2004.pdf [24] Manual de Moodle, Gate-UPM. Disponible: http://cvsp.cucs.udg.mx/drupal6/documentos/manualmoodle.pdf [25] J. L. Risco-Martín, M. Sánchez-Élez y I.Pardines, “Experiencia educativa para fomentar el aprendizaje autónomo a través de preguntas tipo test generadas por los alumnos,” in Actas de las XVII Jornadas de Enseñanza Universitaria en Informática, Sevilla, pp. 283-291, 2011. [26] M. Sanchez-Elez, I. Pardines, P. García, G. Miñana, S. Roman, M. Sánchez and J. L. Risco. “Enhancing students' learning process through self-generated test,” Journal of Science Education and Technology.Doi: 10.1007/s10956-013-9447-7 [27] Edwards, A. L. "The Correlation Coefficient", in An Introduction to Linear Regression and Correlation. Ed. San Francisco, CA: W. H. Freeman, pp. 33-46, 1976. [28] S. S. Gupta, “Probability integrals of multivariate normal and multivariate t”, Annals of Mathematical Statistics, vol. 34, pp. 792828, 1963. Inmaculada Pardines es Doctora en Ciencias Físicas (2007) por la Universidad de Santiago de Compostela. Actualmente es Profesora Contratada Doctora en el Departamento de Arquitectura de Computadores y Automática de la Universidad Complutense de Madrid. Sus áreas de interés son los sistemas de hardware reconfigurable. Ha participado como autora o coautora en más de 20 publicaciones en revistas y congresos. Participa activamente en programas de innovación docente de su universidad. Marcos Sanchez-Elez es Doctor en Ciencias Físicas (2004) por la Universidad Complutense de Madrid. Actualmente es Profesor Contratado Doctor en el Departamento de Arquitectura de Computadores y Automática de dicha universidad. Sus áreas de interés son los sistemas de hardware reconfigurable y diseño VLSI. Ha participado como autor o coautor en más de 20 publicaciones en revistas y congresos. Participa activamente en programas de innovación docente de su universidad. Daniel A. Chaver Martínez es Licenciado en CC. Físicas por la Universidad de Santiago de Compostela (año 1998), e Ingeniero en Electrónica y Doctor por la Universidad Complutense de Madrid (años 2000 y 2006 respectivamente). Actualmente es Profesor Titular en el Departamento de Arquitectura de Computadores y Automática de la UCM. Lleva impartiendo docencia en las Fac. de Informática y de CC Físicas de la UCM desde el año 2000. Sus áreas de interés en investigación son: Gestión de la cache, Memorias PCM, Planificación en Multicores Asimétricos. José Ignacio Gómez obtuvo su doctorado en la Universidad Complutense de Madrid en el año 2007. Actualmente es Profesor Contratado Doctor en el Departamento de Arquitectura de Computadores y Automática. En los últimos años ha trabajado tanto en el área de alto rendimiento y paralelismo como en el diseño y gestión de los sistemas de memoria de sistemas empotrados de bajo consumo. ISSN 2255-5706 © IEEE-ES (Capítulo Español)