Síguenos en redes sociales:

La irrupción de la inteligencia artificial obliga a la UPNA y a la UN a rediseñar sus métodos de evaluación

Su apuesta es dar más peso a los exámenes presenciales y revisar la evaluación continua, manteniendo las actividades en las que se pueda asegurar la autoría - El 90% del alumnado usa esa tecnología para estudiar y el 40% para realizar trabajos

La irrupción de la inteligencia artificial obliga a la UPNA y a la UN a rediseñar sus métodos de evaluaciónOskar Montero

La irrupción de herramientas de inteligencia artificial, como ChatGPT, ha impactado de lleno en las universidades. El 90% del alumnado utiliza esta tecnología para estudiar y cuatro de cada diez la emplean a diario, según el estudio de la Fundación Conocimiento y Desarrollo. Esta situación ha obligado a las instituciones académicas a replantearse sus métodos de evaluación para adaptarlos a la nueva realidad. Así lo reconocen desde la Universidad Pública de Navarra y la Universidad de Navarra , que abogan por dar más peso a los exámenes presenciales, escritos u orales, que demuestren el aprendizaje real del estudiante sin dejar de lado la evaluación continua basada en trabajos y proyectos. Y es que ambas instituciones destacan su valor pedagógico, de ahí su apuesta por poner el foco en el proceso de aprendizaje e incorporar mecanismos que permitan comprobar el nivel de adquisición de conocimientos.

La directora del centro superior de innovación educativa de la Universidad Pública de Navarra, Amalia Ortiz, reconoce que, desde el punto de vista de la prevención de copias o plagios, el examen presencial es la forma de evaluación menos afectada. Y es que, aunque se realice con ordenador, “tenemos sistemas que permiten evitar el uso de la IA cuando el profesorado así lo requiera”.

Sin embargo, Ortiz cree la evaluación, en muchas ocasiones, no se puede reducir a un examen ya que podría afectar al aprendizaje del alumnado, haciéndolo más superficial, por lo que es necesario utilizar otros métodos como la entrega de trabajos o proyectos. Y esto sí es más fácil de plagiar. “En estos casos, la simple entrega del trabajo quizá ya no sea suficiente para valorar el aprendizaje, por lo que es recomendable complementarla con mecanismos adicionales para comprobar la adquisición de conocimientos como la defensa oral (difícil de hacer en aulas con muchos alumnos) o el examen escrito”, reconoce esta directora, que añade que en los casos en los que el profesorado permita utilizar la IA “es importante comprobar que se usa de forma transparente, ética, crítica, responsable y segura”. 

En definitiva, la UPNA aboga por impulsar métodos innovadores que contemplen el impacto de la IA y acompañen al alumnado durante su aprendizaje, no sólo en su fase final.

En esta misma línea trabaja la Universidad de Navarra, que apuesta por desplazar el foco desde el mero resultado hacia el proceso de aprendizaje. “Se plantea recoger evidencias del recorrido cognitivo del estudiante para valorar su contribución personal y comprensión real, no solo el producto final”, remarca el vicerrector de Docencia de la UN, Secundino Fernández, que defiende dar más peso evaluativo a los exámenes escritos u orales en el aula sin dispositivos.

Ahora bien, la UN no quiere renunciar a la evaluación continua con trabajos y proyectos y busca ajustarla ante la irrupción de la IA. “Es inviable rediseñar inmediatamente todas las actividades de evaluación continua. La recomendación es eliminar o reformular tareas fácilmente realizables con inteligencia artificial y mantener las que aseguren la autoría del estudiante”, explica. Así, se contemplan presentaciones orales, debates en clase o defensas de trabajo como parte de la nota. “Hay que buscar el equilibrio: seguir con métodos activos de evaluación pero incorporando evaluaciones supervisadas, incluidos exámenes orales, para garantizar la integridad”, resume el vicerrector, que recuerda que la UN ya equipara la entrega de trabajos realizados sustancialmente por la IA con el plagio.

Integrar estas tecnologías en el modelo educativo

Pero las universidades no solo se están replanteando los métodos de evaluación sino que, en lugar de mirar para otro lado, han optado por integrar estas tecnologías en el modelo educativo. Y lo han hecho, como dice Ortiz, de forma crítica, ética y responsable. “Es imprescindible concienciar al alumnado sobre cómo utilizar esta tecnología, haciéndoles conscientes de sus riesgos y limitaciones para enseñarles cómo beneficiarse de ella sin que perjudique su proceso de aprendizaje ni debilite sus habilidades cognitivas”, explica la responsable de la UPNA, que avanza que la institución trabaja en la elaboración de unas recomendaciones alineadas con el reglamento europeo para regular su uso y asegurar que sea ético, transparente, crítico y responsable.

Asimismo, en este trabajo de concienciación, el estudiantado recibe desde este año formación dentro del Curso de Competencias Informacionales en primero y, a lo largo del resto de los cursos, a través de actividades orientadas a afianzar un manejo responsable de la IA. 

En paralelo, se refuerza la capacitación del profesorado, combinando formación técnica, según las necesidades de cada área, con un enfoque didáctico propio del contexto universitario. “Así, además de enseñar a utilizar la IA, se podrán diseñar nuevas actividades que exijan mayor esfuerzo cognitivo y reflexivo, impulsando el pensamiento crítico y ético”, explica Ortiz, que también considera clave analizar no solo cómo sino cuándo usar la inteligencia artificial. “Es importante concienciar al alumnado para que aproveche el tiempo que está en la UPNA y aprenda de profesorado experto en su materia para adquirir capacidades de comunicación oral, trabajo en equipo, pensamiento crítico, experimentación… Competencias que no se pueden adquirir con la IA”.

Más concienciación que detectores

La Universidad de Navarra también afronta la generalización de la inteligencia artificial con un enfoque constructivo y formativo. Lejos de adoptar una actitud pasiva o prohibitiva, la institución ha establecido una política de desarrollo y uso responsable de la inteligencia artificial que “busca aprovechar su potencial en docencia e investigación, promoviendo a la vez una cultura de transparencia, ética y responsabilidad”. Por ejemplo, se pide al profesorado que defina claramente en cada asignatura cómo se permite (o no) el uso de IA generativa, y lo ponga en las guías docentes.

Lacapacitación del profesorado es una pieza clave de la estrategia de la UN ante la inteligencia artificial . “A través de programas como EurekAI y guías de buenas prácticas, los docentes adquieren habilidades para integrar la IA en su labor educativa de modo ético y eficaz”, explica Fernández. Esta formación incluye entender el funcionamiento y las limitaciones de herramientas tipo ChatGPT, así como aprender a detectar un uso inapropiado en los trabajos. “Si bien distinguir con absoluta certeza un texto generado por inteligencia artificial es complicado, la experiencia, combinada con la formación, permite identificar indicios de asistencia artificial y evaluar la autenticidad de los trabajos”, reflexiona.

 En actualidad, la UN está valorando la conveniencia de tener detectores del contenido generado por IA si bien recuerdan que “ninguno es infalible y que es muy difícil detectar de forma fiable el uso de IA”. Por ello, la Universidad “apuesta por la formación del profesorado y la promoción de una cultura de honestidad académica y no tanto en sistemas de detección más o menos infalibles”.

En la UPNA utilizan el detector Turnitin, que ofrece indicadores de posible generación con IA y coincidencias con otras fuentes. “Estos avisos no son determinantes, pero pueden servir para activar otras medidas de evaluación o de verificación de autoría”, reconoce Ortiz, que insiste en que “si bien es relevante detectar plagios, nos parece más prioritario asegurar el aprendizaje del estudiante, dedicando más esfuerzos a diseñar e implantar sistemas de evaluación válidos que a la búsqueda de plagios”.

En definitiva, ambas universidades son conscientes de que la IA tendrá un papel relevante en el futuro de la educación superior por lo que, en vez de ignorarla, abogan por integrarla de manera prudente y reflexiva y siempre apostando por un uso transparente, ético, crítico y responsable. 

Mejora la productividad y la eficacia en el estudio, pero puede mermar el pensamiento crítico y el aprendizaje

La integración de la inteligencia artificial en la educación universitaria ofrece numerosas ventajas y no pocos desafíos. Los responsables de la UPNAy la UN coinciden en que el uso de esta herramienta puede mejorar la eficacia en el estudio, incrementar la productividad en determinadas tareas o potenciar la creatividad. Pero advierten de uno de los grandes riesgos: la pérdida del pensamiento crítico y del aprendizaje profundo. “Formarse implica convertirse en profesionales capaces de aportar no solo conocimientos sino también criterio, ética y responsabilidad, valores humanos que la IAno puede ofrecer”, resume Amalia Ortiz Nicolás, directora del centro superior de Innovación Educativa de la UPNA. 

La mayoría de los universitarios, asegura el vicerrector de Docencia de la UN,Secundino Fernández, “percibe que la IA puede incrementar su rendimiento académico”. Y no lo niega ya que cree que estas herramientas pueden mejorar la eficacia del estudio y la realización de trabajos. Otras de sus ventajas, señala, es que facilita un aprendizaje más personalizado ya que el alumnado “puede recibir correcciones inmediatas y adaptar los ejercicios a sus necesidades”, y que puede potencia la creatividad al servir de apoyo para generar ideas, esquemas o borradores.

En definitiva, Fernández cree que “familiarizarse con la IA en la universidad prepara mejor a los estudiantes para un futuro profesional en el que el dominio inteligente de estas tecnologías será muy valorado”.

Una opinión que comparte en la UPNA. “Es indudable que la IA mejora la productividad en determinadas tareas y que es importante que la próxima generación de profesionales sepa emplearla correctamente. Por ello debemos apostar por la formación del estudiantado en este ámbito”, dice Ortiz, que reconoce que la IA “puede ser un recurso educativo útil como apoyo al estudio”.

Sus beneficios y oportunidades parecen claras, pero ¿cuáles son sus amenazas? En opinión de Fernández, uno de los grandes riesgos es la erosión y pérdida del pensamiento crítico y del aprendizaje profundo si la emplean como atajo. “Delegar tareas cognitivas en la máquina puede dar resultados inmediatos, pero escamotea y puede llegar a sustituir el aprendizaje inherente al proceso formativo. Esta dependencia excesiva mina la capacidad de análisis y resolución de problemas”, afirma.

En la UN preocupa también la integridad académica, ya que la facilidad para generar trabajos con IA multiplica el riesgo de plagio y fraude. “Aunque la normativa ya equipara la entrega de trabajos ajenos o automatizados al plagio, persiste la dificultad para detectar de forma fehaciente el uso de IA”, reconoce el vicerrector.

Otro desafío es su impacto negativo en la motivación del alumnado. “Si obtienen buenos resultados con mínimo esfuerzo, incluso los estudiantes aplicados pueden desanimarse, nivelándose a la baja el esfuerzo y la calidad del aprendizaje”, señala Fernández, que hace referencia a la brecha digital y al aumento de las desigualdades. En suma, la IA “conlleva retos que van desde garantizar la originalidad y profundidad del aprendizaje hasta asegurar la equidad y la ética”. 

La responsable de la UPNA cree que hay que ser “especialmente cauteloso” con el uso de la inteligencia artificial en las universidades ya que “no hablamos de profesionales sino de personas que se están formando”. “En un proceso educativo, en el que se están asentando las bases de conocimiento de una disciplina, un incorrecto uso de la IA puede perjudicar este aprendizaje”, asegura Ortiz.

A su juicio, el uso de la IA en educación, además de regulado, tiene que estar “orientado por la convicción de que formarse implica convertirse en profesionales capaces de aportar no sólo conocimientos, sino también criterio, ética y responsabilidad, valores humanos que la IA no puede ofrecer”. “Debemos asegurarnos que la tecnología esté siempre al servicio de las personas, y no al revés”, zanja.