
Los profesores universitarios no saben cómo detectar a los estudiantes que hacen trampa con inteligencia artificial.
Se asemejaba a una enfermedad, donde uno observa algunos casos y de repente ocurre un brote. Esa era la sensación.
En las aulas universitarias, cada vez son más comunes las preocupaciones de los profesores sobre el uso de inteligencia artificial (IA) por parte de los estudiantes para realizar sus tareas. Leo Goldsmith, profesor asistente de estudios cinematográficos en la New School, comenta que es capaz de reconocer cuando un estudiante ha utilizado IA en su trabajo, pero a menudo no tiene la manera de demostrarlo. Asegura que muchos educadores se enfrentan a una situación similar, donde sospechan de la autenticidad de un trabajo pero carecen de herramientas eficaces para comprobar su veracidad, lo que puede generar complicaciones éticas y académicas.
El desafío se ha intensificado con la aparición de herramientas de IA como ChatGPT, que los estudiantes están utilizando cada vez más, mientras que los educadores se sienten desarmados ante esta nueva realidad. Patty Machelor, profesora de periodismo en la Universidad de Arizona, se sorprendió al descubrir que un trabajo presentado por un estudiante había sido generado por IA. La labor escrita no se asemejaba en nada al estilo del alumno, y tras discutirlo con su esposo, se dio cuenta de que era un producto de inteligencia artificial. Después de dar una segunda oportunidad al estudiante, el nuevo trabajo presentó las mismas deficiencias.
Irene McKisson, profesora adjunta en la misma universidad, enfrenta un panorama diferente en su clase presencial, donde el uso de IA no es tan notable, a diferencia de su curso en línea, donde ha observado un aumento preocupante en su uso. Describe esta situación como un brote, y subraya la importancia de que los estudiantes comprendan que el tiempo y el esfuerzo que invierten en sus estudios son esenciales para su desarrollo profesional.
A pesar de que ya existen detectores de IA, estas herramientas aún presentan fallas y pueden generar falsos positivos, lo que dificulta a los profesores confirmar si un trabajo es autentico o no. Además, estudios sugieren que estos detectores pueden ser menos efectivos con estudiantes que no son hablantes nativos de inglés, complicando aún más la situación.
Los educadores han comenzado a incluir cláusulas en sus sílabos sobre el uso de IA, animando a los estudiantes a entender las implicaciones de su utilización. Sin embargo, las instituciones a menudo no ofrecen políticas claras ni capacitación para ayudar a los profesores a lidiar con este problema. La incertidumbre sobre qué constituye trampa y qué no crea un ambiente confuso tanto para estudiantes como para maestros.
Frente a este dilema, algunos educadores consideran que adoptar un enfoque más pedagógico podría ser la clave para resolver esta situación. Promover la escritura en clase, realizar más trabajos grupales, y fomentar el uso de IA de manera específica en ciertos trabajos son algunas de las ideas que han surgido.
Goldsmith señala que el verdadero objetivo educativo es aprender y desarrollar habilidades críticas, y que depender de la IA podría estar contrariando ese propósito. A medida que las instituciones y los educadores lidian con esta nueva realidad, surge una pregunta fundamental: ¿cómo cambiarán las estructuras educativas para adaptarse a la inevitable integración de la IA en el aprendizaje?