Los detectores de Inteligencia Artificial acusan falsamente a estudiantes de hacer trampas

La historia de Moira Olmsted, estudiante de la Universidad Central Methodist, pone de manifiesto los problemas derivados del uso de herramientas de detección de IA en las aulas. En 2023, mientras estaba embarazada de su segundo hijo, Olmsted decidió volver a estudiar para convertirse en profesora a través de cursos en línea. Sin embargo, poco después de entregar un trabajo, fue acusada de usar inteligencia artificial para generarlo. A pesar de que el trabajo fue inicialmente calificado con un cero, Olmsted alegó que su estilo de escritura, influenciado por su diagnóstico de autismo, fue lo que desencadenó la alerta en la herramienta de detección de IA. Aunque finalmente su nota fue corregida, la advertencia quedó clara: si volvía a ocurrir, las consecuencias serían graves.

Mujer joven con cabello oscuro y rizado, vestida con una camiseta negra, mirando hacia el horizonte con una expresión serena. Está de pie frente a una ventana de vidrio, que refleja su silueta ligeramente. La escena muestra luz natural, con un cielo despejado en el fondo y líneas de luz que cruzan el cristal.

Desde el lanzamiento de herramientas como ChatGPT, las instituciones educativas han intentado adaptarse a la creciente presencia de la IA. Los detectores de IA, como Turnitin, GPTZero y Copyleaks, se han popularizado, con más del 60% de los docentes usándolos regularmente para detectar si los trabajos están escritos por IA. Sin embargo, estos detectores no son infalibles. Un estudio de Bloomberg realizado con los detectores GPTZero y Copyleaks en 500 ensayos universitarios escritos antes del lanzamiento de ChatGPT reveló que entre un 1% y un 2% de los ensayos fueron marcados incorrectamente como generados por IA, lo que podría tener consecuencias devastadoras para los estudiantes.

Los estudiantes que tienden a escribir de manera más genérica o con estructuras simples, como aquellos que son neurodivergentes o cuyo primer idioma no es el inglés (ESL), son más susceptibles a ser falsamente acusados. Un estudio de la Universidad de Stanford mostró que los detectores de IA marcaron erróneamente más del 50% de los trabajos escritos por estudiantes no nativos de inglés como generados por IA. A pesar de esto, herramientas como Turnitin y GPTZero continúan mejorando sus modelos para reducir las tasas de falsos positivos, aunque las instituciones siguen mostrando preocupación.

El temor a ser falsamente señalado ha llevado a muchos estudiantes, como Olmsted, a tomar medidas extremas para demostrar que su trabajo es auténtico. Algunos graban todo su proceso de escritura, mientras que otros utilizan herramientas para evitar ser marcados por los detectores, lo que en muchos casos hace que sus escritos pierdan calidad. Además, hay quienes desconfían de servicios de asistencia como Grammarly, por miedo a que estos aumenten la posibilidad de ser identificados como trabajos generados por IA.

Aunque algunos profesores optan por confiar en su intuición y en discusiones abiertas con los estudiantes, otros siguen viendo en los detectores de IA una herramienta necesaria para combatir el uso indebido de la tecnología en la educación. Sin embargo, muchos coinciden en que la presencia de la inteligencia artificial en las aulas es inevitable, y la clave está en aprender a integrarla de manera ética y efectiva en el proceso educativo.

Las últimas noticias en nuestro podcast semanal

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.