Es una batalla de bots: los profesores usan detectores de IA para identificar trampas mientras los estudiantes los usan para mantener su inocencia

Los estudiantes no quieren ser acusados de hacer trampa, por lo que están usando inteligencia artificial para asegurarse de que sus ensayos escolares suenen humanos.

Los profesores utilizan software de detección de IA para identificar trabajos generados por inteligencia artificial. Los estudiantes, a su vez, están ejecutando preventivamente sus escritos originales a través de las mismas herramientas, para ver si algo podría ser marcado por sonar demasiado robótico.

Miles Pulvers, un estudiante de 21 años de la Universidad Northeastern en Boston, dice que nunca usa IA para escribir ensayos, pero ejecuta todos ellos a través de un detector de IA antes de enviarlos.

«Me enorgullezco mucho de mi escritura», dice Pulvers. «Antes de la IA, tenía la tranquilidad de que cualquier cosa que enviara sería aceptada. Ahora veo que algunos de mis escritos están siendo marcados como posiblemente generados por IA cuando no lo son. Es algo molesto, pero es parte del trato en 2025».

Señales de alerta que confunden a los detectores

Los detectores de IA pueden sonar la alarma si la escritura contiene demasiados adjetivos, oraciones largas y guiones largos. Cuando eso le sucede a Pulvers, reescribe las oraciones o párrafos en cuestión. Prueba el ensayo nuevamente, tantas veces como sea necesario hasta que el detector dice que tiene una baja probabilidad de participación de bots.

Él y otros estudiantes entrevistados dicen que los profesores en los últimos meses se han vuelto más sospechosos de los estudiantes. Eso a menudo es por una buena razón: muchos sí usan IA para hacer trampa.

«Están usando IA para escribir sus ensayos, y luego usan detectores de IA para humanizarlos», dice Leticia Villaseñor, profesora de historia en una escuela preparatoria privada de Los Ángeles, donde regularmente usa un detector de IA para atrapar tramposos. «Trato de que mis estudiantes hagan tantas tareas escritas como sea posible en clase, porque si es tarea, la mitad de ellos usará IA».

No soy un robot

Para los estudiantes que juran que no están pidiendo a un chatbot que escriba sus ensayos, tratar de probar su humanidad se ha convertido en un desafío.

Marcus Wooler, uno de los estudiantes de Villaseñor, dijo que algunos estudiantes son acusados incorrectamente. Un amigo suyo tuvo que mostrar a un profesor su historial de Google Doc para limpiarse. Wooler decidió que debería ejecutar sus ensayos honestamente elaborados a través de un detector de IA antes de enviarlos. «Es una buena precaución», dice el joven de 16 años.

A veces, son los estudiantes que usan herramientas de corrección gramatical —o que aprendieron a escribir más formalmente— quienes son penalizados, dice Devan Leos, cofundador de Undetectable AI, que hace un popular detector de IA y «humanizador». Algunas señales de alerta incluyen el uso de palabras únicas como «delve» y «tapestry» y frases como «valuable insight» y «crucial role».

«Es como si te penalizaran por ser un escritor apropiado», dice Leos.

Resultados contradictorios entre detectores

Harrison Checketts, un estudiante de 16 años que toma la clase de historia de Villaseñor, dice que una vez ejecutó un ensayo de inglés que escribió él mismo a través de cinco detectores de IA diferentes y todos mostraron resultados diferentes. Algunos estaban muy seguros de que partes fueron escritas por IA; otros dijeron que no había posibilidad de que una máquina lo hiciera. Decidió no usar detectores de IA después de eso. «Los profesores son los verdaderos detectores de IA», dice. «Pueden darse cuenta».

Claire Krieger, una estudiante de 20 años de la Universidad Fordham en Nueva York, ejecuta todos sus ensayos a través de detectores de IA, pero dice que pueden proporcionar una falsa sensación de seguridad.

Una de las herramientas que usó para un ensayo de inglés el año pasado marcó algunas citas que citó de un libro, pero eso es todo. Su profesor usó un detector de IA diferente, que marcó una oración que Krieger dice que escribió. Se reunió con su profesor en persona, explicó que no fue generado por IA y afirmó su compromiso con la integridad académica.

Un «estado policial»

Las consecuencias para los estudiantes acusados de enviar trabajos generados por IA son altas. Un estudiante de la Universidad del Norte de Georgia fue puesto en libertad condicional académica el año pasado después de ser acusado de plagio. Dijo a numerosos medios de comunicación que usó Grammarly, un asistente de escritura de IA, para corregir errores de ortografía y gramática, no para hacer trampa. También se asoció con Grammarly para producir videos educativos sobre cómo usar la herramienta para el trabajo escolar.

El incidente llevó a Grammarly a crear una nueva herramienta de autoría. Rastrea el proceso de escritura, mostrando dónde se escribe texto en un documento o se pega, así como qué partes de un documento se crean o modifican con IA. Cuando el ensayo está completo, se genera un informe, que los estudiantes pueden mostrar a los profesores si hay alguna pregunta sobre la fuente de su trabajo.

Jenny Maxwell, jefa de educación de Grammarly, dice que el miedo en torno al uso de IA en las escuelas está causando que los estudiantes pasen mucho tiempo extra reescribiendo para sonar más humanos. Más de 500,000 personas usan la herramienta de detección de IA y plagio de Grammarly cada semana, y la mayoría son estudiantes, dice una portavoz.

En estos días, Maxwell dice, es un «estado policial de escritura».

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí