Estudios científicos generados por inteligencia artificial inundan Google Scholar, según un estudio

Un nuevo estudio ha revelado una preocupante tendencia en la investigación académica: el uso de herramientas de IA, como ChatGPT, para crear artículos científicos falsos que están infiltrándose en Google Scholar, uno de los motores de búsqueda académicos más populares. Estos trabajos generados por IA, que a menudo son difíciles de distinguir de investigaciones legítimas, están diseminándose por bases de datos académicas, lo que genera preocupaciones sobre la integridad de la literatura científica en línea.

La investigación, publicada en el Harvard Kennedy School Misinformation Review, identificó 139 artículos sospechosos de haber sido creados con herramientas de IA. Más de la mitad de estos estudios falsos abordaban temas relevantes para políticas públicas, como la salud, cuestiones medioambientales y tecnología informática.

Una persona joven con gafas está sentada frente a un portátil en una biblioteca o estudio. Lleva una camisa anaranjada y tiene un cuaderno abierto, mientras parece concentrada en su trabajo o estudio. En el fondo, se ven varias estanterías llenas de libros.

Los autores del estudio señalaron que el lanzamiento de ChatGPT en 2022, junto con el funcionamiento de Google Scholar, ha aumentado la probabilidad de que personas no expertas (como medios, políticos, pacientes o estudiantes) se topen con estudios dudosos o completamente fabricados por IA. Newsweek se ha puesto en contacto con Google para obtener comentarios sobre las afirmaciones del estudio.

Los investigadores advierten que este aumento de contenido generado por IA podría facilitar lo que llaman «evidence hacking», una manipulación estratégica del conocimiento científico, lo que amenaza la confianza pública en la ciencia y en la toma de decisiones basadas en evidencia.

El evidence hacking no es nuevo, como señala uno de los autores del estudio de la Universidad de Borås, Suecia. Comparó esta situación con las tácticas utilizadas por las industrias del tabaco y del petróleo, que crearon contrapruebas científicas para retrasar regulaciones. Sin embargo, la IA genera pruebas de forma más rápida y convincente, amplificando el problema al facilitar la difusión de estos estudios mediante plataformas como Google Scholar, a un costo mucho menor para los actores malintencionados.

Además, la estructura de Google Scholar facilita este problema al carecer de transparencia y de estándares rigurosos comunes en bases de datos académicas tradicionales. No ofrece filtros de búsqueda claros que diferencien entre el tipo de material, estado de publicación o si ha sido revisado por pares.

Una solución que propone el autor principal del estudio es que Google Scholar funcione más como los sistemas académicos tradicionales, con más transparencia y control para los usuarios sobre qué investigaciones desean excluir. También sugiere que se utilicen sistemas y bases de datos existentes para que los investigadores puedan centrarse en contenido validado.

Uno de los hallazgos más sorprendentes fue que muchos de estos artículos eran fáciles de detectar, ya que contenían frases típicas de ChatGPT, e incluso algunos provenían de revistas académicas consolidadas. Otro aspecto preocupante fue la velocidad con la que estos trabajos se habían extendido por las redes de comunicación académica, incluidos repositorios de investigación y redes sociales.

El autor principal del estudio cree que este es solo el principio de un problema mayor, ya que el uso de herramientas de IA en la creación de estudios académicos va en aumento. Sin embargo, también señaló que algunos de estos artículos estaban tan mal redactados que podrían haber sido detectados con una simple revisión.

La magnitud del problema aún no está clara, pero se estima que hasta un 1 % de las publicaciones en 2023 podrían haber utilizado ChatGPT. Para detener esta proliferación de estudios falsos, se requerirá la colaboración de expertos de diferentes disciplinas. Aunque retractar un artículo de su fuente original es relativamente sencillo, su difusión en otras plataformas hace que sea más difícil erradicarlo por completo, especialmente cuando Google Scholar sigue indexándolos.

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.