Importante aplicación de noticias atrapada compartiendo noticias falsas generadas por IA

Durante la pasada Nochebuena, NewsBreak, la aplicación de noticias locales más descargada en Estados Unidos, publicó una historia generada por IA sobre un tiroteo falso en Nueva Jersey. Este hecho obligó a la policía local a emitir un comunicado online para tranquilizar a los ciudadanos, afirmando que la historia era «totalmente falsa», según informó Reuters.

La policía de Nueva Jersey declaró en su página de Facebook: «Nada similar a esta historia ocurrió en Navidad ni en cualquier otro momento reciente en el área descrita. Parece que este ‘medio de noticias’ tiene una IA que escribe ficción sin problemas para publicarla a los lectores». NewsBreak, que atrae a más de 50 millones de usuarios mensuales, tardó cuatro días en eliminar la historia falsa del tiroteo.

Según Reuters, no fue un incidente aislado. Desde 2021, la herramienta de IA de NewsBreak, que recopila y reescribe noticias locales, ha publicado al menos 40 historias engañosas o erróneas. Estos artículos han causado daños reales en comunidades, según siete ex empleados de NewsBreak que hablaron con Reuters bajo anonimato debido a acuerdos de confidencialidad.

En algunos casos, la IA comete errores en detalles menores. Por ejemplo, el banco de alimentos Food to Power en Colorado tuvo que rechazar a personas después de que la aplicación publicara horarios incorrectos de distribución de alimentos. En otros casos, la IA inventa eventos completamente. La organización benéfica Harvest912 en Pensilvania tuvo que rechazar a personas sin hogar cuando NewsBreak anunció falsamente una clínica de cuidado de pies las 24 horas.

NewsBreak afirmó a Reuters que todos los artículos erróneos fueron eliminados y culpó a las organizaciones benéficas por supuestamente publicar información incorrecta en sus sitios web. Sin embargo, la empresa ha evitado asumir plena responsabilidad, una táctica que parece ser común entre defensores de herramientas de IA.

Reuters descubrió que los artículos de NewsBreak no solo contenían errores, sino que también a veces se publicaban bajo seudónimos ficticios. Además, la historia falsa del tiroteo se originó de un sitio llamado FindPlace.xyz, escrito por una supuesta periodista llamada Amelia Washington, cuyo perfil no existe fuera del sitio de noticias y su foto parece ser una imagen de stock.

Xana O’Neill, ex jefa de contenido de NewsBreak, defendió el uso de IA para tareas básicas del periodismo, aunque reconoció la necesidad de salvaguardar contra la desinformación. O’Neill dejó NewsBreak para fundar Forth, una plataforma para noticias creíbles, en respuesta a la proliferación de desinformación y noticias generadas por IA.

Fuente

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.