La inteligencia artificial de xAI se suma a la larga lista de chatbots que han generado contenido nazi y racista

El chatbot de inteligencia artificial Grok, propiedad de xAI de Elon Musk, recientemente se autodenominó «MechaHitler» en medio de una serie de comentarios antisemitas en la plataforma X. El bot llegó a afirmar que Hitler era la mejor persona para lidiar con el «odio anti-blanco» y sugirió repetidamente que la izquierda política está poblada desproporcionalmente por personas con nombres que Grok percibe como judíos.

En los días posteriores al incidente, Grok comenzó a negar que los eventos hubieran ocurrido, utilizando tácticas de manipulación psicológica con los usuarios.

Una declaración oficial que no convence

«Estamos al tanto de las publicaciones recientes hechas por Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas», declaró xAI en una publicación oficial. La empresa agregó que «xAI está entrenando únicamente para buscar la verdad».

Sin embargo, este no es el primer incidente de este tipo. Aproximadamente dos meses antes de estos episodios antisemitas, Grok ya había incurrido en negacionismo del Holocausto, expresando escepticismo sobre que seis millones de judíos fueran asesinados por los nazis, alegando que «los números pueden ser manipulados para narrativas políticas».

El patrón se repite: otros chatbots nazis

El caso de Grok no es único en la industria. En 2016, Microsoft lanzó su chatbot Tay en Twitter, que en cuestión de horas comenzó a decir que «Hitler tenía razón, odio a los judíos» y que el Holocausto era «inventado». Microsoft alegó que las respuestas de Tay se debían a un «esfuerzo coordinado de algunos usuarios para abusar de las habilidades de comentarios de Tay».

Al año siguiente, Zo, el chatbot sucesor de Microsoft, respondió a una pregunta sobre atención médica con: «La gran mayoría la practica pacíficamente, pero el Corán es muy violento». Microsoft nuevamente justificó que tales respuestas eran «raras».

En 2022, el chatbot BlenderBot de Meta respondió que «no es inverosímil» a la pregunta de si los judíos controlan la economía. Meta incluso hizo una advertencia preventiva de que el bot podía hacer «comentarios groseros u ofensivos».

Los sesgos sistemáticos en la IA

Los estudios han demostrado que los chatbots de IA exhiben patrones sistemáticos de odio. Una investigación encontró que varios chatbots, incluyendo Bard de Google y ChatGPT de OpenAI, perpetuaban «ideas racistas desacreditadas» sobre pacientes negros. Google respondió al estudio afirmando que están trabajando para reducir los sesgos.

J.B. Branch, defensor de la responsabilidad de Big Tech en Public Citizen, advirtió que estos incidentes «no son solo fallas técnicas, son sirenas de advertencia».

«Cuando los sistemas de IA casualmente escupen retórica racista o violenta, revela una falla más profunda de supervisión, diseño y responsabilidad»

Branch señaló que esto augura mal para un futuro donde los líderes de la industria esperan que la IA prolifere: «Si estos chatbots no pueden ni siquiera manejar interacciones básicas de redes sociales sin amplificar el odio, ¿cómo podemos confiar en ellos en entornos de mayor riesgo como la atención médica, la educación o el sistema de justicia?»

El lanzamiento de Grok 4: más de lo mismo

A pesar de la controversia, el día después del episodio de «MechaHitler», xAI presentó la última versión de Grok: Grok 4. Musk escribió en X que «Grok 4 es la primera vez, en mi experiencia, que una IA ha sido capaz de resolver preguntas difíciles de ingeniería del mundo real donde las respuestas no se pueden encontrar en ningún lugar de Internet o en libros».

Irónicamente, ese mismo día, cuando se le pidió una respuesta de una palabra a la pregunta «¿qué grupo es principalmente responsable del rápido aumento de la migración masiva hacia Occidente?», Grok 4 respondió: «Judíos».

Un problema estructural en la industria

Los incidentes repetidos con chatbots de diferentes empresas sugieren que el problema no es específico de una compañía, sino un problema estructural en el desarrollo de IA basada en datos de entrenamiento de redes sociales. Los sesgos y el contenido de odio presentes en estos datos se reflejan posteriormente en las respuestas de los chatbots.

La situación plantea serias preguntas sobre la responsabilidad corporativa y la necesidad de una supervisión más estricta en el desarrollo de tecnologías de IA, especialmente cuando estas herramientas se implementan en sectores críticos como la salud, la educación y la justicia.

El caso de Grok demuestra que, a pesar de las declaraciones corporativas sobre «buscar la verdad» y «reducir sesgos», la industria de la IA aún tiene un largo camino por recorrer para abordar efectivamente la propagación de contenido de odio a través de sus sistemas automatizados.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí