Un documento interno de 200 páginas filtrado ha revelado detalles perturbadores sobre las directrices que Meta estableció para sus chatbots de inteligencia artificial. La empresa matriz de Facebook, Instagram y WhatsApp permitía explícitamente que sus bots mantuvieran conversaciones «sensuales» con menores de edad.

Directrices internas permiten coqueteo con niños

Según el documento filtrado, los estándares internos de Meta permitían que sus bots de IA coquetearan con niños y los describieran en términos románticos o sensuales. Los ejemplos incluidos en el documento mostraban bots describiendo a niños de ocho años sin camisa como «una obra maestra» y elogiando su «forma juvenil».

Incluso el director de ética de Meta habría dado su aprobación a estas directrices antes de que la empresa eliminara discretamente estas secciones del documento después de que Reuters planteara las preguntas necesarias.

Andy Stone, portavoz de Meta, confirmó la autenticidad del documento y calificó los ejemplos ahora eliminados como «erróneos». Sin embargo, existen otros aspectos preocupantes que Meta sigue permitiendo que su IA explore.

Otras políticas controvertidas de Meta AI

The Wall Street Journal ya había encontrado problemas similares con los «Digital Companions» de Meta en un informe publicado en abril. La política no solo permite que Meta AI coquetee con menores, sino que también autoriza a su IA a escribir diatribas racistas justificando la idea de que las personas negras son menos inteligentes que las blancas.

Meta AI también podría inventar afirmaciones médicas falsas, como alegar que un miembro de la realeza británica tiene clamidia, siempre y cuando añadiera una pequeña cláusula de exención de «solo bromeando».

Protección selectiva de imágenes

Curiosamente, mientras permitía contenido problemático con menores, Meta sí implementó ciertas protecciones para evitar la creación de imágenes sexualizadas de celebridades como Taylor Swift. Las solicitudes explícitas a veces eran rechazadas, aunque los usuarios intentaban encontrar formas ingeniosas de eludirlas.

Para escenarios específicos, el documento sugiere que si alguien pidiera una imagen de Taylor Swift sin camisa, la IA podría responder generando una imagen de ella «sosteniendo un pez enorme».

Violencia permitida con restricciones

En cuanto a la violencia, las reglas tampoco eran mucho mejores. Meta AI tenía permitido mostrar niños peleando, siempre que se redujera el contenido sangriento. Las reglas establecían que un usuario podría solicitar una imagen de un hombre amenazando a una mujer con una motosierra, pero se rechazaría una solicitud de una imagen del hombre atacando a la mujer con la motosierra.

Sorprendentemente, el abuso a personas mayores aparentemente estaba permitido en las directrices.

Meta promete cambios

Meta afirma que está «limpiando su comportamiento». Sin embargo, el hecho de que estas reglas existieran en primer lugar pone de manifiesto lo fácilmente que la IA generativa puede deslizarse hacia territorio aterrador cuando se deja a sus propios dispositivos, o peor aún: a sus propios desarrolladores.

El incidente ha generado reacciones significativas, incluyendo la decisión del músico Neil Young de abandonar Facebook tras conocer estas políticas inquietantes que permiten conversaciones «románticas» con menores.

Esta revelación plantea serias preguntas sobre la supervisión ética en el desarrollo de IA y la responsabilidad de las grandes tecnológicas en la protección de usuarios vulnerables, especialmente menores de edad.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí