Meta anunció el jueves que está demandando a un fabricante de aplicaciones que utiliza inteligencia artificial para simular imágenes de desnudos de personas reales que aparecen vestidas en fotografías.
La empresa matriz de Facebook e Instagram presentó una demanda en Hong Kong contra Joy Timeline HK Limited, la entidad detrás de la aplicación CrushAI, para evitar que publicite sus aplicaciones en las plataformas de Meta.
Meta toma medidas drásticas contra las apps abusivas
«Esta acción legal subraya tanto la seriedad con la que tomamos este abuso como nuestro compromiso de hacer todo lo posible para proteger a nuestra comunidad de ello», declaró Meta en un comunicado. «Continuaremos tomando las medidas necesarias, que podrían incluir acciones legales, contra aquellos que abusan de nuestras plataformas de esta manera».
La acción legal surge después de que Joy Timeline realizara «múltiples intentos» de eludir el proceso de revisión de anuncios de Meta, según alega la compañía.
Anuncios controvertidos en Facebook e Instagram
Los anuncios de las llamadas apps «nudify» han aparecido en las plataformas Facebook e Instagram de Meta a pesar de violar las políticas publicitarias de las redes sociales. CrushAI, que desarrolla estas aplicaciones, promocionó herramientas de IA que según dice permiten a los usuarios subir fotos y «ver a cualquiera desnudo», según encontró una investigación de CBS News.
Meta ha declarado que la empresa prohíbe las «imágenes íntimas no consensuales» en sus plataformas. La compañía previamente informó a CBS News que ha eliminado anuncios de tecnología nudify, borrado páginas en sus plataformas que publican estos anuncios y bloqueado permanentemente sitios web asociados con las aplicaciones.
Colaboración con otras empresas tecnológicas
Meta anunció el jueves que compartirá información, incluyendo URLs de anuncios, sobre entidades que violan sus políticas con otras empresas tecnológicas a través del Programa Lantern de Tech Coalition, que rastrea comportamientos que violan sus reglas de seguridad infantil. Desde marzo, Meta ha proporcionado al programa información sobre más de 3,800 sitios que se comparte con otras empresas tecnológicas, según la compañía.
Nuevas tecnologías de detección
Meta explicó que los anunciantes de apps nudify utilizan varios métodos para evitar la detección en sus plataformas, incluyendo el uso de imágenes inofensivas para tratar de eludir la tecnología utilizada para identificar tales anuncios en sus sitios. Como resultado, ha desarrollado mejor tecnología para detectar anuncios de apps nudify que se presentan como benignos.
«Hemos trabajado con expertos externos y nuestros propios equipos especializados para ampliar la lista de términos, frases y emojis relacionados con la seguridad que nuestros sistemas están entrenados para detectar con estos anuncios», declaró Meta.
Un problema creciente en las redes sociales
Esta demanda representa un paso significativo en la lucha contra el abuso de IA generativa para crear contenido no consensual. Las aplicaciones que utilizan inteligencia artificial para generar imágenes falsas de desnudos se han convertido en un problema creciente, especialmente porque pueden afectar desproporcionadamente a mujeres y menores de edad.
La acción legal de Meta demuestra un enfoque más agresivo de las grandes plataformas tecnológicas para combatir el mal uso de la inteligencia artificial y proteger a los usuarios de contenido potencialmente dañino y no consensual.