El fiscal de la ciudad de San Francisco, David Chiu, ha presentado una demanda contra 16 de los sitios web y aplicaciones más populares que permiten a los usuarios «desnudar» fotos de mujeres y niñas utilizando inteligencia artificial (IA). Estos sitios han sido acusados de facilitar la creación de imágenes falsas y explícitas sin el consentimiento de las personas afectadas, generando un aumento alarmante en el acoso y la explotación de mujeres y niñas en línea.
Según la demanda de Chiu, estos sitios están diseñados intencionalmente para «crear imágenes falsas y desnudas de mujeres y niñas sin su consentimiento», promocionando que cualquier usuario puede subir una foto para «ver a cualquiera desnudo» mediante el uso de tecnología que intercambia de forma realista los rostros de las víctimas con imágenes explícitas generadas por IA.
En California y en todo el país, se ha registrado un aumento considerable en el número de mujeres y niñas acosadas y victimizadas por imágenes íntimas generadas por IA sin su consentimiento, un problema que, según Chiu, continúa en ascenso sin señales de detenerse. Además, el fiscal advierte que la disponibilidad y popularidad de estos sitios representa una amenaza constante para los residentes de San Francisco y California, ya que ellos o sus seres queridos podrían ser víctimas de esta práctica.
Durante una conferencia de prensa, Chiu afirmó que esta demanda, la primera de su tipo, busca proteger no solo a los californianos, sino también a un número impactante de mujeres y niñas en todo el mundo. Entre las víctimas, mencionó a celebridades como Taylor Swift, así como a chicas de secundaria. Si Chiu gana, cada sitio demandado podría enfrentar multas de 2.500 dólares por cada violación a la ley de protección al consumidor de California.
La demanda también señala que los delincuentes explotan modelos de generación de imágenes por IA de código abierto, como versiones anteriores de Stable Diffusion, para «desnudar» fotos de mujeres y niñas, muchas veces extraídas de redes sociales. Aunque versiones más recientes de Stable Diffusion han dificultado estos usos, las versiones anteriores siguen siendo accesibles para su mal uso.
En Estados Unidos, la proliferación de imágenes sexuales falsas generadas por IA ha saturado a las autoridades, dificultando la investigación de casos de abuso infantil fuera de línea. Además, el FBI ha alertado sobre un aumento en los esquemas de extorsión utilizando pornografía no consensuada generada por IA, un fenómeno que ha devastado a las víctimas, afectando su reputación y salud mental, e incluso llevándolas a pensamientos suicidas.
Chiu busca una orden judicial para que los propietarios de estos sitios detengan sus operaciones y pide a diversas empresas que restrinjan a los operadores de estos sitios para evitar la creación de nuevas plataformas. Su investigación ha revelado que en los primeros seis meses de 2024, estos sitios han recibido más de 200 millones de visitas.
Chiu confía en que esta demanda sirva como una advertencia para otros operadores de sitios similares, indicando que más cierres podrían estar en camino. Enfatizó que, si bien la IA generativa tiene un gran potencial, su mal uso en este contexto no es innovación, sino abuso sexual.