Una investigación de CBS News ha revelado que Meta, la empresa matriz de Facebook e Instagram, permitió durante meses la publicación de cientos de anuncios que promocionaban aplicaciones de inteligencia artificial diseñadas para crear deepfakes sexuales no consensuales de personas reales. Estas herramientas, conocidas como «nudify», permiten a los usuarios subir fotografías de cualquier persona y generar imágenes explícitas falsas mediante IA.
Meta retira los anuncios tras ser confrontada
Después de que CBS News contactara a la compañía con los hallazgos de su investigación, Meta procedió a eliminar los anuncios y emitió un comunicado defendiendo sus políticas:
«Tenemos reglas estrictas contra las imágenes íntimas no consensuales; eliminamos estos anuncios, borramos las páginas responsables de ejecutarlos y bloqueamos permanentemente las URLs asociadas con estas aplicaciones», declaró un portavoz de Meta.
Sin embargo, la investigación reveló que nuevos anuncios de estas herramientas siguieron apareciendo en Instagram incluso después de que Meta eliminara los inicialmente señalados.
Cientos de anuncios promocionando la violencia digital
El análisis de CBS News descubrió decenas de estos anuncios en Instagram Stories, promocionando herramientas de IA con mensajes como «sube una foto» y «ve a cualquiera desnuda». Algunos anuncios incluso utilizaban imágenes sexualizadas deepfake de actrices famosas como Scarlett Johansson y Anne Hathaway para promocionar sus servicios.
Según los datos de la Ad Library de Meta, existían como mínimo cientos de estos anuncios distribuidos en todas las plataformas de la compañía:
- Threads
- Facebook Messenger
- Meta Audience Network
Los anuncios estaban específicamente dirigidos a hombres entre 18 y 65 años y fueron activos en Estados Unidos, la Unión Europea y el Reino Unido.
Un negocio lucrativo que explota la imagen de las víctimas
Muchas de estas aplicaciones cobraban a los usuarios entre $20 y $80 dólares para acceder a funciones «exclusivas» y «avanzadas». Los enlaces de algunos anuncios redirigían directamente a la App Store de Apple, donde estas aplicaciones estaban disponibles para descarga.
Un anuncio particularmente perturbador incluía el texto «¿cómo se permite siquiera este filtro?» debajo de un ejemplo de un deepfake desnudo. Otros promocionaban la capacidad de animar imágenes de personas reales y hacer que realizaran actos sexuales.
Violaciones sistemáticas de políticas corporativas
Estos anuncios violaban directamente las propias políticas de Meta:
- Política de estándares publicitarios: «Los anuncios no deben contener desnudez adulta y actividad sexual»
- Política de bullying y acoso: Prohíbe «photoshop sexualizado despectivo o dibujos»
Apple también tiene guidelines claros que prohíben contenido que sea «ofensivo, insensible, perturbador» o «simplemente espeluznante».
Expertos critican la falta de voluntad corporativa
Alexios Mantzarlis, director de la Iniciativa de Seguridad, Confianza y Seguridad en el centro de investigación tecnológica de Cornell University, ha estado estudiando este fenómeno durante más de un año. En su opinión, Meta tiene los recursos pero carece de la voluntad para abordar el problema:
«Creo que los equipos de confianza y seguridad en estas compañías se preocupan. No creo, francamente, que se preocupen en la cúpula de la compañía en el caso de Meta. Claramente están sub-financiando a los equipos que tienen que luchar contra esto».
Mantzarlis también criticó la falta de cooperación entre plataformas: «Necesita haber cooperación inter-industrial donde si la app o el sitio web se mercadea como una herramienta para nudificación en cualquier lugar de la web, entonces todos los demás pueden decir: ‘Está bien, no me importa cómo te presentes en mi plataforma, te vas'».
El peligro para menores: sin verificación de edad
Una de las revelaciones más alarmantes de la investigación fue que muchos de estos sitios no requerían verificación de edad. CBS News analizó uno de los sitios web promocionados en Instagram y descubrió que no había ningún proceso de verificación antes de que un usuario pudiera subir una foto para generar un deepfake.
En diciembre, el programa 60 Minutes de CBS había reportado sobre uno de los sitios más populares de IA para generar fotos desnudas falsas, donde a pesar de advertir que los usuarios debían ser mayores de 18 años, cualquiera podía acceder inmediatamente haciendo clic en «aceptar».
Un problema creciente entre adolescentes
Los datos muestran que este problema está afectando significativamente a los menores. Un estudio de marzo de 2025 realizado por la organización sin fines de lucro Thorn reveló:
- 41% de los adolescentes había escuchado el término «deepfake nudes»
- 10% reportó conocer personalmente a alguien que había tenido imágenes deepfake desnudas creadas de ellos
Marco legal insuficiente
El mes pasado, el presidente Trump firmó la «Take It Down Act» bipartidista, que requiere que sitios web y redes sociales eliminen contenido deepfake dentro de 48 horas de recibir notificación de una víctima. Sin embargo, la ley no aborda las herramientas utilizadas para crear este contenido de IA.
Aunque la ley hace ilegal «publicar conscientemente» o amenazar con publicar imágenes íntimas sin consentimiento de una persona, incluyendo deepfakes de IA, las aplicaciones que crean este contenido continúan proliferando en las principales plataformas tecnológicas.
La respuesta insuficiente de las Big Tech
La investigación expone cómo las grandes empresas tecnológicas están facilitando inadvertidamente la creación y distribución de estas herramientas de abuso. A pesar de tener políticas claras contra este tipo de contenido, la implementación y supervisión han demostrado ser completamente inadecuadas.
Meta reconoció que este es un «problema continuo» y que enfrentan «desafíos cada vez más sofisticados» para combatirlo, pero los hechos sugieren que la compañía no está dedicando suficientes recursos para abordar una crisis que está afectando desproporcionalmente a mujeres y menores.
La investigación de CBS News pone en evidencia una vez más cómo la autorregulación de las plataformas tecnológicas ha fallado en proteger a los usuarios más vulnerables, permitiendo que un mercado lucrativo de violencia digital basado en IA florezca bajo sus propias narices.