Una investigación revela que la controvertida app de nudificación ha comprado 10 rivales mientras ignora demandas legales y planea una expansión global masiva

Una nueva investigación de Der Spiegel ha revelado los inquietantes planes de expansión de Clothoff, una de las aplicaciones líderes utilizadas para crear rápida y económicamente imágenes falsas de desnudos a partir de fotografías de personas reales. La app, también conocida como aplicación de «nudificación», ha resistido los intentos de desenmascarar y confrontar a sus operadores, y ahora planea una dominación global del mercado de pornografía deepfake.

Resistencia legal y adquisiciones estratégicas

En agosto pasado, Clothoff fue una de las aplicaciones demandadas por el fiscal de la ciudad de San Francisco, David Chiu, en un intento de forzar su cierre. Sin embargo, un informante que tuvo «acceso a información interna de la empresa» como ex empleado de Clothoff reveló a Der Spiegel que los operadores de la app «parecen no estar impresionados por la demanda» y, en lugar de preocuparse por el cierre, han «comprado toda una red de aplicaciones de nudificación».

Der Spiegel encontró evidencia de que Clothoff actualmente posee al menos 10 otros servicios de nudificación, atrayendo «visualizaciones mensuales que van desde cientos de miles hasta varios millones». El informante, cuya identidad fue protegida por el medio, explicó que los planes de expansión estaban motivados por empleados de Clothoff que se habían vuelto «cínicos» y «obsesionados con el dinero» con el tiempo, mientras la app evolucionaba de lo que una vez se sintió como una «startup emocionante» hacia un negocio más lucrativo.

Presupuesto millonario y nuevas estrategias de marketing

Actualmente, Clothoff opera con un presupuesto anual de alrededor de $3.5 millones, según reveló el informante. La aplicación ha cambiado sus métodos de marketing desde su lanzamiento, aparentemente ahora dependiendo en gran medida de bots de Telegram y canales de X para dirigir anuncios a hombres jóvenes propensos a usar sus aplicaciones.

El informe de Der Spiegel documenta el «plan de marketing a gran escala» de Clothoff para expandirse al mercado alemán. La supuesta campaña se basa en producir «imágenes desnudas de influencers, cantantes y actrices conocidas», buscando atraer clics en anuncios con el eslogan «tú eliges a quién quieres desnudar».

Algunas de las estrellas nombradas en el plan confirmaron a Der Spiegel que nunca consintieron este uso de sus imágenes, y algunos de sus representantes sugirieron que buscarían acciones legales si la campaña alguna vez se lanza.

Campañas similares planificadas para múltiples mercados

Campañas similares de celebridades están planificadas para otros mercados, incluyendo los mercados británico, francés y español. Clothoff ya se ha convertido en una herramienta popular en Estados Unidos, no solo siendo objetivo en la demanda del fiscal de San Francisco, sino también en una queja presentada por una estudiante de secundaria en Nueva Jersey que está demandando a un chico que usó Clothoff para nudificar una de sus fotos de Instagram tomada cuando tenía 14 años, luego la compartió con otros chicos en Snapchat.

Targeting específico hacia audiencias jóvenes

Clothoff aparentemente espera atraer a más chicos jóvenes en todo el mundo para que usen sus apps para tales propósitos. El informante dijo a Der Spiegel que la mayor parte del presupuesto de marketing de Clothoff va hacia «publicaciones publicitarias en canales especiales de Telegram, en subreddits de sexo en Reddit, y en 4chan».

En los anuncios, la app planea dirigirse específicamente a «hombres entre 16 y 35 años» a quienes les gustan cosas aparentemente inofensivas como «memes» y «videojuegos», así como contenido más tóxico como «ideas extremistas de derecha», «misoginia» y «Andrew Tate», un influencer criticado por promover puntos de vista misóginos hacia adolescentes.

Dificultades legales y evolución continua

Mientras Chiu esperaba defender a las mujeres jóvenes cada vez más atacadas en imágenes falsas de desnudos cerrando Clothoff, hasta ahora ha logrado un acuerdo que cerró dos sitios web (porngen.art y undresser.ai), pero los intentos de notificar legalmente a Clothoff a través de canales legales disponibles no han tenido éxito.

Mientras tanto, Clothoff continúa evolucionando, recientemente comercializando una función que Clothoff afirma atrajo a más de un millón de usuarios ansiosos por hacer videos explícitos a partir de una sola imagen.

Operadores en Europa del Este

Los esfuerzos de Der Spiegel para desenmascarar a los operadores de Clothoff llevaron al medio a Europa del Este, después de que los reporteros tropezaran con una «base de datos accidentalmente dejada abierta en Internet» que aparentemente expuso «cuatro personas centrales detrás del sitio web».

Esto fue «consistente» con la afirmación del informante de que todos los empleados de Clothoff «trabajan en países que solían pertenecer a la Unión Soviética». Además, Der Spiegel notó que todas las comunicaciones internas de Clothoff que revisaron estaban escritas en ruso, y el servicio de correo electrónico del sitio está basado en Rusia.

Negaciones y contradicciones

Una persona que afirmaba ser un portavoz de Clothoff llamado Elias negó conocer a cualquiera de las cuatro personas señaladas en la investigación y disputó la cifra del presupuesto de $3 millones. Elias afirmó que un acuerdo de confidencialidad le impedía discutir más el equipo de Clothoff.

Respecto al plan de marketing compartido para la expansión global, Elias negó que Clothoff pretendiera usar influencers celebridades, diciendo que «Clothoff prohíbe el uso de fotos de personas sin su consentimiento».

También negó que Clothoff pudiera usarse para nudificar imágenes de menores; sin embargo, un usuario de Clothoff que habló con Der Spiegel bajo condición de anonimato confirmó que su intento de generar una imagen falsa de desnudo de una cantante estadounidense falló inicialmente porque ella «parecía que podría ser menor de edad». Pero su segundo intento unos días después generó exitosamente la imagen falsa sin problema, sugiriendo que la detección de edad de Clothoff puede no funcionar perfectamente.

Impacto legal y legislativo

Para los chicos jóvenes que parecen despreocupados sobre crear imágenes falsas de desnudos de sus compañeras de clase, las consecuencias han variado desde suspensiones hasta cargos criminales juveniles. En la demanda donde la estudiante de secundaria está intentando demandar a un chico que usó Clothoff para intimidarla, actualmente hay resistencia de los chicos que participaron en chats grupales para compartir la evidencia que tienen en sus teléfonos. Si ella gana su batalla, está pidiendo $150,000 en daños por imagen compartida.

Desde que ella y el fiscal de San Francisco presentaron sus demandas, ha pasado la Take It Down Act, que facilita forzar a las plataformas a remover imágenes falsas de desnudos generadas por IA. Pero los expertos esperan que la ley enfrente desafíos legales.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí