El Mando de Operaciones Especiales de Estados Unidos (SOCOM) está buscando desarrollar usuarios falsos en internet mediante el uso de deepfakes, tan convincentes que ni humanos ni computadoras puedan detectarlos como falsos, según un documento revisado por The Intercept. Esta iniciativa está descrita en un informe de 76 páginas del Comando Conjunto de Operaciones Especiales (JSOC) del Departamento de Defensa, que detalla las tecnologías avanzadas requeridas para las operaciones militares más encubiertas.
El JSOC busca crear perfiles de usuarios en línea que parezcan personas reales, con fotos de calidad de identificación oficial y diversas expresiones. Además de imágenes estáticas, la tecnología incluiría videos con “selfies” y fondos generados, creando entornos virtuales indetectables por los algoritmos de las redes sociales. Esta propuesta también contempla el uso de audio y vídeos, lo que permitiría que estos perfiles falsos interactúen en redes sociales sin levantar sospechas.
Este enfoque no es nuevo. En 2022, tanto Meta como Twitter eliminaron cuentas falsas operadas por el Comando Central de Estados Unidos (CENTCOM), algunas de las cuales utilizaban imágenes generadas con tecnología similar a la propuesta actual del JSOC. Además, una investigación de Reuters en 2024 reveló una campaña de SOCOM con usuarios falsos en redes sociales para socavar la confianza en la vacuna contra el COVID-19 de China.
En 2023, SOCOM ya mostró interés en usar deepfakes en operaciones de influencia, engaño digital y campañas de desinformación. Los deepfakes, generados por técnicas avanzadas de aprendizaje automático, son herramientas poderosas que pueden recrear de forma muy precisa rasgos humanos. El uso de software como StyleGAN, que generó perfiles falsos tan convincentes que fueron utilizados para redes de desinformación, es un ejemplo claro del nivel de sofisticación buscado.
El interés del SOCOM en estos perfiles falsos no está exento de controversia. Aunque el gobierno de EE. UU. ha advertido sobre los peligros de los deepfakes en manos de adversarios como Rusia, China o Irán, el desarrollo de esta tecnología por parte del Pentágono plantea preocupaciones sobre una posible doble moral. En septiembre de 2023, la NSA, el FBI y la CISA advirtieron que los deepfakes representan un riesgo creciente para la seguridad global. Sin embargo, el desarrollo de estas capacidades por parte de Estados Unidos podría acelerar su proliferación y normalización como herramienta militar.
Heidy Khlaaf, científica principal del AI Now Institute, señaló que la tecnología de deepfakes es inherentemente engañosa, y su uso por parte del ejército estadounidense podría alentar a otros países a seguir el mismo camino, complicando aún más la distinción entre la verdad y la ficción en el ámbito geopolítico.