El Pentágono quiere utilizar IA para crear usuarios de redes sociales falsos

El Mando de Operaciones Especiales de Estados Unidos (SOCOM) está buscando desarrollar usuarios falsos en internet mediante el uso de deepfakes, tan convincentes que ni humanos ni computadoras puedan detectarlos como falsos, según un documento revisado por The Intercept. Esta iniciativa está descrita en un informe de 76 páginas del Comando Conjunto de Operaciones Especiales (JSOC) del Departamento de Defensa, que detalla las tecnologías avanzadas requeridas para las operaciones militares más encubiertas.

Vista aérea del Pentágono, el icónico edificio de cinco lados que sirve como sede del Departamento de Defensa de los Estados Unidos. El edificio tiene forma pentagonal y está rodeado de carreteras y aparcamientos. En su interior se puede ver un patio central con árboles y vegetación. A su alrededor, hay varias zonas con coches estacionados y vías de acceso que conectan con carreteras principales. La estructura es simétrica y está compuesta por varias alas que se interconectan, con un diseño funcional y masivo.

El JSOC busca crear perfiles de usuarios en línea que parezcan personas reales, con fotos de calidad de identificación oficial y diversas expresiones. Además de imágenes estáticas, la tecnología incluiría videos con “selfies” y fondos generados, creando entornos virtuales indetectables por los algoritmos de las redes sociales. Esta propuesta también contempla el uso de audio y vídeos, lo que permitiría que estos perfiles falsos interactúen en redes sociales sin levantar sospechas.

Este enfoque no es nuevo. En 2022, tanto Meta como Twitter eliminaron cuentas falsas operadas por el Comando Central de Estados Unidos (CENTCOM), algunas de las cuales utilizaban imágenes generadas con tecnología similar a la propuesta actual del JSOC. Además, una investigación de Reuters en 2024 reveló una campaña de SOCOM con usuarios falsos en redes sociales para socavar la confianza en la vacuna contra el COVID-19 de China.

En 2023, SOCOM ya mostró interés en usar deepfakes en operaciones de influencia, engaño digital y campañas de desinformación. Los deepfakes, generados por técnicas avanzadas de aprendizaje automático, son herramientas poderosas que pueden recrear de forma muy precisa rasgos humanos. El uso de software como StyleGAN, que generó perfiles falsos tan convincentes que fueron utilizados para redes de desinformación, es un ejemplo claro del nivel de sofisticación buscado.

El interés del SOCOM en estos perfiles falsos no está exento de controversia. Aunque el gobierno de EE. UU. ha advertido sobre los peligros de los deepfakes en manos de adversarios como Rusia, China o Irán, el desarrollo de esta tecnología por parte del Pentágono plantea preocupaciones sobre una posible doble moral. En septiembre de 2023, la NSA, el FBI y la CISA advirtieron que los deepfakes representan un riesgo creciente para la seguridad global. Sin embargo, el desarrollo de estas capacidades por parte de Estados Unidos podría acelerar su proliferación y normalización como herramienta militar.

Heidy Khlaaf, científica principal del AI Now Institute, señaló que la tecnología de deepfakes es inherentemente engañosa, y su uso por parte del ejército estadounidense podría alentar a otros países a seguir el mismo camino, complicando aún más la distinción entre la verdad y la ficción en el ámbito geopolítico.

Las últimas noticias en nuestro podcast semanal

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.