La creciente influencia de la industria de la inteligencia artificial (IA) ha llevado a las empresas a tomar decisiones significativas sobre su uso en situaciones de vida o muerte. Un ejemplo reciente es la colaboración entre OpenAI y Anduril Industries, una empresa de tecnología de defensa fundada por Palmer Luckey. Esta asociación busca desarrollar modelos de IA similares a los que impulsan ChatGPT para ayudar a las fuerzas estadounidenses y aliadas a identificar y defenderse de ataques aéreos.
Anduril y OpenAI han anunciado que sus modelos de IA procesarán datos para reducir la carga de trabajo de los operadores humanos. Esta iniciativa pretende mejorar la conciencia situacional y agilizar la toma de decisiones en situaciones de alta presión. La colaboración se centra principalmente en la defensa contra drones no tripulados mediante sistemas de contramedidas aéreas, aunque también se mencionan amenazas de plataformas tripuladas tradicionales.
En la actualidad, Anduril fabrica productos que podrían usarse con fines letales, como drones asesinos impulsados por IA y motores de cohetes para misiles. Aunque sus sistemas requieren que los operadores humanos tomen decisiones letales, están diseñados para que sus capacidades autónomas puedan mejorarse con el tiempo. Los modelos de OpenAI podrían ayudar a los operadores a interpretar grandes cantidades de datos entrantes, apoyando así una toma de decisiones más rápida.
El interés del Pentágono en sistemas impulsados por IA ha crecido, con iniciativas como el programa Replicator, que busca desplegar miles de sistemas autónomos en los próximos años. Esta tendencia refleja un cambio en la percepción de la industria tecnológica desde 2018, cuando empleados de Google protestaron por contratos militares. Ahora, gigantes tecnológicos como Google, Microsoft y Amazon compiten por lucrativos contratos de computación en la nube con el Pentágono.
Los Modelos Grandes del Lenguaje (LLM) de OpenAI, conocidos por su capacidad para procesar enormes conjuntos de datos de texto, imágenes y audio, son notoriamente poco fiables y vulnerables a manipulaciones. Esto plantea importantes preguntas sobre la seguridad y fiabilidad de utilizar esta tecnología en situaciones militares críticas. Sin embargo, la colaboración con Anduril estará sujeta a protocolos rigurosos que enfatizan la confianza y la responsabilidad en el desarrollo y uso de la IA avanzada para misiones de seguridad nacional.