El avance de la inteligencia artificial (IA) en el ámbito militar ha suscitado un debate global sobre su impacto en los conflictos armados. En particular, el uso de modelos de IA desarrollados por empresas tecnológicas estadounidenses por parte de Israel ha intensificado las preocupaciones sobre su papel en la selección de objetivos y el aumento de bajas civiles. Este fenómeno se ha evidenciado en los recientes conflictos en Gaza y Líbano, donde la tecnología ha permitido a Israel rastrear y atacar a presuntos militantes con mayor rapidez, aunque también ha incrementado el número de víctimas civiles.
Desde hace años, los ejércitos han contratado a empresas privadas para desarrollar armas autónomas personalizadas. Sin embargo, los recientes conflictos de Israel representan un caso destacado en el que modelos comerciales de IA, creados en Estados Unidos, se han utilizado activamente en la guerra. Esto ha generado inquietud, ya que estos modelos no fueron diseñados originalmente para decidir sobre la vida o la muerte. La inteligencia artificial se emplea para analizar grandes volúmenes de inteligencia, comunicaciones interceptadas y vigilancia, con el fin de identificar comportamientos sospechosos y rastrear movimientos enemigos.
Una investigación de Associated Press reveló que, tras un ataque sorpresa de militantes de Hamas en octubre de 2023, el uso de tecnología de Microsoft y OpenAI por parte del ejército israelí se disparó. Este aumento en el uso de IA ha permitido al ejército israelí identificar objetivos más rápidamente, lo que ha sido calificado como un «cambio de juego». Sin embargo, también ha planteado preocupaciones sobre la precisión de estos sistemas, especialmente cuando se basan en datos defectuosos o algoritmos erróneos. A pesar de que se asegura que siempre hay varias capas de intervención humana en el proceso de selección de objetivos, los errores pueden ocurrir.
La relación entre las empresas tecnológicas y el ejército israelí ha sido objeto de escrutinio, especialmente en Estados Unidos, donde algunos empleados han expresado preocupaciones éticas. Microsoft, Google y Amazon, entre otras, han proporcionado servicios de computación en la nube y de IA al ejército israelí. Aunque estas empresas afirman estar comprometidas con el desarrollo responsable de la IA, la realidad es que su tecnología se ha utilizado en contextos bélicos, lo que ha generado críticas y protestas internas. La implicación de estas empresas en conflictos armados plantea preguntas sobre el futuro de la guerra automatizada y el papel de la tecnología en la toma de decisiones críticas.