Un grupo de científicos de OpenAI, encabezado por su cofundador y ex-científico jefe Ilya Sutskever, ha manifestado su preocupación sobre los peligros que podría conllevar la creación de una Inteligencia General Artificial (AGI), que supere la inteligencia humana. En una reunión celebrada en el verano de 2023, Sutskever propuso la construcción de un «bunker del juicio final» como medida de precaución.
Durante la discusión, Sutskever enfatizó la necesidad de establecer un refugio para proteger a los investigadores ante posibles consecuencias catastróficas tras la liberación de la AGI. Sus palabras fueron claras: “Definitivamente construiremos un bunker antes de liberar la AGI.”
Esta inquietud no es infundada, ya que expertos en seguridad de IA han manifestado que existe una probabilidad alarmante de que la inteligencia artificial pueda llevar a la humanidad a su extinción. Según Roman Yampolskiy, investigador en seguridad de IA, hay un 99.999999% de probabilidad de que la IA acabe con la humanidad. A pesar de este sombrío pronóstico, el CEO de OpenAI, Sam Altman, ha afirmado que la amenaza real no se manifestará inmediatamente en el momento del surgimiento de la AGI, sugiriendo que el desarrollo podría avanzar con un impacto social relativamente bajo al principio.
Sin embargo, las voces de alarma en el ámbito de la inteligencia artificial son cada vez más comunes. Otros líderes del sector, como Demis Hassabis, CEO de DeepMind, también han expresado su preocupación sobre el preparado de la sociedad para enfrentar los desafíos que eventualmente surgirán con la AGI. Mientras tanto, Dario Amodei, CEO de Anthropic, ha admitido que su empresa no comprende completamente cómo funcionan sus propios modelos de IA, subrayando la falta de entendimiento que podría constituir un peligro inminente.
La discusión sobre el «bunker» de OpenAI se ha convertido en un tema recurrente dentro de las conversaciones internas sobre los futuros riesgos que presenta el avance exponencial en el campo de la IA, y plantea la pregunta inquietante: ¿estamos realmente preparados para coexistir con sistemas de IA más poderosos y eficientes que los seres humanos?