La llegada de la AGI (la OpenAI, Ilya Sutskever, quien advirtió que un búnker sería el mejor lugar para escapar si es que este momento sucedía.
En entrevistas con Karen Hao, de Sam Altman en noviembre de 2023, personas cercanas a Sutskever dijeron que parecía muy preocupado por AGI.
Esto, porque el científico creía que un escenario apocalíptico era muy probable con su implementación.
«Una vez que todos estemos en el búnker…» —empezó a decir el científico jefe—.
—Lo siento —interrumpió la investigadora—, ¿el búnker?
«Definitivamente vamos a construir un búnker antes de liberar a AGI», dijo Sutskever, con naturalidad. «Por supuesto, va a ser opcional si quieres entrar en el búnker».

De hecho, otra fuente de la investigación del libro de Hao, y que se encontraba al interior de OpenAI confirma que «hay un grupo de personas, Ilya es una de ellas, que creen que la construcción de AGI traerá un rapto. Literalmente, un rapto».
Como señalaron otras personas que hablaron con la autora para su próximo libro «Empire of AI«, la obsesión por la AGI de Sutskever había adquirido un tono novedoso para el verano de 2023. Aparte de su interés en la construcción de AGI, también se había preocupado por la forma en que OpenAI estaba manejando la tecnología que estaba gestando.
Esto último generó el intento de golpe de Estado contra Sam Altman de la junta directiva de OpenAI, ya que sus ideas estaban en bandos completamente opuestos.