Создатель ChatGPT строит секретный бункер – чего он боится
Илья Суцкевер, один из создателей ChatGPT, всерьёз задумался о строительстве бункера для защиты сотрудников OpenAI. Его опасения связаны с возможным появлением искусственного интеллекта, превосходящего человеческий, что может привести к хаосу и насилию.
Летом 2023 года на внутренней встрече OpenAI Суцкевер неожиданно заявил: «Когда мы все окажемся в бункере…» Коллеги были ошеломлены. Он пояснил: перед тем как выпустить AGI — искусственный интеллект общего назначения, способный превзойти человека, — необходимо подготовить убежище для ключевых исследователей. На случай, если мир погрузится в панику.
Эти детали описаны в книге Карен Хао «Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI», вышедшей в мае 2025 года. Идея бункера — не просто шутка. Она обсуждалась неоднократно, что говорит о серьёзности намерений.
Страх перед AGI
Суцкевер и его единомышленники считают, что создание AGI может спровоцировать глобальный кризис. Государства начнут борьбу за контроль над технологией, что приведёт к непредсказуемым последствиям. Обычные лаборатории или офисы не обеспечат безопасность — нужна настоящая крепость.
Бункер задуман как секретное убежище для ведущих специалистов OpenAI. Добровольное, но необходимое. Некоторые даже сравнивают этот сценарий с религиозным понятием «восхищения» — избранные исчезнут перед лицом технологической революции.
Реакция команды
Хотя проект так и не был официально запущен, он оставил след в корпоративной культуре OpenAI. Одни восприняли идею скептически, другие — как разумную меру предосторожности. В любом случае, разговоры о бункере подчёркивают, насколько серьёзно в компании относятся к рискам AGI.
Пока мир гадает, когда появится сверхразумный ИИ, в OpenAI уже готовятся к худшему. На всякий случай.