Убежище для команды ChatGPT: почему Сэм Альтман его заказал
Бывший главный научный сотрудник OpenAI Илья Суцкевер предложил построить защитный бункер перед выпуском искусственного общего интеллекта (AGI). Эта информация стала известна из отрывков готовящейся к выходу книги «Империя ИИ» журналистки Карен Хао, основанной на интервью с 90 нынешними и бывшими сотрудниками OpenAI.
Суцкевер, один из соучредителей OpenAI, заявил своей команде в 2023 году, что бункер необходим для защиты исследователей после создания AGI. Он считал, что такая технология станет объектом интереса правительств по всему миру. Его опасения были связаны с коммерческим курсом компании под руководством Сэма Альтмана, который, по мнению Суцкевера, ставил под угрозу безопасность разработки ИИ.
Напряжение внутри компании усилилось после успеха ChatGPT, который привел к «золотой лихорадке» финансирования. Суцкевер и другие сотрудники, ориентированные на безопасность, чувствовали, что OpenAI отходит от первоначальной миссии — создания ИИ, полезного для человечества.
Последствия конфликта
Суцкевер сыграл ключевую роль в попытке смещения Альтмана в ноябре 2023 года, но переворот провалился. В результате Альтман вернулся к руководству, а Суцкевер и другие ушли из компании. Позже он основал Safe Superintelligence Inc., сосредоточившись на безопасном развитии ИИ.
Сроки появления AGI остаются предметом споров. Альтман утверждает, что AGI возможен с текущим оборудованием, тогда как другие эксперты, такие как Мустафа Сулейман и Демис Хассабис, прогнозируют его появление в течение 10 лет. Джеффри Хинтон, пионер ИИ, отмечает, что до сих пор нет четкого определения AGI.
Несмотря на разногласия, большинство лидеров отрасли считают AGI неизбежным.