Компании AI не готовы к рискам создания сверхразумных систем
Компании, разрабатывающие искусственный интеллект, не готовы к рискам создания систем с уровнем человеческого интеллекта. К такому выводу пришли эксперты Future of Life Institute (FLI) в своем отчете о безопасности ИИ.
Согласно исследованию, ни одна из ведущих компаний в области ИИ не получила оценки выше D по критерию «планирование экзистенциальной безопасности». При этом многие из них заявляют о планах достичь искусственного общего интеллекта (AGI) в течение десятилетия.
AGI — гипотетическая стадия развития ИИ, при которой система сможет выполнять любые интеллектуальные задачи на уровне человека. OpenAI, создатель ChatGPT, называет своей миссией обеспечение безопасности AGI для человечества.
Рейтинг безопасности
FLI оценила семь компаний по шести критериям, включая текущие риски и экзистенциальную безопасность:
- Anthropic — C+
- OpenAI — C
- Google DeepMind — C-
- Meta, xAI, китайские Zhipu AI и DeepSeek — оценки не раскрываются
Эксперты отмечают отсутствие у компаний четких планов по контролю над потенциально опасными системами. Макс Тегмарк, сооснователь FLI, сравнил ситуацию со строительством АЭС в центре Нью-Йорка без плана аварийного реагирования.
Быстрое развитие технологий
Прогресс в области ИИ ускоряется. Новые модели, такие как Grok 4 от xAI, Gemini 2.5 от Google и генератор видео Veo3, демонстрируют значительные улучшения по сравнению с предыдущими версиями.
Представитель Google DeepMind заявил, что отчет не учитывает все меры безопасности компании. Другие компании, упомянутые в исследовании, пока не прокомментировали выводы FLI.
Параллельно организация SaferAI опубликовала собственный отчет, в котором назвала практики управления рисками в ведущих ИИ-компаниях «неприемлемо слабыми».