Чем умнее ИИ, тем больше ошибок: почему самые продвинутые модели непредсказуемы
Чем умнее становится искусственный интеллект, тем чаще он начинает «галлюцинировать» — выдавать ложную информацию с убедительной уверенностью. Последние исследования OpenAI показали, что современные языковые модели, такие как ChatGPT или Gemini, склонны к ошибкам, которые сложно отличить от правды.
В мире искусственного интеллекта этот термин означает генерацию недостоверных данных — вымышленных цитат, несуществующих фактов или ошибочных решений, поданных так, будто они абсолютно верны. Проблема в том, что чем лучше ИИ структурирует речь, тем правдоподобнее звучат его ошибки.
Согласно данным OpenAI, их новые модели o3 и o4-mini ошибаются в 33% и 48% случаев соответственно. Это в 2–3 раза чаще, чем у предыдущих версий.
Почему это происходит?
Это не баг, а особенность работы языковых моделей. Они не хранят факты, как энциклопедия, а предсказывают слова на основе статистики. Чтобы создавать что-то новое — стихи, сценарии, нестандартные решения — ИИ должен выходить за рамки шаблонов. И иногда заходит слишком далеко.
Эксперт по этике ИИ Элеонор Уотсон отмечает: «Ошибки возникают не из-за недостатка данных, а из-за сложности логики самых продвинутых моделей». Другими словами, чем умнее ИИ, тем непредсказуемее его ответы.
Можно ли это исправить?
Полностью — вряд ли. Но есть способы снизить риски. Один из них — генерация с извлечением данных (RAG), когда ИИ сверяет информацию с проверенными источниками. Другой подход — заставлять модель объяснять ход мыслей или указывать уровень уверенности в ответе.
Пока идеального решения нет. Поэтому лучшая стратегия — относиться к ответам ИИ так же критично, как к словам человека. Проверять факты, сомневаться в слишком идеальных утверждениях и помнить: последнее слово всегда должно оставаться за людьми.