ИИ, который учится без остановки
Исследователи из Массачусетского технологического института (MIT) разработали метод, позволяющий большим языковым моделям (LLM) обучаться на лету. Технология под названием SEAL (Self Adapting Language Models) дает ИИ возможность адаптироваться к новым данным без полного переобучения.
Традиционные LLM застывают в своем развитии после обучения — они могут генерировать тексты, но не способны извлекать уроки из взаимодействия с пользователями. SEAL меняет это:
- Модель создает собственные синтетические обучающие данные на основе входящих запросов
- Формирует процедуру обновления своих параметров
- Тестирует изменения на контрольных вопросах
- Использует reinforcement learning для выбора наиболее эффективных обновлений
Первые результаты
Систему протестировали на открытых моделях Llama от Meta и Qwen от Alibaba. В тестах на текстовое понимание и абстрактное мышление (набор задач ARC) SEAL показал способность моделей к продолжительному обучению.
Но есть нюансы:
- Модели страдают от ‘катастрофического забывания’ — новые знания вытесняют старые
- Процесс требует значительных вычислительных ресурсов
- Оптимальный график обучения еще не определен
Перспективы
Технология может привести к созданию:
- Персонализированных ассистентов, учитывающих предпочтения пользователя
- Моделей, способных к непрерывному самообучению
- Систем с ‘периодами сна’ для консолидации знаний
Пока SEAL остается исследовательским проектом, но принципы, лежащие в его основе, могут появиться в будущих коммерческих ИИ-системах.