Midjourney представила первую версию AI-видеомодели V1
Midjourney представил свою первую модель генерации видео V1. Это веб-инструмент, превращающий статичные изображения в 5-секундные клипы. Модель — шаг к более масштабной цели компании: созданию интерактивных симуляций реального времени, где объединятся изображения, видео и 3D.
V1 предлагает два способа анимации:
- Автоматический — система сама генерирует базовое движение.
- Ручной — пользователь описывает действия и движение камеры.
Модель поддерживает как изображения, созданные в Midjourney, так и загруженные извне. Есть два режима движения: низкая интенсивность для плавных сцен и высокая — для динамичных, но с риском артефактов.
Конкуренты и отличия
В отличие от Runway или DeepBrain, которые делают упор на сложный монтаж и аудио, V1 фокусируется на анимации в узнаваемом стиле Midjourney. Например, Veo 3 создает видео с аудио в реальном времени, а V1 пока ограничен простыми преобразованиями изображений.
Реакция сообщества
Художники и эксперты отмечают скорость и качество. По словам AI-художника Koldo Huici, процесс, занимавший ранее часы, теперь укладывается в минуты. Everett World, эксперт по Gen AI, хвалит естественность анимации, особенно в аниме-стилистике, несмотря на разрешение 480p.
Планы и вызовы
Компания продолжает развивать технологию, несмотря на судебные иски от Disney и Universal. Сейчас модель доступна только в веб-версии, а инфраструктуру масштабируют под растущий спрос.