Новая ИИ-модель ByteDance для генерации видео взорвала интернет и напугала киноиндустрию
ByteDance выпустила Seedance 2.0 – модель генерации видео на основе ИИ, которая за считанные дни стала вирусной в Китае, и за его пределами. Судя по реакции пользователей и аналитиков, речь идёт не просто об очередном улучшении качества картинки, а о скачке в том, как ИИ работает с видеоконтентом.
По данным официальных материалов, Seedance 2.0 способна создавать видео кинематографического качества на основе текста или изображений. Модель использует архитектуру двойного диффузионного трансформера, одновременно генерируя видео и аудио. Достаточно написать детальный промпт или загрузить изображение – и в течение 60 секунд Seedance 2.0 выдаёт многоплановую видеопоследовательность с нативным звуком.
Ключевое отличие от конкурентов – функция мультипланового повествования. Модель автоматически генерирует несколько связанных между собой сцен на основе одного промпта, самостоятельно поддерживая консистентность персонажей, визуального стиля и атмосферы при переходах между планами без ручного монтажа. Как утверждают в ByteDance, модель "идеально подходит для создания полных нарративных последовательностей от завязки до кульминации с профессиональным уровнем связности".
Обзор от популярного китайского научно-популярного блогера Film Hurricane дополнительно подстегнул волну интереса. Тестирование показало, что модель впечатляюще справляется с обширным движением в кадре, композицией планов и синхронизацией аудио и видео.
В частности, Seedance 2.0 демонстрирует "чёткие изменения ракурса", способна "постоянно менять положение камеры, как живой режиссёр". Аналитики Open Source Securities заявили, что модель достигла прорывов в автоматическом движении камеры, разбивке на планы, мультимодальном мышлении и мультиплановом повествовании, обеспечивая пользователям "режиссёрский уровень" точности управления. По мнению аналитиков, это может стать "точкой сингулярности" для ИИ-кинопроизводства.
Реакция пользователей в соцсетях оказалась бурной – и местами паникующей.
Seedance 2.0 – единственная модель, которая по-настоящему меня напугала.
Буквально каждая работа в киноиндустрии под угрозой. Ты загружаешь сценарий – она генерирует сцены, не просто клипы, а сцены с VFX, озвучкой, звуковыми эффектами, музыкой, и всё уже смонтировано. Возможно, нам больше не нужны даже монтажёры.
По словам блогера, отдельные функции модели выглядят "почти нелегальными", так как можно загрузить скриншоты или раскадровку любого фильма, и модель сгенерирует полноценные сцены, которые выглядят как из оригинала, но при этом отличаются – а иногда смотрятся даже лучше.
Другая функция позволяет загрузить любой киноклип и редактировать его: менять персонажей, добавлять визуальные эффекты, менять фон и цветокоррекцию. Инди-кинематографисты в Китае, по его словам, уже начали снимать полноценные фильмы целиком на Seedance 2.0.
Конкуренция в сегменте генеративного видео при этом накаляется. В прошлом месяце модель Kling от Kuaishou привлекла массовое внимание за рубежом благодаря функции контроля движения, ненадолго возглавив рейтинги загрузок графических приложений в Южной Корее и Сингапуре. По утверждению ByteDance, Seedance 2.0 генерирует 2K-видео на 30% быстрее конкурентов вроде Kling. Если Sora от OpenAI фокусируется на физическом реализме, а Kling – на контроле движения, то Seedance 2.0 специализируется именно на создании связных мультиплановых последовательностей с нативным аудио.
Аналитики отмечают, что сегмент генерации видео вошёл в конкурентное состояние, аналогичное ситуации с большими языковыми моделями в 2025 году – базовые возможности у всех игроков вышли на высокий уровень, и дальнейшая различия будут определяться конкретными сценариями применения. По прогнозам, Seedance 2.0 в первую очередь найдёт массовое применение в сфере короткометражного контента – ИИ-комиксов и коротких сериалов, значительно снижая себестоимость производства.
Компании с запасами интеллектуальной собственности и платформенным трафиком могут получить существенное преимущество.
Модель доступна пока только в Китае, но глобальный запуск, по заявлениям разработчиков, запланирован на будущее.
- Ускоренный просмотр видео и аудио вызывает забывчивость и снижает концентрацию
- Геймеры массово просят сделать реальную RPG-игру на основе удивительного ИИ-ролика, набравшего 40 миллионов просмотров
- Midjourney выпустила V1 – первую ИИ-модель для генерации видео