Стартап RunwayML объявил о том, что его последняя и самая передовая на данный момент модель Gen-3 Alpha стала общедоступной.
Новый ИИ-инструмент Gen-3 Alpha позволяет создавать гиперреалистичные видеоролики ИИ на основе текстовых, графических или видео подсказок.
Gen-3 Alpha не является бесплатной, как модели Gen-1 и Gen-2. Пользователям придется перейти на платный тарифный план компании, стоимость которого начинается от 12 долларов в месяц.
Модель Gen-3 Alpha, обученная на видеороликах и изображениях, снабженных описательными подписями, позволяет создавать гиперреалистичные видеоклипы с фантазийными переходами, точным ключевым кадрированием элементов и выразительными человеческими персонажами, демонстрирующими широкий спектр действий, жестов и эмоций.
Примеры, которыми поделилась компания Runway, показывают, насколько Gen-3 Alpha превосходит Gen-1 и Gen-2 по скорости, точности, последовательности и движению. Компания заявила, что для разработки этих возможностей она сотрудничала с междисциплинарной командой ученых-исследователей, инженеров и художников, но не рассказала о точном источнике данных для обучения.
Теперь, после широкого распространения Gen-3 Alpha, пользователи могут перейти на платный тарифный план Runway и начать использовать его для создания видео для различных творческих задач.
На начальном этапе, по словам Runway, модель будет работать в режиме текст в видео, позволяя пользователям воплощать свои идеи в жизнь с помощью подсказок на естественном языке. Однако ожидается, что в ближайшие дни компания перейдет на другие режимы, в том числе изображение-видео и видео-видео. Модель также будет работать с функциями управления на платформе Runway, такими как Motion Brush, Advanced Camera Controls и Director Mode.
Каждый видеоролик, созданный моделью, будет длиться максимум 10 секунд, а скорость генерации будет меняться в зависимости от длины видео. Это лучше, чем у большинства видеомоделей ИИ, но меньше, чем обещанная OpenAI минутная генерация с помощью Sora (которая еще не вышла).