Runway представила ШІ-модель Gen-3 Alpha

Компанія Runway представила альфа-версію моделі штучного інтелекту Gen-3 для генерації відеороликів із промптів і статичних зображень.

Нейромережа відмінно справляється зі створенням виразних людських персонажів із широким спектром рухів, жестів і емоцій, йдеться в анонсі. Gen-3 Alpha навчена точно визначати ключові кадри в ролику і створювати переходи.

«Gen-3 Alpha — перша модель із майбутньої серії, навчена на новій інфраструктурі, створеній для масштабного мультимодального навчання. Це значне поліпшення точності, послідовності та руху порівняно з Gen-2, а також крок на шляху до створення „Загальних моделей світу“», — ідеться в повідомленні Runway.

Gen-3 Alpha може створювати відео тривалістю п’ять і десять секунд із високою роздільною здатністю. Час генерації — 45 і 90 секунд відповідно. Про це розповів співзасновник і технічний директор компанії Анастасіс Германідіс в інтерв’ю TechCrunch.

Точних термінів публічного релізу Gen-3 немає. Альфа-версія «скоро стане доступною в продуктовій лінійці Runway з підтримкою всіх наявних режимів (текст-відео, зображення-відео і відео-відео) і деяких нових», зазначив Германідіс.

Нагадаємо, у лютому OpenAI презентувала генеративну ШІ-модель Sora для перетворення тексту у відео. У травні сценарист і режисер Пол Трілло згенерував з її допомогою відеокліп.

Google DeepMind розробляє технологію на базі штучного інтелекту для створення саундтреків до відео.

Источник

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *