
Стартап Midjourney, який створив одну з найпопулярніших моделей ШІ для перетворення тексту в зображення, оголосив про запуск своєї першої відеомоделі V1. Новий сервіс дає змогу перетворювати статичні зображення і текстові промти на короткі анімаційні відеоролики.
У моделі передбачено два режими: Low Motion для плавних сцен зі статичною камерою і High Motion для динамічних роликів з активним переміщенням камери та об'єктів. Довжина згенерованого відео - 5 секунд, проте його можна продовжити до ~20 секунд за допомогою чотирьох послідовних "подовжень".
Користувачі можуть керувати анімацією за допомогою текстових підказок, хоча повний контроль над кутами камери поки недоступний. Відео генеруються з роздільною здатністю 480p і частотою 24 кадри на секунду.
Як зазначають експерти, перші приклади від компанії мають яскравий і реалістичний вигляд: персонажі позбавлені типових для нейромереж помилок на кшталт зайвих пальців або викривлених очей, а людську анатомію передано правдоподібно, як і інші елементи відео.
Поки що функція створення відео буде платною і працюватиме у веб-версії. На момент запуску найдешевшим способом оцінити V1 є базова підписка Midjourney за $10/місяць.
Midjourney Video V1 – не єдина нейромережа, що створює реалістичні відео за запитом. На початку місяця Microsoft надала безкоштовний доступ до відеогенератора Sora від OpenAI. Раніше доступ до ШІ-моделі мали тільки платні передплатники ChatGPT.
А ще раніше Google випустила оновлення для чат-бота Gemini, яке додає підтримку Veo 2. Моментами від живих зйомок реально складно відрізнити.