Midjourney представила свою першу нейромережеву модель для створення відео / Скриншот

Стартап Midjourney, який створив одну з найпопулярніших моделей ШІ для перетворення тексту в зображення, оголосив про запуск своєї першої відеомоделі V1. Новий сервіс дає змогу перетворювати статичні зображення і текстові промти на короткі анімаційні відеоролики.

У моделі передбачено два режими: Low Motion для плавних сцен зі статичною камерою і High Motion для динамічних роликів з активним переміщенням камери та об'єктів. Довжина згенерованого відео - 5 секунд, проте його можна продовжити до ~20 секунд за допомогою чотирьох послідовних "подовжень".

Користувачі можуть керувати анімацією за допомогою текстових підказок, хоча повний контроль над кутами камери поки недоступний. Відео генеруються з роздільною здатністю 480p і частотою 24 кадри на секунду.

Відео дня

Як зазначають експерти, перші приклади від компанії мають яскравий і реалістичний вигляд: персонажі позбавлені типових для нейромереж помилок на кшталт зайвих пальців або викривлених очей, а людську анатомію передано правдоподібно, як і інші елементи відео.

Поки що функція створення відео буде платною і працюватиме у веб-версії. На момент запуску найдешевшим способом оцінити V1 є базова підписка Midjourney за $10/місяць.

Midjourney Video V1 – не єдина нейромережа, що створює реалістичні відео за запитом. На початку місяця Microsoft надала безкоштовний доступ до відеогенератора Sora від OpenAI. Раніше доступ до ШІ-моделі мали тільки платні передплатники ChatGPT.

А ще раніше Google випустила оновлення для чат-бота Gemini, яке додає підтримку Veo 2. Моментами від живих зйомок реально складно відрізнити.

Вас також можуть зацікавити новини: