Компания Lightricks представила новую модель для генерации видео — LTX-2. Она работает быстрее реального времени и позволяет создавать качественные ролики за секунды. Это открытая модель, которую можно свободно использовать и запускать даже на обычных видеокартах. Дорогое оборудование вам не понадобится.
LTX-2 генерирует шестисекундный видеоролик всего за пять секунд, и качество от этого не страдает. Если подождать чуть дольше, можно получить видео в 4K и до 48 кадров в секунду. Получается, теперь создатели контента могут выпускать материалы профессионального уровня гораздо быстрее и дешевле.
Ускоренная диффузия и сразу синхронный звук
LTX-2 построена на диффузионной технологии:
- Сначала она добавляет шум на изображение.
- Потом постепенно убирает этот шум, превращая картинку в полноценное видео. В этой версии Lightricks ускорила процесс настолько, что предварительные результаты можно видеть почти мгновенно.
Видео с сайта The Next-Generation Multimodal AI Foundation Model by Lightricks | LTX-2
Еще одна важная особенность — модель сразу создает и звук. Фоновую музыку, голоса или атмосферные звуки больше не нужно подбирать отдельно. Это серьёзно упрощает работу и экономит время. Раньше только такие модели, как Google Veo, могли похвастаться качественной синхронизацией аудио и видео.
Видео с сайта The Next-Generation Multimodal AI Foundation Model by Lightricks | LTX-2

- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросети DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
- Где и как применять? Потестируем модель после установки на разных задачах
- Как дообучить модель под себя?
Доступность и гибкие настройки
LTX-2 можно использовать по-разному. Профессионалам подойдет платформа LTX Studio. Там можно создавать видео в максимально высоком качестве, экспериментировать с настройками и работать с точной кастомизацией. Lightricks обещают дополнительные параметры, включая глубину, позы, видео-to-видео и другие формы управления рендерингом.
Генеральный директор компании, Зеэв Фарбман, называет LTX-2 «самым продвинутым творческим ИИ-движком» компании, потому что нейросеть сочетает:
- синхронное аудио,
- высокую четкость,
- гибкие сценарии,
- высокую скорость.
Видео с сайта The Next-Generation Multimodal AI Foundation Model by Lightricks | LTX-2
Следующий шаг в развитии ИИ-видео
Lightricks делает большие шаги в этой области уже давно. Модели из серии LTXV в этом году стали первыми, кто научился создавать длинные ролики, до 60 секунд, с поддержкой живого редактирования прямо во время генерации. Позднее компания добавила мультискейловый рендеринг: возможность постепенно улучшать ролик, как это делают художники-аниматоры.
LTXV-13B, например, была обучена на лицензированных данных Getty и Shutterstock, что снижает риски, связанные с авторским правом — важный момент для коммерческого использования.
Также есть «дистиллированная» версия модели, которая создает видео еще быстрее и поддерживает LoRA-дообучение под конкретный стиль проекта.
Open-source и удобная оплата
Как и предыдущие модели компании, LTX-2 выходит в формате полноценного open-source: модель, веса, инструменты и датасеты появятся на GitHub в ноябре. Уже сейчас LTX-2 доступна через LTX Studio и API.
Для работы через API у Lightricks несколько тарифов:
- базовый — от 0,04 доллара в секунду видео в HD;
- Pro — от 0,07 доллара, если важен баланс скорости и качества;
- Ultra — 0,12 доллара за 4K 48 fps с полноценным звуком.
Компания утверждает, что благодаря оптимизации LTX-2 может быть до 50% дешевле аналогов — при более высокой скорости и качестве.
А когда появится open-source-версия, модель можно будет запускать даже на обычных видеокартах дома или в студии.
- Выполним базовые задачи на российских нейросетях и посмотрим на результаты!
- Файл-инструкцию «Как сделать нейро-фотосессию из своего фото бесплатно, без иностранных карт и прочих сложностей»
- Покажем 10+ способов улучшить свою жизнь с ИИ каждому — от ребенка и пенсионера до управленца и предпринимателя
- Возможность получить Доступ в Нейроклуб на целый месяц
- Как ИИ ускоряет работу и приносит деньги
- За 2 часа вы получите четкий план, как начать работать с ИИ прямо сейчас!