LTX 2.3

LTX 2.3 - Gerador de vídeo com IA de código aberto e qualidade cinematográfica em 4K

Lançado em 20 de mar. de 2026

Produzir vídeos profissionais com orçamento limitado é um desafio real. O LTX 2.3 é um modelo de IA de vídeo open-source com 22B parâmetros que transforma texto, imagens e áudio em vídeos cinematográficos em 4K a 50 FPS. Com suporte a geração de retrato nativo 9:16 e sincronização de áudio, é 18× mais rápido que o WAN 2.2 no H100. Ideal para criadores, desenvolvedores e equipes de marketing.

Vídeo IAFreemiumGeração de ImagensGeração de VídeoCódigo Aberto

O que é o LTX 2.3?

Imagine a seguinte situação: você tem uma ideia incrível para um vídeo de produto, um trailer de jogo ou uma campanha de marketing — mas quando bate o orçamento de produção, a animação 3D e os dias de edição no cronograma, tudo parece impossível. Esse é o dia a dia de milhares de criadores de conteúdo, profissionais de marketing e cineastas que precisam produzir vídeos de alta qualidade sem dispor de grandes estúdios ou equipes especializadas.

O LTX 2.3 chega exatamente para resolver esse problema. Desenvolvido pela Lightricks — empresa israelense referência em IA criativa —, o LTX 2.3 é um modelo de geração de vídeo com 22 bilhões de parâmetros, baseado na arquitetura DiT (Diffusion Transformer). Em termos práticos, isso significa que você pode gerar vídeos cinematográficos de até 4K a 50 fps simplesmente descrevendo uma cena em texto, enviando uma imagem, um áudio ou até transformando um vídeo existente.

O modelo suporta quatro modos de geração: text-to-video, image-to-video, audio-to-video e video-to-video. Seja você um criador de conteúdo para redes sociais, um gestor de e-commerce ou um diretor em pré-produção, o LTX 2.3 se encaixa no seu fluxo de trabalho.

Os números reforçam a credibilidade do projeto: diariamente, milhares de cineastas, profissionais de marketing e desenvolvedores utilizam a ferramenta. No GitHub, o repositório já acumula 5.000+ stars e mais de 750 forks. A pesquisa por trás do modelo foi publicada no arXiv (arXiv:2601.03233) como "LTX-2: Efficient Joint Audio-Visual Foundation Model". E, do ponto de vista de performance, o LTX 2.3 roda 18 vezes mais rápido que o WAN 2.2 em GPUs H100.

O compromisso com a comunidade também é real: os pesos do modelo estão disponíveis gratuitamente no Hugging Face, e qualquer pessoa ou empresa com receita anual inferior a US$ 10 milhões pode usar o modelo comercialmente sem custo.

LTX 2.3 em 5 pontos essenciais
  • Arquitetura DiT com 22B parâmetros — geração de vídeo com física realista, iluminação precisa e movimentos fluidos
  • Entrada multimodal — aceita texto, imagem, áudio e vídeo como ponto de partida
  • Suporte nativo a vídeo vertical 9:16 — treinado com dados reais de retrato, não é um simples recorte de 16:9
  • Saída profissional até 4K a 50 fps — pronto para produção broadcast e cinema
  • Completamente open source e uso comercial gratuito — pesos disponíveis no Hugging Face para quem fatura menos de US$ 10M/ano

As funcionalidades que tornam o LTX 2.3 diferente

O LTX 2.3 não é apenas mais um gerador de vídeo com IA. Cada funcionalidade foi pensada para resolver um problema real de produção — e não para impressionar apenas em demos. Veja o que você pode fazer com ele:

Text-to-Video: Você pode usá-lo para transformar um briefing de campanha em um vídeo de marketing em minutos. Basta descrever a cena com até 2.000 caracteres em linguagem natural — o motor DiT de 22B parâmetros cuida do resto, gerando movimentos fluidos, iluminação correta e simulações físicas realistas.

Image-to-Video: Você pode usá-lo para animar qualquer imagem estática — um render de produto, uma foto de campanha ou um mockup de app — e transformar isso em um clipe dinâmico com movimentos de câmera naturais e sem artefatos visuais. Em minutos, sua imagem vira um vídeo polido.

Audio-to-Video: Você pode usá-lo para gerar visuais sincronizados com qualquer faixa de áudio. O modelo entende batidas, sincroniza lábios e usa pistas de áudio espacial para criar conteúdo que realmente "combina" com o som — ideal para visualizações musicais e anúncios localizados.

Vídeo Vertical Nativo 9:16: Você pode usá-lo para criar conteúdo para TikTok, Instagram Reels e YouTube Shorts sem precisar recortar nada. O LTX 2.3 foi treinado com dados reais de vídeo em retrato e gera nativamente em 1080x1920 — a diferença na qualidade das bordas e composição é perceptível.

Saída até 4K a 50 fps: Você pode usá-lo para entregar conteúdo em padrão broadcast. Suporte a 1080p, 1440p e 4K, com taxas de quadros de 24, 25, 48 ou 50 fps — pronto para uso em produção profissional e pré-visualização cinematográfica.

Motor Multi-Estilo: Você pode usá-lo para criar conteúdo anime, cinematográfico ou fotorrealista dentro da mesma ferramenta. Como Emma Zhang, desenvolvedora de jogos, resume: "O motor multi-estilo do LTX 2.3 lida com anime, cinemático e fotorrealista — sem precisar trocar de ferramenta."

  • Open source e gratuito para uso comercial: pesos disponíveis no Hugging Face, uso livre para quem fatura menos de US$ 10M/ano
  • Entrada multimodal completa: texto, imagem, áudio e vídeo — tudo em uma única plataforma
  • 18× mais rápido que WAN 2.2 em GPUs H100, acelerando pipelines de produção
  • Vídeo vertical nativo 9:16: treinado com dados reais, não um recorte de horizontal
  • Saída até 4K@50fps: qualidade broadcast sem precisar de software de edição adicional
  • Implantação local exige hardware robusto: recomendado GPU NVIDIA com 32GB+ de VRAM para rodar o modelo completo
  • Duração máxima de 20 segundos por geração: clipes mais longos precisam ser compostos em edição

Quem usa o LTX 2.3 — e como

O LTX 2.3 foi criado para ser versátil, mas isso não significa que serve igualmente bem para todo mundo. Veja se o seu perfil se encaixa em algum dos cenários abaixo:

Criadores de conteúdo para redes sociais: Quando você precisa publicar três vídeos por semana para diferentes plataformas, o tempo de produção vira um gargalo. Com o modo 9:16 nativo, você gera vídeos para TikTok, Reels e Shorts em lote — reduzindo o tempo de produção de dias para horas. E criar variantes para testes A/B fica tão simples quanto mudar algumas palavras no prompt.

Times de marketing e e-commerce: Se você é responsável por um catálogo de produtos, sabe que produzir vídeos individuais para cada item é inviável com equipes pequenas. Com o LTX 2.3, você faz upload de uma imagem de referência e gera vídeos de produto em escala, mantendo a consistência visual da marca. Rachel Kim, que trabalha com vídeos de catálogo, descreve bem o impacto: "Produzimos vídeos de produto em escala de catálogo por uma fração do que estúdios tradicionais cobram."

Equipes de pré-produção cinematográfica: Antes de chamar o time de câmera, você pode testar ângulos de cena, iluminação e efeitos visuais com o LTX 2.3. Ryan Nakamura resume o resultado: "Mudar para o LTX 2.3 cortou nossos custos de produção pela metade enquanto dobrou nosso volume total de output criativo."

Desenvolvedores indie de jogos: Criar animações 3D do zero para um trailer custa tempo e dinheiro que equipes pequenas raramente têm. Com o LTX 2.3, você gera cinemáticas e trailers de jogo que economizam semanas de trabalho de animação — com qualidade que rivaliza com produções manuais.

UX designers e product managers: Quando seu app está quase pronto e você precisa de um vídeo de demo para o pitch ou para a loja, o modo image-to-video transforma seus mockups estáticos em walkthroughs polidos. Como relata Aisha Patel: "O modo image-to-video anima mockups transformando-os em demos de walkthrough polidos em minutos."

💡 Cloud ou local? Você escolhe

Se você precisa gerar vídeos rapidamente sem configurar nada, acesse ltx23.app e crie sua conta gratuita — toda a renderização acontece na nuvem, sem necessidade de GPU local. Se preferir controle total, personalização com LoRA e privacidade máxima, baixe os pesos no Hugging Face e implante localmente. O LTX 2.3 suporta os dois caminhos.


Como começar a usar o LTX 2.3

Seja você um iniciante querendo gerar seu primeiro vídeo com IA ou um desenvolvedor buscando integrar o modelo ao seu pipeline, o LTX 2.3 tem um caminho para você.

Caminho 1: Cloud (zero configuração)

Este é o jeito mais rápido de começar. Não precisa de GPU, não precisa instalar nada:

  1. Acesse ltx23.app e crie sua conta gratuita — você já ganha créditos de teste ao se registrar.
  2. Escolha o modo de geração: text-to-video, image-to-video ou audio-to-video.
  3. Insira sua descrição em texto (até 2.000 caracteres) ou faça upload de uma imagem, áudio ou vídeo de referência.
  4. Configure a duração (entre 4 e 20 segundos), a proporção (16:9, 9:16, 1:1 ou 4:3), a resolução e a taxa de quadros desejada.
  5. Clique em Gerar e faça o download do vídeo em alta qualidade diretamente — sem marca d'água, pronto para uso comercial.

Caminho 2: Implantação local (para desenvolvedores)

Se você precisa de controle total sobre o modelo, integração com pipelines existentes ou privacidade máxima dos dados:

  • Requisitos mínimos recomendados: Python ≥3.12, CUDA >12.7, GPU NVIDIA com 32GB+ de VRAM, 32GB de RAM e 60GB de armazenamento (Windows).
  • Baixe os Checkpoints no Hugging Face: escolha entre o modelo completo em bf16 (ltx-2.3-22b-dev), a versão destilada em 8 passos (ltx-2.3-22b-distilled), o upscaler espacial ou temporal, entre outros.
  • Integre via ComfyUI usando os nós nativos do LTX 2.3, ou via biblioteca Python para automação programática.
  • Fine-tuning com LoRA: ajuste o modelo ao estilo da sua marca ou ao tipo de conteúdo específico que você precisa.

Caminho 3: API Playground

Quer explorar as capacidades da API antes de integrar? Acesse console.ltx.video/playground e experimente diretamente no navegador.

💡 GPU com menos de 32GB de VRAM? Sem problema

Se o seu hardware não tem VRAM suficiente para rodar o modelo completo, use as versões quantizadas GGUF ou FP8 — especificamente o checkpoint ltx-2.3-22b-distilled-lora-384. Elas reduzem significativamente o consumo de memória sem comprometer demais a qualidade de geração.


Qual plano faz sentido para você?

O LTX 2.3 oferece dois caminhos principais: a plataforma cloud com assinatura (ltx23.app) e o modelo open source gratuito para uso local. Veja como se encaixar em cada um:

Todos os novos usuários que se cadastram em ltx23.app recebem créditos gratuitos para testar sem precisar inserir cartão de crédito. Quando você estiver pronto para escalar, há três planos de assinatura — e assinar no plano anual dá 30% de desconto:

Plano Mensalidade Plano Anual Créditos/Ano Custo/100 créditos Ideal para
Starter US$ 19,90/mês US$ 13,90/mês (US$ 166,80/ano) 14.400 créditos US$ 1,16 Criadores independentes e pequenas equipes
Premium US$ 39,90/mês US$ 27,90/mês (US$ 334,80/ano) 33.600 créditos US$ 1,00 Times de marketing em crescimento
Advanced US$ 99,90/mês US$ 69,90/mês (US$ 838,80/ano) 120.000 créditos US$ 0,70 Equipes com alta demanda de produção

Todos os planos incluem — sem exceção: acesso a todos os modelos (text-to-video, image-to-video, geração de imagem com IA), Motion Control, resolução de até 4K, proteção de privacidade das gerações, fila prioritária, licença comercial e cancelamento a qualquer momento.

Se você é desenvolvedor ou lidera uma empresa com faturamento anual abaixo de US$ 10 milhões, a boa notícia é que pode baixar os pesos do modelo no Hugging Face e usar comercialmente sem custo. Organizações maiores devem entrar em contato para uma licença comercial.

Recomendamos começar com o Starter para testar o fluxo de produção, migrar para o Premium quando o volume de conteúdo crescer, e considerar o Advanced quando a geração de vídeos se tornar parte central do seu pipeline — o custo por crédito mais baixo (US$ 0,70/100) faz a diferença em alto volume.


Perguntas frequentes sobre o LTX 2.3

O que é o LTX 2.3 e o que o diferencia de outras ferramentas de IA para vídeo?

O LTX 2.3 é um modelo de geração de vídeo com IA desenvolvido pela Lightricks, baseado na arquitetura DiT (Diffusion Transformer) com 22 bilhões de parâmetros. Diferente da maioria das ferramentas proprietárias, ele é completamente open source e aceita múltiplos tipos de entrada — texto, imagem, áudio e vídeo — em uma única plataforma. Além disso, roda 18× mais rápido que o WAN 2.2 em GPUs H100 e suporta saída nativa em 4K@50fps.

Preciso de uma GPU local para usar o ltx23.app? Quais são os requisitos para implantação local?

Não — na plataforma ltx23.app, toda a renderização acontece na nuvem. Você não precisa de GPU, nem de VRAM, nem de qualquer configuração local. Para implantação local, os requisitos recomendados são: GPU NVIDIA com 32GB+ de VRAM, Python ≥3.12, CUDA >12.7, 32GB de RAM e 60GB de armazenamento.

Quais formatos e especificações de vídeo são suportados?

O LTX 2.3 suporta as seguintes especificações: Resolução: 1080p, 1440p e 4K. Taxa de quadros: 24, 25, 48 ou 50 fps. Proporção de tela: 16:9, 9:16 (nativo, não recortado), 1:1 e 4:3. Duração: de 4 a 20 segundos por geração. O formato 9:16 foi treinado com dados reais de vídeo vertical, o que garante melhor composição e qualidade de bordas.

Os vídeos gerados pelo LTX 2.3 podem ser usados comercialmente?

Sim. Os vídeos gerados em ltx23.app incluem direitos comerciais completos — sem marca d'água e sem royalties. Para uso do modelo open source localmente, a licença é gratuita para pessoas físicas e empresas com faturamento anual abaixo de US$ 10 milhões. Organizações maiores devem adquirir uma licença comercial.

Como o LTX 2.3 se compara ao Sora 2, Veo 3.1 e Kling 3.0?

Cada ferramenta tem seu ponto forte, mas o LTX 2.3 se destaca em três aspectos: frente ao Sora 2, oferece código aberto, pipeline multimodal e sincronização de áudio nativa. Frente ao Veo 3.1, entrega qualidade equivalente em 4K@50fps com acesso open source completo e suporte a fine-tuning via LoRA. Frente ao Kling 3.0, oferece suporte mais amplo de resoluções, formato vertical nativo e pesos abertos para implantação local.

Como os créditos são consumidos e eles expiram se não forem usados?

Os créditos são usados a cada geração de vídeo, com consumo proporcional à resolução, duração e complexidade da tarefa. Para detalhes sobre expiração de créditos não utilizados, consulte os termos de serviço em ltx23.app/terms-of-service ou entre em contato com o suporte em support@ltx23.app.

Quais integrações para desenvolvedores estão disponíveis?

O LTX 2.3 oferece múltiplas formas de integração: ComfyUI com nós nativos (disponível via ComfyUI Manager), biblioteca Python para automação programática (Python ≥3.12), Diffusers (integração em breve) e API Playground em console.ltx.video/playground. Também suporta os formatos de checkpoint FP8 e GGUF para ambientes com menos recursos, além de fine-tuning com LoRA.

Como minha privacidade e o conteúdo gerado são protegidos?

O ltx23.app aplica criptografia em trânsito, controles de acesso e registro de atividades. Todos os planos pagos incluem proteção de privacidade das gerações. A plataforma não vende dados pessoais e compartilha informações apenas com provedores de serviço estritamente necessários, em conformidade com as leis aplicáveis. A política de privacidade completa está disponível em ltx23.app/privacy-policy.

Comentários

Comentários

Por favor faça login para deixar um comentário.
Ainda não há comentários. Seja o primeiro a compartilhar sua opinião!