什么是 LTX-2.3?
LTX-2.3 是由 Lightricks 开发的最新开源音视频生成模型,其运行基于 ComfyUI。相较于前代版本,它在以下几个核心维度实现了显著提升:
- 更精细的细节:得益于全新的 latent 空间与 VAE,生成的视频纹理更为清晰锐利。
- 优化的人像视频(9:16):专门针对竖版画幅的质量进行了大幅优化,非常适合社交媒体平台的内容创作。
- 提升的音频质量:无论是人物对话、背景音乐还是环境音效,都变得更加清晰和富有层次感。
- 更强的图生视频能力:基于图像生成视频时,动作的连贯性和自然度更高。
- 改进的文字渲染:视频中出现的文字内容展现得更准确、易读。
目前,开发者 RuneXX 维护的 LTX-2.3-Workflows 仓库提供了一套基于 ComfyUI 的完整工作流 JSON 文件,支持文生视频、图生视频、音频注入、首尾帧控制等多种高级功能,为创作者提供了极大的灵活性。这些资源正是 开源实战 精神的体现,让复杂的模型应用变得触手可及。
🖥️ 第一步:环境准备
系统要求
在开始安装前,请确保你的硬件满足以下最低要求,以获得更好的体验:
| 项目 |
最低要求 |
推荐配置 |
| GPU |
12GB VRAM(使用GGUF量化版) |
24GB VRAM(运行完整版) |
| RAM |
32GB |
64GB |
| 存储 |
60GB+ 可用空间 |
100GB+ |
| OS |
Windows 10/11 / Linux |
Linux |
1. 安装最新版 ComfyUI
⚠️ 重要提示:LTX-2.3 要求 ComfyUI 必须更新到 最新的 Nightly 版本,旧版本将无法正常运行其工作流。
方式一:桌面版(推荐新手使用)
从官方网站 https://www.comfy.org/download 下载并安装 ComfyUI 桌面版。安装完成后打开应用,务必点击“更新”按钮以确保其为最新版本。
方式二:命令行版(适合开发者)
如果你习惯使用命令行,可以通过以下方式获取并更新:
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
git pull # 保证为最新版本
pip install -r requirements.txt
📦 第二步:安装必需的自定义节点
LTX-2.3 的工作流依赖两个关键的自定义节点,并且 必须保证它们是最新版本 才能完全支持 LTX-2 系列模型。
方式一:通过 ComfyUI Manager 安装(推荐)
这是最简便的方法:
- 在 ComfyUI 界面点击右上角的 Manager 按钮。
- 在插件市场中搜索并安装以下两个插件:
ComfyUI-KJNodes
ComfyUI-GGUF
- 安装完成后,重启 ComfyUI 以使插件生效。
方式二:手动 Git 安装
如果你希望或需要手动安装,可以执行以下命令:
cd ComfyUI/custom_nodes
# 安装 KJNodes(核心节点库)
git clone https://github.com/kijai/ComfyUI-KJNodes.git
cd ComfyUI-KJNodes && pip install -r requirements.txt && cd ..
# 安装 GGUF 量化支持(用于低显存方案)
git clone https://github.com/city96/ComfyUI-GGUF.git
cd ComfyUI-GGUF && pip install -r requirements.txt && cd ..
📥 第三步:下载模型文件
这套工作流使用了由 Kijai 提取的分体式模型方案,相比单一整合包,它更容易在显存有限的设备上运行。
必需模型(选其一方案)
🅰️ 标准方案(推荐,需要约24GB VRAM)
从 HuggingFace 仓库 https://huggingface.co/Kijai/LTX2.3_comfy 下载以下文件,并放入指定目录:
| 文件 |
存放路径 |
ltx-2.3-22b-dev.safetensors |
ComfyUI/models/checkpoints/ |
ltx-2.3-22b-distilled-lora.safetensors |
ComfyUI/models/loras/ |
ltx-2.3-video-vae.safetensors |
ComfyUI/models/vae/ |
ltx-2.3-audio-vae.safetensors |
ComfyUI/models/vae/ |
ltx-2.3-spatial-upscaler-x2-1.0.safetensors |
ComfyUI/models/latent_upscale_models/ |
🅱️ GGUF 量化方案(低显存方案,仅需约12GB VRAM)
如果你的显卡显存不足,可以从以下仓库下载 GGUF 量化版本模型:
- QuantStack:
https://huggingface.co/QuantStack/LTX-2.3-GGUF
- Vantage:
https://huggingface.co/vantagewithai/LTX-2.3-GGUF
下载后的 .gguf 文件请存放在 ComfyUI/models/unet/ 目录下。
文本编码器(必需)
Safetensor 版(显存充足时使用):
从 Comfy-Org/ltx-2 仓库下载,文件应放置于:
ComfyUI/models/text_encoders/gemma-3-12b-it-*.safetensors
GGUF 量化版(显存不足时使用):
从 unsloth/gemma-3-12b-it-GGUF 仓库下载,例如 gemma-3-12b-it-Q4_K_M.gguf,同样放入:
ComfyUI/models/text_encoders/
最终目录结构
确保你的 ComfyUI/models/ 目录结构最终看起来类似下面这样:
ComfyUI/
└── models/
├── checkpoints/
│ └── ltx-2.3-22b-dev.safetensors
├── loras/
│ └── ltx-2.3-22b-distilled-lora-384.safetensors
├── vae/
│ ├── ltx-2.3-video-vae.safetensors
│ └── ltx-2.3-audio-vae.safetensors
├── text_encoders/
│ └── gemma-3-12b-it-*.safetensors / *.gguf
└── latent_upscale_models/
└── ltx-2.3-spatial-upscaler-x2-1.0.safetensors
📂 第四步:下载工作流文件
前往 https://huggingface.co/RuneXX/LTX-2.3-Workflows/tree/main 仓库,根据你的需求下载相应的 JSON 工作流文件。
| 文件名 |
功能说明 |
LTX-2.3_-_I2V_T2V_Basic.json |
图生视频 / 文生视频(基础款,首选) |
LTX-2.3_-_T2V_Basic.json |
纯文生视频 |
LTX-2.3_-_I2V_T2V_Basic_Custom_Audio.json |
图/文生视频 + 自定义音频注入 |
LTX-2.3_-_I2V_T2V_Basic_GGUF.json |
GGUF 量化版(低显存专用) |
LTX-2.3_-_FL2V_First_Last_Frame_Injection.json |
首尾帧控制(in-place 注入) |
LTX-2.3_-_FL2V_Custom_Audio.json |
首尾帧 + 自定义音频 |
LTX-2.3_-_FML2V_First_Middle_Last_Frame_Guider.json |
首-中-尾三帧引导 |
LTX-2.3_-_FML2V_First_Middle_Last_Frame_Injection.json |
首-中-尾三帧注入 |
LTX-2.3_-_I2V_T2V_Single_Pass.json |
单通道图/文生视频(速度更快) |
LTX-2.3_-_V2V_Extend_Any_Video.json |
视频延伸扩展 |
🚀 第五步:加载并运行工作流
- 启动 ComfyUI:通过命令行或桌面应用启动,然后在浏览器中访问
http://127.0.0.1:8188。
- 加载工作流:将你下载好的
.json 文件直接拖拽到 ComfyUI 的图形界面中,或者点击界面上的 Load 按钮进行加载。
- 检查节点:如果加载后提示“节点缺失”,请返回第二步,确认所有自定义节点(尤其是 KJNodes)已正确安装并重启了 ComfyUI。
🎬 第六步:各工作流使用详解
工作流一:I2V_T2V_Basic(图/文生视频)
这是最通用和常用的入门工作流,同时支持文本提示词(T2V)和参考图像(I2V)输入。
关键参数设置建议:
| 节点/参数 |
建议值 |
说明 |
| 分辨率 |
768x512 或 576x1024 |
分别对应横版和竖版人像 |
| 帧数(frames) |
97 |
以24fps计算,约生成4秒视频 |
| 采样步数(steps) |
40(dev)/ 8(distilled) |
distilled版LoRA速度提升约8倍 |
| CFG Scale |
3.5~5.0 |
数值过高可能导致画面过饱和、失真 |
| 调度器 |
LTXVScheduler |
模型专用调度器 |
Prompt 撰写技巧:
工作流中的 TextGenerateLTX2Prompt 节点非常实用。你可以输入一段简短的描述,该节点会将其自动扩展为覆盖动作、视觉属性和音频的结构化长 Prompt。很多时候,优化 Prompt 比单纯调整采样参数带来的效果提升更明显。
推荐使用的负面 Prompt(Negative Prompt):
worst quality, inconsistent motion, blurry, jittery, distorted, watermarks
工作流二:FL2V 首尾帧控制
这个工作流允许你指定第一帧和最后一帧的图像,从而精确控制视频的开始与结束状态,非常适合制作具有明确起止动作的动画或平滑过渡效果。
使用步骤:
- 加载
FL2V_First_Last_Frame_Injection.json 工作流。
- 在 首帧(First Frame) 节点处载入你的起始图像。
- 在 尾帧(Last Frame) 节点处载入你的结束图像。
- 在正面的 Prompt 中描述你希望发生在首尾帧之间的运动过程。
- 点击“生成”运行。
工作流三:I2V_T2V_Basic_Custom_Audio(自定义音频)
此工作流支持将外部音频文件与生成的视频内容进行融合,实现音画同步。
操作流程:
- 加载
FL2V_Custom_Audio.json 工作流(注意:根据原文,音频注入的工作流文件名可能为 LTX-2.3_-_I2V_T2V_Basic_Custom_Audio.json,请以实际下载文件名为准)。
- 在 Audio Load 节点中选择你的
.wav 或 .mp3 格式的音频文件。
- 工作流内部会使用
LTXVSeparateAVLatent 节点分离音视频的潜在表示,然后分别通过 VAEDecodeTiled 重建视频帧,通过 LTXVAudioVAEDecode 还原音频波形,最后用 CreateVideo 节点按指定帧率将两者合并输出为 MP4 文件。
工作流四:I2V_T2V_Basic_GGUF(低显存版)
当你的显卡 VRAM 不足 16GB 时,请使用这个专门的工作流。它需要配合 Gemma GGUF 量化版的文本编码器,可以将整体显存占用降低约 40%。
切换方式: 工作流中的 Model Loader 节点已预设为加载 GGUF 格式模型。你只需确保节点中的模型路径正确指向你下载的 .gguf 文件即可。
⚙️ 第七步:空间升频(Spatial Upscaler)
如果你希望输出更高分辨率的视频,可以在工作流中启用 LTXVLatentUpsampler 节点。它能够在 latent(潜在)空间直接执行 2 倍的空间升频,在保持原有运动连续性的同时,有效增加画面的细节清晰度。通常建议在最终生成输出前启用此步骤。
使用此功能需要提前下载 ltx-2.3-spatial-upscaler-x2-1.0.safetensors 模型,并放入 ComfyUI/models/latent_upscale_models/ 目录。
💡 常见问题排查
在实践过程中,你可能会遇到一些问题。下表列出了一些常见问题及其解决方案:
| 问题 |
解决方案 |
| 提示“节点缺失” |
1. 将 ComfyUI 更新到最新 Nightly 版本。 2. 重新安装或更新 ComfyUI-KJNodes 自定义节点。 |
| 显存溢出(OOM) |
1. 换用 GGUF 量化版工作流和模型。 2. 为 ComfyUI 启动命令添加 --reserve-vram 5 参数预留部分显存。 3. 降低生成分辨率或帧数。 |
| 生成的视频模糊或抖动 |
1. 尝试降低 CFG Scale 值(例如调到 3.5)。 2. 适当增加采样步数(Steps)。 3. 检查并优化你的 Prompt,确保描述清晰。 |
| 音频与视频不同步 |
检查你输入的音频文件采样率是否为 44100Hz,这是模型预期的标准采样率。 |
| Gemma 文本编码器模型加载失败 |
1. 确认模型文件已正确放置在 models/text_encoders/ 目录下,且路径无误。 2. 如果显存不足,优先尝试使用 GGUF 量化版文本编码器。 |
📚 参考资源
- 工作流仓库:RuneXX/LTX-2.3-Workflows
- 分体模型来源:Kijai/LTX2.3_comfy
- 官方模型仓库:Lightricks/LTX-2.3
- 官方 ComfyUI 节点:Lightricks/ComfyUI-LTXVideo
- ComfyUI 官方 教程:
docs.comfy.org/tutorials/video/ltx/ltx-2-3
希望这篇详细的部署与使用指南能帮助你顺利在 ComfyUI 中启动 LTX-2.3,开启你的 AI 视频创作之旅。如果在实践过程中有更多心得或遇到了新的问题,也欢迎在 云栈社区 与其他开发者交流讨论。