最近在捣鼓AI视频生成时,偶然发现了一个挺有意思的开源项目,感觉可以拿出来跟大家聊聊。
项目简介
这个项目叫 Jellyfish,本质上是一个 AI短剧生成工具。
简单来说,它的工作流程就是你提供一个剧本,它能够帮你完成:
- 智能分镜
- 保持角色与场景的一致性
- 生成视频片段
- 最后导出成片
可以说是提供了一条龙服务,相当省心。
用过AI生成视频的朋友都知道,最让人头疼的问题就是 前后人物长得不一样。可能上一帧还是黑长直,下一帧就变成卷发了;场景的光线和风格也时常跳戏。为了解决这个痛点,Jellyfish采用了 全局种子 + 风格继承 的技术。你可以把它理解成先给整个视频定下一个基调,后续的生成都尽可能遵循这个设定。根据实际测试,这种方法对一致性问题的改善效果确实比较明显,虽然还做不到百分之百完美,但相比之前盲盒式的生成方式,已经省心太多了。
它的流程覆盖了从剧本输入、分镜设计、视频生成到后期剪辑的完整环节。我个人比较喜欢其中的 分镜编辑器,因为它允许你手动调整景别、拍摄角度、运镜方式等参数。这意味着你不是被动地等待AI输出结果,而是能在这个过程中保留一定的创作控制权。
此外,项目还内置了资产库功能,你可以把定义好的角色、场景、道具、服装等元素保存下来,方便在不同的剧本中复用,这大大提升了批量创作的效率。
功能一览(简要版)
| 功能 |
能做什么 |
| 章节拍摄工作台 |
实现从剧本→分镜→生成→预览的全流程 |
| 分镜精细控制 |
调整景别、角度、运镜、时长等参数 |
| 资产库 |
管理角色、场景、道具等可复用元素 |
| 视频剪辑 |
提供时间线编辑功能,支持导出成片 |
| Agent工作流 |
自动执行剧情提取、角色提取等任务 |
| 模型管理 |
支持对接多种大模型API(如OpenAI、Claude、通义等) |
适合谁用?
- 对短剧创作感兴趣,但不熟悉专业剪辑软件的新手。
- 需要批量生产内容的工作室或团队。
- 希望以较低成本尝试视频创作的独立创作者。
- 制作教学视频或课程内容的老师。
- 需要为电商产品拍摄剧情化介绍视频的商家。
技术架构浅析
从技术栈来看,项目的前端部分采用了 React、TypeScript 和 Vite 这套现代化的组合,后端则支持多种框架,具备良好的扩展性。在AI层,它通过API对接了多种主流的大语言模型和图像生成模型,这种设计让用户可以根据自己的需求和预算灵活选择模型供应商。
目前项目仍处于积极开发阶段,核心的视频生成与编辑功能已经基本可用,后期的精细剪辑功能和移动端适配可能还在完善中。对于热衷于探索 AIGC 应用,特别是对 开源实战 项目感兴趣的朋友来说,Jellyfish提供了一个非常不错的、可实际运行的研究样本。它的代码完全公开在GitHub上,对于想要了解如何将大模型能力与 前端框架/工程化 技术结合,构建复杂交互应用的同学,有很高的参考价值。
项目地址与获取
GitHub项目主页:https://github.com/Forget-C/Jellyfish
你可以直接访问上面的链接,克隆仓库到本地进行部署和体验。如果你在AI视频生成领域有其他的心得或发现了更酷的工具,欢迎来 云栈社区 的对应板块一起交流探讨。
|