找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

1683

积分

0

好友

216

主题
发表于 2026-2-12 12:25:14 | 查看: 30| 回复: 0

人机协作问答卡通插画

知识星球上,星友张文茹问:

王老师好,一堆问题:

  1. 您日常工作经常会用到哪些 AI 工具?这些工具分别负责承担哪些具体任务?
  2. 您是如何像管理公司员工分配业务一样,给这些 AI 工具划分 “工作职责”,让它们高效协同配合的?
  3. 您整体的工作流程中,AI 工具的介入带来了哪些效率提升?具体体现在哪些环节?
  4. 对于知识资产的管理与储存,您有什么好方法?AI 工具在这方面是否能提供助力,具体是如何发挥作用的?

我觉得这是几个很好的问题,给了我一个机会来系统梳理近几年使用AI的心得。所以,我想把答案整理出来,也分享给大家。

咱们先以我之前的分享为基础进行梳理。但你也知道,AI领域进展飞快,所以我会在梳理旧方法的同时,补充目前最新的变化和我的新选择。

下面,咱们就开始逐一拆解。

问题一:日常工作经常会用到哪些 AI 工具?这些工具分别负责承担哪些具体任务?

我的AI工具箱看起来有点杂,但核心逻辑很简单:不找全能选手,让每个工具在自己最擅长的地方发光发热。这套思路叫「重器轻用」,是「善用佳软」张玉新老师提出的。

先说深度调研这块。

我曾介绍过,ChatGPT Pro是我的「首席研究员」。之前它搭载的o3模型在GPQA Diamond等科学基准测试上表现惊人,我常用它来做需要严密逻辑推理的复杂分析。更重要的是它的 Deep Research 功能——以前做一个深度调研,翻文献、整理资料、写报告,动辄几周甚至几个月。现在呢?5到30分钟,它就能生成一份数据翔实、引用准确的报告,质量不亚于专业咨询团队的产出。

实时信息搜集和学术文献检索,我之前更倾向于用 Perplexity Pro。它的Academic模式可以把信源限定在学术论文,Reasoning with R1模式则能做带联网的深度反思式搜索。两个工具配合,调研效率直接起飞。只不过,使用过程中,你需要注意甄别幻觉带来的影响。

还有 Kimi Researcher,它的特长是生成带细粒度引用标注的行业分析报告。之前展示时它还在测试,一次性可处理20-100个参考来源,跑70多条搜索,然后整合成一份带大量参考来源的深度报告。而目正式版推出时,Kimi Researcher能力进一步提升,一次能搜集200多个网页。感兴趣的话,你可以试试。

不过,目前我更喜欢用自己的深度调研 Skill。应星友「梅梦」的要求,我已经把这个 Skill 开源在了 GitHub

深度调研技能开源对话截图

开源地址就在上面这个 GitHub 项目,欢迎你来尝试。

Deep Research GitHub项目页面截图

觉得好用的话,别忘了给颗星哦。

再说文本创作与润色。

Claude Sonnet 4.5 曾经是我的「长文主笔」。它在长上下文保持和指令遵循方面表现出色,我常用它的Thinking模式来处理2000字以上的高质量文稿,且在当时是罕见的能从头到尾保持输出风格一致的模型。2025年下半年,Anthropic发布了Opus 4.5,在复杂推理任务上进一步提升,但它的价格更贵,综合对比下来Sonnet 4.5仍是性价比更高的选择。

短文润色和交互式修改,我曾经演示过用GPT-4o with Canvas。它的「画布」界面特别适合对语音转写稿做分段、纠错、去口癖、风格转换。你可以直接在界面上点选要改的地方,跟编辑器一样直观。

目前,我更多使用的是Dessix和Youmind来完成写作辅助任务。二者都集成了多种顶级模型,内置Agent工作方式,且支持上下文对齐。我还专门给Dessix录制了一个使用教程视频,你可以参考这里来了解。

编程与自动化开发这块,Windsurf和Cursor过去是我的「工程师双雄」。

Windsurf的Cascade引擎有个很酷的能力:它能自己进行「思考 — 行动」循环。你跟它说想要什么功能,它会自己去理解代码库、安装依赖、写代码、修bug,最后交付一个能跑的原型。这不是辅助编程,这是「你说我干」的自动化开发。

Cursor的优势在于对整个项目的深度理解。它的Chat with codebase功能可以让你用自然语言问整个代码库的问题,代码补全也相当智能。我通常让Windsurf做原型,Cursor做精细打磨。

还有OpenAI Codex CLI,用于系统级的项目设计与大规模代码重构,它在跨文件联动修改时比Claude Code表现更稳健,能保持逻辑的一致性。我还讲解过Roo Code配合Quasar Alpha等免费模型,可以低成本执行AI Agent工作流,并通过MCP (Model Context Protocol) 调用外部API工具。

当然,你现在知道了,我基本上已经全面转向Claude Code了。而且,别说对比代码修改了,连手敲基本上都免除了。我直接用麦克风对着Claude Code一通指令,然后坐等收获结果即可。我曾经打趣说,未来的键盘应该是这样的。

未来定制键盘概念图

多媒体与知识摄取方面:

Readwise Reader是我的「通用收件箱」,归拢网页、Epub电子书、PDF、邮件订阅和YouTube视频。我定制了Ghost Reader提示词,它会自动生成深度摘要。不过目前,这个功能大抵会通过Youmind来完成。那感觉,太顺滑了。

Get 笔记(得到)是「随时随地的记录助理」,负责采集语音灵感、拍摄幻灯片,并自动进行AI润色、标题提炼和结构整理。今年的跨年演讲,罗胖介绍了GetSeed这个与之配合的硬件产品。我元旦一早就下单,到现在还没发货呢。这个得尝试之后才能跟你分享了。

Recut是视频剪辑的「初剪助理」,自动识别并切除视频中的无声片段和冗余停顿。

Napkin.ai是「视觉设计师」,根据文本内容自动生成各类逻辑图、四象限图和流程示意图。不过目前视觉设计我更喜欢用Nano Banana Pro,尤其是可以和研究结合起来做。我做了个工作流,还分享了出来,你可以点击这个链接参考。

ChatTTS曾经是我首选「金牌声优」,负责将文本转换成极具拟人感的自然语音,支持加入笑声等情绪控制。目前我更多使用的是ListenHub。我用它克隆了自己的声音,在B站和视频号上,你应该已经看到了不少我的图文并茂解读短视频,都是用它飞速生成的。

讲得够不够多?我觉得不少了。全面吗?恐怕没有。可这就是我践行「重器轻用」的现状——不追求All-in-one,而是让工具做自己最擅长的。

问题二:如何像管理公司员工分配业务一样,给这些 AI 工具划分「工作职责」?

工具有了,怎么让它们「各司其职、协同配合」?我有一套分层管理的方法。

但是,与你想象的或许有区别。我最先思考的,并不是如何给AI分配岗位,而是首先是确立人机协作的权责边界。我把它叫做「红绿灯原则」:

  • 红灯区(人类主导):目标设定、价值判断、意义赋予——“为什么要做这件事?”“这个方向对不对?”这些问题只能我自己回答。AI可以给信息、帮分析,但最终拍板的必须是人。这是人机协作的底线。
  • 绿灯区(AI主导):代码实现、重复性数据分析、初步润色、格式转换……这些「怎么做」的执行层工作,完全可以交给AI。它比我快,比我不容易累,而且不会抱怨加班。放手让它干,追求极致效率。
  • 黄灯区(协同):真正有意思的合作发生在中间地带——持续互动、不断校准。你给一个初稿,AI帮你改;AI给一个方案,你来审;你提出疑问,AI帮你论证。这种方式被称为「人在环中」。

其次是采用多智能体(Multi-Agent)协同架构。

我设计过一套7代理的内容创作框架:Stylist(风格导演)维护风格一致性;Coordinator(项目经理)审计素材;Researcher(调研专家)验证数据来源;Outliner(结构建筑师)规划逻辑路径;Writer(内容创作者)撰写草稿;Editor(质量守门员)进行三重审查;Publisher(发布大使)负责最终交付。

这些Agent之间有严格的「交接协议」——通过STATUS.yaml状态机驱动,前一个环节的输出必须100%通过验证(二值化原则,只有YES或NO),下一个环节才能开始。

为什么要这么麻烦?因为AI会「自信地犯错」。单一模型跑完全流程,错误会累积放大。但如果让不同的「员工」各管一摊、互相检查,质量就有保障了。

第三是实施模型间的「同行评议」(Peer Review)。

我经常让一个模型写东西,然后让另一个模型来审。比如曾经给你展示过的用GPT-5 Pro生成复杂的预处理XML标记,再交给Claude Sonnet 4.5或Gemini 2.5 Pro执行具体输出。不同模型有不同的「盲区」,互相审一遍,能过滤掉不少问题。

第四是建立「认知调音」的工作流。

写作遇到瓶颈的时候,我不会让AI帮我代笔。我会让它作为「认知分析师」,用「认知利刃」分析我初稿里的逻辑瑕疵和价值观偏差。它帮我思考得更深,而不是替代我思考。这是一种「AI辅助人类升级认知」的模式,而非「AI替代人类输出」。

而随着以 Claude Code 为代表的 AI Agent 能力愈发强大,以前需要你手动调度AI模型的情况,会变得更少。

例如说,你可以使用OpenCode + Oh my Opencode插件,一下子就内置多个不同的Agent模型。它们本来就有非常好的角色分工。需要的时候自适应调用,根本不需要你事必躬亲地干预。

而那些原本需要你在不同工具间来回拷贝的数据和指令,也可以借由Skills + MCP的形式,交互调用。

我昨天甚至偷懒到干脆去查询能不能从 Claude Code 直接调用Manus干活儿。ChatGPT居然也真的给了结果,给我指向一个Manus MCP。

Manus MCP项目文档截图

随着这些交互协议继续发展,我真的无法想象未来的工具协同可以达到一个什么样的复杂度和灵活性。

问题三:整体工作流程中,AI 工具的介入带来了哪些效率提升?具体体现在哪些环节?

说几个真实的数字。

文献回顾阶段:从几个月到15分钟。

以前做一个系统性的文献综述,光是搜集资料、筛选论文、整理要点,就得花上好几个月。而如果你用Deep Research或Kimi Researcher,11到15分钟就能拿到一份数据翔实、引用准确的报告。当然,你也可以选择使用我的深度调研Skill。

这不是说AI替代了深度思考——最终的分析判断还是要自己做。但资料搜集这个苦力活,确实被大幅压缩了。

还有更夸张的。Elicit的系统化综述功能可以一次性从500篇论文里自动抽取研究设计、参与者特征、关键发现,整理成结构化的对比表格。你想象一下,人工做这件事得多久?

内容创作环节:从「码字」到「拼图」。

有了好用的AI工具们,我2024年末的写作工作流就已经是这样的:语音录入零散点子,Get笔记自动整理,Claude Sonnet 4.5提炼大纲,GPT-4.5润色风格,最后人工审定发布。整个流程「端到端」打通,效率提升了好几倍。而现在,我有了更多更好的选择。例如语音输入部分,再也不用被识别准确率低的问题困扰。我用的Typeless,可以快速帮我把混乱的思绪、中间错误的表述全部修理,然后干净利落地输出。最近一次组会,我用它配合Claude Code演示,学生们看愣了。

遇到写作障碍怎么办?我曾经会用Tana AI Builder或Lex的自动补全功能——给它看我写了一半的段落,让它帮我接着往下写几句。不一定用它的内容,但能帮我迅速回到心流状态。现在,这个功能已经被Dessix替代了。

多语种发布与国际化:高质量翻译。

早在2024年夏天,我就采用宝玉老师提出的「三步翻译法」:先直译,再反思,最后意译。当时用Claude 3 Opus或Gemini 1.5 Flash处理长文,翻译质量已经能达到甚至超过专业翻译工具,成本只有原来的几分之一。而现在,我干脆利用Claude 4.5 Opus模型,加上一个类似的Skill,把原文扔进去,直接等最终结果即可。

软件开发与数据处理:原型快速落地。

2025春季学期,有一次我用 Claude Code ,10分钟就完成了学生苦战多时的原型系统功能,而且「一稿过」。这是「氛围编程」的威力——你描述需求,AI理解意图,自动实现。你要做的只是审查结果、提出修改意见。编程从「逐行码字」变成了「指挥施工」。

数据分析上,我曾经给你介绍过Code Interpreter和Open Interpreter。你上传原始数据,它直接给你生成3D交互图、动态视频,甚至构建预测模型。全自动,不需要你写一行代码。当然,现在这些功能,基本上都被新一代Agent框架给吞掉了。想想看,Claude Code不仅能按照你的指令来分析,甚至可以评估你给出的分析模型和路径是否符合最新研究共识。这种感觉,是不是很奇妙呢?

这些效率提升加起来,意味着什么?意味着你可以产出更多,而时间成本更低。

而且,现在模型、工具、使用方式还在爆发期。真实应接不暇啊。有的时候,昨天AI干不了的事儿,明天就见惯不怪。所以,你真的可以靠着科技进步来躺赢啊。

问题四:对于知识资产的管理与储存,有什么好方法?AI 工具在这方面如何发挥作用?

我搭建了一套「本地优先、云端同步、AI赋能」的知识管理系统。

先说架构,我叫它「入口—出口—资产管理—隔离区」四层结构:

入口是「混沌存储」——Get笔记采集的录音、图片、网页剪藏,先不管归档,扔进去就行。这是信息的「钩子」,确保灵感不丢失。我现在开组会的时候,都会用Get笔记帮我记录全部内容,然后在Youmind或Claude Code里按照定义的Shortcut或Skill来整理重点,非常方便。

出口是「稳定归档」——最终的成果(文章、报告、笔记)存在Obsidian里。为什么选它?因为Markdown纯文本格式,十年后也能打开。笔记软件公司可能倒闭,但.md文件永远能用。

中间是「资产管理」——DEVONthink存放较大的附件、视频、项目佐证材料。配合Hookmark的「深链接」技术,不同应用之间可以一键跳转。

还有个「隔离区」——日记和高敏信息存在Day One,开启端到端加密。这里严禁任何AI接入。有些东西属于人类的「体感数据」,不该让AI看到。

再说AI怎么帮忙——对话式检索(RAG增强):

2024年,我就给你介绍过Cursor或Obsidian Copilot插件可以对整个笔记库进行自然语言提问。AI会把你的笔记切片、向量化,然后在回答时精准引用具体文件的原文和行号。就像有个助理把你所有的笔记都看过一遍,随时可以帮你查。

NotebookLM更进一步:你把多篇相关文献或文章上传进去,它可以跨文档进行语义检索。我问过它「我过去三年对AI素养有过哪些论断」,它给了我一份带原文引用的综合分析。这种「问自己的知识库」的能力,以前是不可想象的。

另外,你也可以想想,如果没有NotebookLM,我怎么能在这么短的时间里,找到星友提问覆盖的那么多的资料呢?这背后正是检索增强生成(RAG) 技术在起作用,想要了解如何利用好这类技术,可以看看社区的 技术文档 板块。

最后说一个我认为很重要的观点:「知识资产负债化」。

以前我们追求「囤积」——收藏越多、笔记越厚,好像就越有知识。但现在我觉得,大规模的信息囤积是「负债」,不是「资产」

为什么?因为首先AI可以充当「全球顶级快递员」,随时帮你搬运信息。你不需要把所有东西都存在本地——需要的时候,让AI去找、去整合就行了。

其次,AI搬出来的东西,还是需要我们自己来甄别的。有的时候,存储内容多,并不一定好。

这篇文章给你介绍的内容,就是个典型事例。想想看,我们列举了这么多我曾经发布内容中的资料来回答星友问题。这固然很好。但如果我不给你一一点评更新进展,你是不是会学到很多真实、准确,但早已过时的方法?

所以我的知识库不再是「仓库」,而是「画室」(Studio)。重点不在于存了多少东西,而在于能产出什么作品。AI提供「预制件」,我负责组装、创造、赋予意义。最终的产出,才是真正的知识资产。

小结

星友提出的四个问题回应完了。估计你那边已经「信息过载」了吧?

别担心。核心其实就一句话:让每个 AI 工具在正确的位置发挥作用。

这不是「人被 AI 取代」,这是「人借助 AI 放大能力」。人的角色是掌舵者——你决定方向,AI负责执行;你把控质量,AI提升效率;你赋予意义,AI处理信息。

好,现在轮到你了。打开你的电脑,看看那堆AI工具的图标——你准备让哪个先「上岗」?让哪几个「打配合」呢?

更重要的,你准备在这个工作流里,充当何种角色?

欢迎你在 云栈社区 留言,分享你的经验和智慧,咱们一起交流讨论。面对日新月异的 人工智能 工具,找到最适合自己的那条路,才是关键。




上一篇:Kaggle免费课程:零基础系统学习数据科学的完整路径
下一篇:xAI联合创始人Jimmy Ba与吴宇怀相继离职,两人同为Hinton高徒
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-2-23 11:47 , Processed in 0.666650 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表