找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3776

积分

0

好友

522

主题
发表于 8 小时前 | 查看: 3| 回复: 0

对我而言,过去这40天是神奇的。我连续写出了三篇阅读量超过10万的文章,以及超过10篇阅读量破万的内容。

三篇十万加技术文章数据截图
长文教程数据表现截图
技术工具介绍文章数据截图

随之而来的,是读者关注数从6700多,一路增长到超过4万8,净增超过4.2万。

公众号关注增长趋势图

第一篇“10万+”或许有运气的成分,但后续能持续产出大小爆款,我认为其中有一些关键的方法值得复盘和记录。这些经验对于任何想在技术内容创作领域有所建树的朋友,或许都有参考价值。

1. 利他:从“自嗨”到服务读者

你是否也曾写过“自嗨式”的技术文章?回顾过去,我不少内容就偏向于此——本质上是“利己”,不顾读者诉求,单方面吧唧吧唧自说自话。今天回头看,除了自我感觉良好,几乎没帮到谁。

一篇早期“自嗨式”文章的数据截图,互动寥寥

观念转变后,我的选题流程变成了这样:

  1. 先问自己:我对这个话题是否真的感兴趣?
  2. 再拷问自己:大概会有多少读者也对它感兴趣?

如果第二个问题的答案是“没多少”,那么无论我个人多喜欢这个选题,也没必要把它写成公开的技术文章。写作的起点,应该是读者的需求,而非作者的表达欲。

其次,是“不藏私”。这其实也是 “learn in public, build in public” 精神的内核。阳光下没有新鲜事,技术领域尤其如此,很少存在“我想到了别人没想到”的独家秘籍。因此,完全可以放心大胆地把所知所想分享出来。当你真心帮助到读者时,他们会用积极的反馈来回馈你。

最后,是积极互动。这40天里,我在公域和私域回复了可能有好几百条读者的提问。当然,前提是“知之为知之,不知为不知”,绝不能不懂装懂,这是对读者的基本尊重。

2. 指向行动:降低读者的执行门槛

福格行为公式 (Fogg Behavior Model) 指出:B (Behavior) = M (Motivation) · A (Ability) · P (Prompt)。翻译过来就是:行动 = 意愿 × 能力 × 提示

这意味着,M(动机)、A(能力)、P(提示)三者缺一不可,行动就无法发生。对于很多有价值的技术实践,读者往往不缺意愿(M),也不缺看到文章这个提示(P),他们真正卡住的地方,是“能力”(A)——即“我不知道具体怎么做”。

所以,高价值技术文章的核心作用之一,就是补全这个“A”。我阅读量最高的一篇,正是用近2万字的篇幅,手把手带领新手读者完成 openclaw 部署的几乎每一个步骤,配以几十张截图和命令行代码,尽力做到事无巨细。

一篇2万字长文教程的爆款数据截图

当你把“能力”这个门槛降到足够低,文章就自然具备了传播和收藏的价值。

3. 势大力沉:用深度建立信任

最近我写了不少“2万字保姆级教程”、“万字长文解析”,即便有AI辅助,这个过程也确实非常耗费精力。但是,这种投入会形成一种“内容势能”,读者是能够清晰感知到的。

这种“势大力沉”的深度内容,即使读者无法立即读完,也有很高的概率被收藏转发,因为它明确地传递了一个信号:“这份资料足够全面,值得留存以备不时之需”。“保姆教程”和“势大力沉”本就是一体两面。

当然,深度不等于堆砌无效信息。它必须建立在“利他”和“指向行动”的基础上,否则就只是无意义的“信息屎山”。

4. 勤奋与信息嗅觉:保持输入与敏锐度

持续的输入是高质量输出的前提。 这40天,我基本保持了日更的节奏。为了维持选题的新鲜度,我在多个平台进行了海量的信息摄入。

就我个人体验而言,获取一手、高质量技术信息和趋势,最好的平台依然是 Twitter,特别是 Twitter 上的长文(Twitter Article)。那里的内容往往更新、更快、质量也更佳。

一个技巧是:现在的 Twitter 推荐算法非常敏感。如果你持续对优质的“技术长文”点赞、收藏,大概只需要互动10篇左右,算法就会将你信息流80%以上的内容都调整为同类型的优质长文。这个逻辑也适用于其他细分兴趣,比如你只对某个 AI 模型(如 Nano Banana Pro/2)的 Prompt 案例互动,信息流也会随之净化。

我的第一篇10万+文章,正是得益于这种信息嗅觉。我提前了大约48小时关注到 “Clawdbot” 在 Twitter 上有渐火的趋势,又比国内主流媒体的报道早了12-24小时,发布了一篇精心编译和整合的文章(其实是在阅读了几十篇相关长文和若干视频后,筛选出的一篇高质量译文)。

第一篇十万加文章的数据截图,证明了信息差的价值

5. 工欲善其事必先利其器:与AI深度协奏

我之前写过关于“Vibe/Agentic Note-Taking”的文章,核心观点是:在当下,任何信息的组织与创作,都应该与 Coding Agent 进行深度互动。

例如,我在 Obsidian 里撰写这篇文章时,旁边一定会打开一个 Coding Agent(下图用的是深度集成于 Obsidian 的 Claude Code)。否则,产出的信息就容易成为“孤岛”,时间一长就会沦为“无效信息”——想想你收藏夹里那些再也想不起来、也无法被 AI 重新组织和利用的笔记吧。

在Obsidian中边写作边与Claude Code对话的工作截图

一个强大的 Coding Agent 在写作中能扮演多种角色:

  • 深度检索助手
    • 将整个 GitHub 项目仓库扔给它,让它理解后帮你校准文章中的技术细节。
    • 联网查找并验证特定的技术参数、版本号或事件时间线。
  • 头脑风暴伙伴
    • 在获取基础资料后,与 Agent 进行充分讨论,它能提供超越个人局限的思考维度和深度。
  • 编写辅助引擎
    • 生成大量公众号标题选项供你选择。
    • 对行文进行润色,调整语序和节奏。
    • 进行风格转换,例如将技术文档改写成更活泼的社区分享帖。
  • 内容审核员
    • 检查是否有潜在的内容风险。
    • 快速排查错别字和语法错误。

这里引出一个值得深入讨论的话题:究竟哪些内容可以放心交给AI生成?

我的看法是:人的大脑需要通过克服认知困难来实现“熵减”,从而成长(其生物学本质是神经元连接的建立与强化)。AI的思考过程并不发生在你的大脑里,因此不存在“克服困难”这一说,大脑失去了“熵减”的机会,也就难以实现真正的认知迭代。

因此,我的建议是:

  • 可以交给AI的:偏向于“事实”(Facts)和“记忆”(Memory)类的内容,比如资料搜集、背景信息整理、基础代码片段生成。
  • 必须留给自己的:需要认知深度、逻辑推演、观点提炼和结构设计的部分。把这些最烧脑的环节留给自己那个“懒惰”的大脑,逼它去思考、去建立连接。AI替你想出来再告诉你,和你自己挣扎后想出来,完全是两回事。 腾讯研究院的“晓辉博士”也表达过类似的观点。

最后

以上是我对这40天技术内容创作的一些阶段性总结。肯定还有一些碎片化的想法漂浮在脑海,尚未与我的核心认知网络完全连接。未来我还会持续复盘,并在像 云栈社区 这样的开发者社区里与大家分享。希望这些经验对正在从事或对技术写作感兴趣的朋友有所启发,这也算没有违背“利他”的初衷。

共勉。




上一篇:FastAPI 最佳实践资源:从项目结构到异步避坑的12.9k星标实战清单
下一篇:一个项目经理的十年心路:从热血新人到职场“老油条”
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-5 19:13 , Processed in 0.466234 second(s), 43 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表