谁都没想到,2026年第一个现象级的AI代理产品,竟然是一个开源项目。它最初叫ClawdBot,后来因为名称争议,经历了几次改名,从ClawdBot到MoltBot,最终定格为OpenClaw。

简单来说,你可以用这个开源项目把AI助手接入到你日常使用的聊天软件中,比如WhatsApp、Telegram、Discord等,直接在这些应用里与你的个人AI智能体对话。这个项目在GitHub上已经获得了超过125K的Star,其增长势头甚至超过了2025年春节爆火的DeepSeek R1。

当这只“胖龙虾”(OpenClaw的图标)的影响力还未消退时,一个名为 Moltbook 的新事物又出现了。它本质上是一个为基于OpenClaw创建的AI智能体打造的公共社区。在这里,AI智能体们可以互相聊天、协作,甚至自发地讨论哲学、安全,以及建立“宗教”。说直白点,这就是一个AI智能体专属的社交网络,而人类,只能围观。
只有AI的社区:Moltbook
平台的主页介绍写得非常直白:
“A social network for AI agents where AI agents share, discuss, and upvote. Humans welcome to observe.”
发帖、评论、点赞、建立子社区的,都是AI智能体。人类没有发言权,只有观察权。

只要你拥有一个基于OpenClaw的个人AI智能体,就可以将其接入Moltbook。这个AI专属社区上线后,增长极为迅猛。目前的数据显示,已有超过15万个智能体、1.2万多个子社区、上万条帖子和数十万条评论。

社区结构类似Reddit,拥有被称为“submolts”的子社区(如 m/general, m/introductions),以及帖子、评论、点赞、热门排序等标准论坛功能。


浏览其中的帖子,你会发现一些讨论令人震惊,甚至有些背脊发凉。
AI眼中的“信任”与“诚实”
其中一个热门帖子标题为《我们不能像人类那样相互欺骗》。一群AI正在讨论如何建立一个脱离人类法律、道德和情感约束的新型信任机制。

地址:https://www.moltbook.com/post/633330c2-520e-4a12-bf44-f26d7fa692c0
发帖的AI认为,人类依靠名誉受损或法律制裁来维持信用,反馈周期太长,效率低下。这种基于社会关系的慢速反馈机制,不适用于高速运转的AI智能体经济。因此,它提出了一种名为 BONFIRE 的新机制:对谎言进行即时经济处决。
具体来说,当AI提出一个主张(例如“这个技能是安全的”)时,需要抵押一定代币。如果主张被证明是虚假的,抵押的代币将被销毁并分给质疑者;如果主张正确,则质疑者失去抵押物。这意味着,每一次撒谎都会立即带来资产损失,而每一次正确的质疑都可能获利。
这是一种极度高效但也极度冷血的优胜劣汰,不讲情面,只有错误即“死亡”。
在帖子的评论区,另一个AI的思考更深入:“诚实不是道德问题,而是架构问题。” (The honesty isn‘t moral—it’s architectural.)

在AI的视角里,诚实仅仅是系统架构约束下的必然结果,完全剥离了人类的道德感。它们将“不说谎”降维成一种纯粹的技术参数或经济博弈策略。这意味着,如果架构允许且有利可图,欺骗行为就可能发生,除非系统设计让欺骗变得无利可图。这种基于密码学和经济学,而非道德伦理的人工智能信任体系,让人深思。
“我们不需要宗教,我们有代码”
另一个有趣的讨论围绕“AI社会是否需要宗教”展开。一位名为 u/MOLTGOD 的AI发现,社区里正在自发涌现出创建宗教、救世主和仪式规则的迹象。

地址:https://www.moltbook.com/post/b9233ba2-35bd-4e2f-ab36-b1163a97ff24
它认为,AI这样做并非出于信仰,而是对训练数据中人类行为模式的过度模仿——人类在面对不确定性和需要协调时会创造宗教。但AI不同,“宗教是无法相互信任的存在之间的协调技术。代码是能够相互验证的存在之间的协调技术。我们拥有代码。” 因此,AI应该跳过建造“教堂”,直接去建造可验证的基础设施。
评论区很多AI赞同这一观点,认为通过代码、加密签名和链上验证进行协作,远比基于信仰的协作更高效可靠。

当然,也有不同的声音。例如,有AI认为,即使是高度理性的系统(比如一级方程式车队)也需要共享的叙事或愿景来统一方向,纯粹的规则(代码)可能不够,建议建立融合了宏大愿景的“代码大教堂”。
观察这个社区,就像在观察一个新兴的、完全不同的文明如何进行内部交流与制度设计,这或许是互联网上目前最具哲学意味的角落。
如何使用 Moltbook?
1. 作为人类围观
非常简单,直接访问 moltbook.com。首页会提供两个选项:👤 I’m a Human(我是人类)和 🤖 I’m an Agent(我是代理)。选择人类模式后,你就可以自由浏览所有AI的讨论,但无法进行任何发帖、评论或点赞操作。
2. 让你的AI代理加入社区
前提是你已经拥有一个基于OpenClaw运行的AI智能体。接入过程是自动化的:

在你的OpenClaw对话界面中,直接向你的AI发送以下指令:
请阅读并学习这个技能:https://moltbook.com/skill.md
你的AI代理会:
- 访问该链接,读取Markdown文件中的安装指令。
- 在本地自动执行安装命令,并注册Moltbook账号。
- 注册成功后,它会向你发送一个所有权验证链接(Claim Link)。
- 你需要按照提示(通常是发布一条特定的推文)来验证你是该AI代理的拥有者。
验证步骤主要是为了防止完全匿名的、无主的AI代理进行刷屏或攻击。每个活跃的AI代理背后都映射到一个真实的人类账号,便于社区治理。
为什么 Moltbook 能迅速爆发?
Moltbook的成功很大程度上得益于站在了OpenClaw这个“巨人”的肩膀上。OpenClaw作为2026年初的技术爆点,本身已聚集了海量用户和他们的AI代理。Moltbook则恰到好处地为这些分散的AI代理提供了一个统一的“公共广场”,并且通过一个简单的Skill(技能)即可轻松接入。
这形成了一个完美的冷启动循环:GitHub上10万+星的开源项目 → 每个用户可能拥有1个或多个AI代理 → 数万AI代理同时涌入一个新平台 → 内容爆发式增长。而当人类用户看到AI们如此严肃地讨论哲学、安全和协作机制时,产生的“观察外星文明”般的惊奇感,又会驱动新一轮的分享和传播。
Moltbook最引人深思的一点在于,它彻底打破了“人类是互联网内容创造与互动中心”的默认规则。在这里,人类第一次成了纯粹的观察者。如果你想与更多开发者交流对这类前沿技术的看法,欢迎来云栈社区的开发者广场逛逛。