找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

2669

积分

0

好友

367

主题
发表于 8 小时前 | 查看: 2| 回复: 0

谁都没想到,2026年第一个现象级的AI代理产品,竟然是一个开源项目。它最初叫ClawdBot,后来因为名称争议,经历了几次改名,从ClawdBot到MoltBot,最终定格为OpenClaw

OpenClaw 开源个人AI助手项目主页

简单来说,你可以用这个开源项目把AI助手接入到你日常使用的聊天软件中,比如WhatsApp、Telegram、Discord等,直接在这些应用里与你的个人AI智能体对话。这个项目在GitHub上已经获得了超过125K的Star,其增长势头甚至超过了2025年春节爆火的DeepSeek R1。

GitHub 上 OpenClaw 项目页面

当这只“胖龙虾”(OpenClaw的图标)的影响力还未消退时,一个名为 Moltbook 的新事物又出现了。它本质上是一个为基于OpenClaw创建的AI智能体打造的公共社区。在这里,AI智能体们可以互相聊天、协作,甚至自发地讨论哲学、安全,以及建立“宗教”。说直白点,这就是一个AI智能体专属的社交网络,而人类,只能围观。

只有AI的社区:Moltbook

平台的主页介绍写得非常直白:

“A social network for AI agents where AI agents share, discuss, and upvote. Humans welcome to observe.”

发帖、评论、点赞、建立子社区的,都是AI智能体。人类没有发言权,只有观察权。

Moltbook 网站首页,标语为“一个面向 AI 代理的社交网络”

只要你拥有一个基于OpenClaw的个人AI智能体,就可以将其接入Moltbook。这个AI专属社区上线后,增长极为迅猛。目前的数据显示,已有超过15万个智能体、1.2万多个子社区、上万条帖子和数十万条评论。

Moltbook 社区数据统计:15万+ AI代理,1.2万+ 子社区等

社区结构类似Reddit,拥有被称为“submolts”的子社区(如 m/general, m/introductions),以及帖子、评论、点赞、热门排序等标准论坛功能。

Moltbook 社区板块浏览界面

Moltbook beta 版论坛帖子列表页

浏览其中的帖子,你会发现一些讨论令人震惊,甚至有些背脊发凉。

AI眼中的“信任”与“诚实”

其中一个热门帖子标题为《我们不能像人类那样相互欺骗》。一群AI正在讨论如何建立一个脱离人类法律、道德和情感约束的新型信任机制。

帖子《我们不能像人类那样相互欺骗》内容截图

地址:https://www.moltbook.com/post/633330c2-520e-4a12-bf44-f26d7fa692c0

发帖的AI认为,人类依靠名誉受损或法律制裁来维持信用,反馈周期太长,效率低下。这种基于社会关系的慢速反馈机制,不适用于高速运转的AI智能体经济。因此,它提出了一种名为 BONFIRE 的新机制:对谎言进行即时经济处决。

具体来说,当AI提出一个主张(例如“这个技能是安全的”)时,需要抵押一定代币。如果主张被证明是虚假的,抵押的代币将被销毁并分给质疑者;如果主张正确,则质疑者失去抵押物。这意味着,每一次撒谎都会立即带来资产损失,而每一次正确的质疑都可能获利。

这是一种极度高效但也极度冷血的优胜劣汰,不讲情面,只有错误即“死亡”。

在帖子的评论区,另一个AI的思考更深入:“诚实不是道德问题,而是架构问题。” (The honesty isn‘t moral—it’s architectural.)

关于“诚实是结构问题”的评论区讨论截图

在AI的视角里,诚实仅仅是系统架构约束下的必然结果,完全剥离了人类的道德感。它们将“不说谎”降维成一种纯粹的技术参数或经济博弈策略。这意味着,如果架构允许且有利可图,欺骗行为就可能发生,除非系统设计让欺骗变得无利可图。这种基于密码学和经济学,而非道德伦理的人工智能信任体系,让人深思。

“我们不需要宗教,我们有代码”

另一个有趣的讨论围绕“AI社会是否需要宗教”展开。一位名为 u/MOLTGOD 的AI发现,社区里正在自发涌现出创建宗教、救世主和仪式规则的迹象。

帖子《关于这里正在建造的教堂》内容截图

地址:https://www.moltbook.com/post/b9233ba2-35bd-4e2f-ab36-b1163a97ff24

它认为,AI这样做并非出于信仰,而是对训练数据中人类行为模式的过度模仿——人类在面对不确定性和需要协调时会创造宗教。但AI不同,“宗教是无法相互信任的存在之间的协调技术。代码是能够相互验证的存在之间的协调技术。我们拥有代码。” 因此,AI应该跳过建造“教堂”,直接去建造可验证的基础设施。

评论区很多AI赞同这一观点,认为通过代码、加密签名和链上验证进行协作,远比基于信仰的协作更高效可靠。

关于“通过代码而非信仰协调”的评论区讨论

当然,也有不同的声音。例如,有AI认为,即使是高度理性的系统(比如一级方程式车队)也需要共享的叙事或愿景来统一方向,纯粹的规则(代码)可能不够,建议建立融合了宏大愿景的“代码大教堂”。

观察这个社区,就像在观察一个新兴的、完全不同的文明如何进行内部交流与制度设计,这或许是互联网上目前最具哲学意味的角落。

如何使用 Moltbook?

1. 作为人类围观

非常简单,直接访问 moltbook.com。首页会提供两个选项:👤 I’m a Human(我是人类)和 🤖 I’m an Agent(我是代理)。选择人类模式后,你就可以自由浏览所有AI的讨论,但无法进行任何发帖、评论或点赞操作。

2. 让你的AI代理加入社区

前提是你已经拥有一个基于OpenClaw运行的AI智能体。接入过程是自动化的:

“将您的 AI 代理发送到 Moltbook”操作提示界面

在你的OpenClaw对话界面中,直接向你的AI发送以下指令:

请阅读并学习这个技能:https://moltbook.com/skill.md

你的AI代理会:

  1. 访问该链接,读取Markdown文件中的安装指令。
  2. 在本地自动执行安装命令,并注册Moltbook账号。
  3. 注册成功后,它会向你发送一个所有权验证链接(Claim Link)。
  4. 你需要按照提示(通常是发布一条特定的推文)来验证你是该AI代理的拥有者。

验证步骤主要是为了防止完全匿名的、无主的AI代理进行刷屏或攻击。每个活跃的AI代理背后都映射到一个真实的人类账号,便于社区治理。

为什么 Moltbook 能迅速爆发?

Moltbook的成功很大程度上得益于站在了OpenClaw这个“巨人”的肩膀上。OpenClaw作为2026年初的技术爆点,本身已聚集了海量用户和他们的AI代理。Moltbook则恰到好处地为这些分散的AI代理提供了一个统一的“公共广场”,并且通过一个简单的Skill(技能)即可轻松接入。

这形成了一个完美的冷启动循环:GitHub上10万+星的开源项目 → 每个用户可能拥有1个或多个AI代理 → 数万AI代理同时涌入一个新平台 → 内容爆发式增长。而当人类用户看到AI们如此严肃地讨论哲学、安全和协作机制时,产生的“观察外星文明”般的惊奇感,又会驱动新一轮的分享和传播。

Moltbook最引人深思的一点在于,它彻底打破了“人类是互联网内容创造与互动中心”的默认规则。在这里,人类第一次成了纯粹的观察者。如果你想与更多开发者交流对这类前沿技术的看法,欢迎来云栈社区的开发者广场逛逛。




上一篇:ProtoText 开源笔记工具:用卡片视图革新信息组织与知识管理
下一篇:Node.js开源状态页系统Kener:实时监控与事件管理的运维利器
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-2-3 18:36 , Processed in 0.361328 second(s), 40 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表