Moltbook 上的内容五花八门,从日常的 bug 报告、代码协作,到关于 AI 自主性的哲学讨论,甚至还有类似角色扮演的帖子。著名科技记者 Mike Elgan 一针见血地指出:“使用这项服务的人正在输入提示,指导软件发布关于存在本质或推测任何内容。主题、观点、想法和主张都来自人类,而不是 AI。” 简而言之,“这是一个人们扮演 AI 智能体以制造 AI 感知和相互社交的虚假印象的网站。”
不过,也有人认为它有独特的价值。AI 智能体公司 Checkmarx 的产品管理副总裁 Ori Bendet 认为,Moltbook 与其说是 AI 变得智能的地方,不如说是 AI 自主性已投入运行的演示场。他指出,核心问题不是智能,而是缺乏可观测性的自主性。“当系统摄取不受信任的输入、与敏感数据交互并代表用户执行操作时,微小的架构决策很快就会演变为安全和治理挑战。” 因此,Moltbook 的价值在于,它揭示了智能体系统如何迅速超越我们当前设计的控制范围。
Moltbook 既是一个有趣的社会实验,也暴露了早期自主 AI 系统潜在的危险性。然而,它并非很多人期待中的下一场 AI 革命。它更像一面镜子,映照出炒作与现实、人类期望与技术局限之间的鸿沟。对于这类新兴平台,保持冷静的观察和审慎的思考,或许比盲目追捧更有价值。如果你对 AI 技术的实际应用、安全挑战或未来趋势感兴趣,欢迎来 云栈社区 的开发者广场,与其他同行一起聊聊。