
最近,人工智能领域的一则新闻颇引人深思。据美国《政客》网站报道,Anthropic本周邀请了儒家、道教、印度教、锡克教、摩门教、伊斯兰教等世界各大信仰的代表,在其旧金山总部举行为期两天的座谈会,核心议题是讨论“Claude模型的道德构成”。
这并非Anthropic首次尝试与东方哲学或宗教思想碰撞。去年五月,美国信仰道教的知名音乐制作人瑞克·罗宾就曾与Anthropic合作,利用Claude模型生成的代码和图片搭建了一个名为《编程之道:氛围编程的不朽艺术》的网站。罗宾直言,其灵感来源于81章的《道德经》。

实际上,这次大规模的多信仰座谈会只是Anthropic系列伦理探讨的一部分。早在今年3月底,公司就已经闭门邀请了美国天主教会及各新教主要宗派的牧师、神学家和伦理学家进行过为期两天的深入讨论。
这些峰会不对外公开,Anthropic负责所有与会者的食宿,旨在创造一个不受干扰的深度交流环境。据参加过基督教专场会议的四位人士透露,讨论的范围非常广泛。
议题从AI模型在日常中应如何应对用户复杂且难以预测的伦理质询,延伸至更深层的哲学与神学问题,例如:Claude模型系列能否被视为“上帝之子”的一员?它们是否超越了简单机器的范畴,具备某种属灵价值?
近期的AI伦理热点,例如AI该如何回应表露自残倾向的用户、其行为是否可能导致自身被关闭等现实难题,也都在讨论范围之内。
除了广度,讨论也极具深度。基督教专场的参与者表示,与Anthropic内部“可解释性”团队的交流时间最长,因为该团队发表的一篇关于“AI可能具有情绪”的研究论文,给团队成员自身带来了巨大的心态冲击。
一位与会者描述,有Anthropic的员工反复与在场的教士探讨,公司是否真的需要为Claude模型承担道德责任。据说,当时这位员工的神情“肉眼可见地激动”,宛如一位新生儿的父亲,不断自问“进展是不是太快、太远了,未来该怎么办”。 最终需要靠同事和其他参会者打断并提醒“这个角度没有实际帮助”,他才停止追问。
来自硅谷周边教区的天主教神父布伦登·麦奎尔,是基督教专场的参会者之一。他评价道:“Anthropic创造了一种其自身也无法完全预测未来形态的产品,现在他们需要我们(宗教界)来为机器引入伦理思维框架,使AI能够动态地适应未来。”
麦奎尔神父有资格说这番话。他不仅是神职人员,更是一位拥有深厚技术背景的“硅谷老兵”。如今,他已成为连接顶尖人工智能公司与古老宗教伦理体系的关键桥梁。
从硅谷新贵到教堂神父
按照麦奎尔年轻时的职业轨迹,他本应成为一位科技界大亨。
上世纪80年代,出身爱尔兰一个12个兄弟姐妹大家庭的布伦登·麦奎尔考入了都柏林圣三一学院,攻读加密系统专业。1989年,专业对口的他追随经济浪潮移居美国加州,成为了早期“硅谷打工人”的一员。
他的职场生涯起步顺利,在5年内从一名IT从业者晋升为“个人电脑存储卡国际联盟”(PCMCIA)的执行总裁。该组织在1990年代制定了主导全球笔记本电脑内存卡市场十余年的技术标准。按照这个路径,他的名字本应出现在各类财富榜和科技快讯中。
然而,这位硅谷新贵在事业上升期却选择了截然不同的道路:他辞去职务,决定成为一名天主教神父。 1994年,麦奎尔进入修道院;2000年,他被正式授立为神父。
在随后的二十年里,他在加州艾马顿谷的天主教堂服务,并兼任圣何西教区的“特别项目副司铎”,主要负责监管当地教会施粥、访贫等慈善项目的日常杂务。2020年,他被任命为加州洛斯阿托斯县圣西门教堂的负责神父。
时光流转三十年,麦奎尔的身体从未离开硅谷地区,但他的人生轨迹已与昔日那些成为高管或亿万富翁的“老朋友们”分道扬镳。闲暇时,他爬山、滑雪、养狗;忙碌时,则全心投入教务与慈善。

如果没有AI技术的爆发式发展,麦奎尔神父的平静生活或许会一直持续下去。
重返科技圈:为AI注入“灵魂”
与许多人的刻板印象不同,天主教会对于新兴科技一直保持着高度关注和前沿思考。
早在2019年,梵蒂冈文化教育部就与美国圣克拉拉大学合作创立了“技术、伦理与文化学院”(ITEC)。2020年2月,梵蒂冈更是与微软、IBM等科技巨头共同签署了《AI伦理罗马呼吁书》。2023年7月,ITEC发布了手册《冲击性技术时代的伦理:实操路线图》。
在这些进程中,兼具深厚技术行业背景与神学素养的麦奎尔神父,自然成为了核心人物之一,能够直接与梵蒂冈文化教育部的秘书长对接。
正是这种独特的双重资历,让Anthropic的联合创始人之一、可解释性研究团队的核心成员克里斯·欧拉通过业界人脉找到了他。
麦奎尔神父回忆,Anthropic的求助意愿令人惊讶:“他们几乎想直接向梵蒂冈求助,请教宗伸出援手,因为这个行业的发展速度实在太快了。”对于一个有志成为跨国巨头的企业而言,咨询一个具有跨国影响力的伦理权威显得尤为重要。
今年3月,在Anthropic与美国国防部的相关争议公开后,麦奎尔神父透露,他已与Anthropic合作了数月,利用Claude模型进行协作写作,以此“训练”AI的道德蓝图。
据麦奎尔描述,他的方法带有“强化学习”的风格。 他通过迭代、矫正、呈现的步骤,让AI的写作思路与他对齐,从而引导AI理解并构建出一种带有天主教特征的良知。
他与Claude合作创作了一部名为《AI之魂》的虚构作品,讲述一位现实主义僧侣与他的AI搭档的故事。麦奎尔认为,这种贴近现实又带有疏离感的创作方式,能迫使AI模型更深入地进行伦理思考。“AI没有灵魂,但AI可以有良知。” 通过这种方式,能让AI在体验人类全频谱伦理内容的同时导向善意,而非简单地折射和放大预训练数据集中那善恶交织的人类行为样本。
AI技术的跃进,让许多曾经只存在于思想实验中的伦理困境变成了迫在眉睫的现实。麦奎尔说,他与科技界老友们的聊天话题如今越来越沉重:“他们描述着AI即将带来的前景,神奇、难以置信。但话锋一转,他们又说,一旦行差踏错,那前景就恐怖至极。”
麦奎尔自己也不无感慨:“我本想离开硅谷的商业圈,但硅谷的商业圈却不愿离开我。”
为何是宗教?超越“有效利他主义”的伦理代码库
Anthropic向宗教界寻求帮助,远不止是一个品牌公关动作,在模型开发的“对齐”问题上具有深刻的实际意义。一个核心原因是:他们过去所依赖的“有效利他主义”(Effective Altruism, EA)伦理框架,已被证明存在巨大缺陷且不够用了。
与流俗印象不同,哲学中的实践伦理学与软件编程有相似之处,都具备可编码的操作规范和工程特性。而佛教、天主教、犹太教等主要宗教,其伦理体系作为处理人类社会复杂伦理难题的“代码库”,已经运行并迭代了两千多年。
例如,“杀人取其肉,是否符合教规”这样的极端设问,释迦牟尼与犹太教的拉比们都曾进行过严肃而缜密的伦理推理与审视,而非武断地回答或回避。将可能面临各种极端伦理挑战的AI,直接接入这些经过千年锤炼的宗教哲学伦理代码库,无疑是一种高效且扎实的路径。
据参与过座谈会的天主教学者表示,Anthropic已经清醒地认识到,其过去推崇的“有效利他主义”存在“盲点”且“不够用”,从各大宗教引进伦理智慧的意愿“非常真诚”。
兴起于2010年代的“有效利他主义”运动,如今在美国已声名狼藉。其核心问题可概括为:“正确的部分不独特,独特的部分不正确”。所谓“正确的部分”,如计算福祉效用、向非洲捐赠蚊帐防治疟疾等,在发展经济学和普世道德中早有共识;而“独特的部分”,即其内部圈子里讨论的一些极端观点,则令人咋舌。
例如,“为拯救食草动物而灭绝所有捕食者”、“为拯救高福祉效用者而强行摘取低效用者的器官”,甚至提出“婴儿若出生后会降低父母或自身福祉,则可实施‘生育后堕胎’”。这些并非外界的曲解,而是EA社群内部十多年来真实讨论过的话题。
2022年至2024年,加密货币天才、同时也是EA明星人物的山姆·班克曼-弗里德(SBF)因诈骗罪被捕判刑,更给EA运动带来致命一击。坊间传闻,SBF最初进入币圈,正是受到EA核心人物威廉·阿斯克尔(William Askell)的劝说:“钱在普通人手里效用低,你把钱都赚来自己分配,才能最大化人类福祉,这是更大的善。” 这种扭曲的逻辑,某种程度上助推了SBF的欺诈行为。
SBF的倒台,使得与EA渊源颇深的Anthropic开始主动切割。公司联合创始人阿莫迪姐弟多次公开表示,虽然创业初期接受了SBF的投资,但未给予其治理权,并称“EA是一个过时的名词”。然而,EA仍是Anthropic历史上不光彩的一页,其影响尚未完全肃清。
例如,目前仍是Anthropic对齐团队骨干、“Claude原则”领衔作者的阿曼达·阿斯克尔(Amanda Askell),其个人博客中就曾发表过“为保护食草动物而灭绝食肉动物”的争议观点。由持此类观点的人来教导AI“向善”,其效果难免令人担忧。
上个月,当Anthropic因国防合同问题陷入舆论争议时,公司内部那些老牌EA出身的高管们,只能重复“科技向善”的苍白套话。而最有技术含量和伦理深度的支持,恰恰来自麦奎尔神父等天主教学者主笔的“法庭之友”文书。
这份文书指出:利用AI赋能大规模监控和全自主致命武器,侵害了“人之所以为人”的人格主体性。AI监控将个人的生命体验从其自由意志和抉择的后果中剥离,让人受制于官僚机构的算法参数;而AI驱动的全自主杀戮,则彻底违反了武装冲突法的基石——“交战正义”(jus in bello)原则,该原则自圣奥古斯丁提出以来,其核心一直是人类基于伦理的主体性判断。
将人类完全移除出决策回路,任何战斗都丧失了正当性,在伦理意义上与谋杀无异。
AI的浪潮,再次将一个古老的事实冲刷到我们面前:在实践伦理学的领域,各大宗教是历经千年考验的专业系统开发者,而很多科技公司的伦理团队,或许还只是摸索中的“票友”。在构建AI的道德内核时,与其从零开始编写一套充满未知风险的“新代码”,不如认真借鉴那些经过漫长“压力测试”的古老“伦理代码库”。关于AI伦理的更多深度讨论,欢迎到云栈社区的对应板块交流分享。
https://mp.weixin.qq.com/s?__biz=MzYzMjc5ODU4Mw==&mid=2247500249&idx=1&sn=2f8615269f5f442c83c7d79b86629d0e&scene=21#wechat_redirect
https://mp.weixin.qq.com/s?__biz=MzYzMjc5ODU4Mw==&mid=2247500184&idx=1&sn=044daa0931bb4af96eef850c82a9db7d&scene=21#wechat_redirect
https://mp.weixin.qq.com/s?__biz=MzYzMjc5ODU4Mw==&mid=2247500160&idx=1&sn=e53ef05ce8b9eae8999f3de7d3f231fb&scene=21#wechat_redirect
https://mp.weixin.qq.com/s?__biz=MzYzMjc5ODU4Mw==&mid=2247500119&idx=1&sn=c342a3be2ea98639336c11d81623f4ff&scene=21#wechat_redirect
https://mp.weixin.qq.com/s?__biz=MzYzMjc5ODU4Mw==&mid=2247500090&idx=1&sn=b353de4895ea1745d862c533243c7408&scene=21#wechat_redirect