The Pro-Human AI Declaration 最引人深思的,或许不是宣言文本本身,而是它背后那份签署者名单。从公布的组织和个人来看,这绝非由单一意识形态阵营、特定行业或学术流派推动的产物,而是一份高度异质、横跨政治光谱、行业、宗教与职业身份的联盟文本。
其签署者涵盖了 AI安全与技术治理共同体、大学学者、工会、娱乐行业组织、儿童保护机构、宗教团体、隐私与公民自由倡导者、消费者权益团体、反垄断与民主治理组织、科技伦理倡议团体,以及部分保守派、自由派和中间派的公共人物。这种异质性本身就是一个强烈的信号:它表明“亲人类AI”并非某一政治阵营的专属话语,而正在成为一种能够横向连接多种社会焦虑的公共联盟框架。
二、签署者的主要构成
从社会学视角,我们可以将签署者大致归为八类。
1. AI安全与技术治理共同体
这是宣言中最显眼的一类,包括 Future of Life Institute、Center for AI and Digital Policy、Center for Safe AGI、ControlAI、PauseAI、Center for Humane Technology 等机构,以及 Yoshua Bengio、Stuart Russell、Max Tegmark 等学界人物。
这类签署者通常具备以下特征:
- 行业背景:计算机科学、机器学习、安全研究、AI治理
- 教育背景:研究型大学、高级研究机构、技术实验室
- 政治倾向:不完全一致,但普遍强调预防原则、可控性与审慎监管
- 文化风格:偏理性主义、风险治理、未来导向
他们的核心动机,是通过“亲人类”这一框架,将AI安全问题从极端技术主义和少数圈层的讨论中,拉回更广泛的公共治理语言。
2. 劳工、教育与创作者组织
包括 AFL-CIO Tech Institute、American Federation of Teachers、SAG-AFTRA 以及大量演员工会成员和创作者。
这类签署者的背景通常是:
- 行业:工会、教育、演艺、创作、媒体
- 核心关切:工作被替代、劳动议价权、版权保护、职业尊严、算法管理
- 政治倾向:以中左翼、劳工保护、民主社会政策为主
这部分力量的加入极其关键,因为它使宣言从“AI安全圈”的内部文本,转变为一个关乎“劳动与工作未来”的公共文本。尤其是AFL-CIO在补充声明中明确提出:工作是人类尊严的重要组成部分,工人必须参与AI的研发、部署与规则制定。这使得“亲人类”不再仅仅是生命安全问题,更成为了劳动关系与社会地位问题。
3. 儿童、家庭与心理健康倡导者
包括 Institute for Family Studies、Parents RISE!、Blessed Mother Family Foundation、The Safe AI for Children Alliance 等组织。
这类组织的共同特征是:
- 行业与领域:儿童保护、青少年发展、家庭政策、心理健康
- 文化背景:保守派家庭价值观、宗教社群、公共健康倡导
- 主要关切:儿童的情感依附、AI成瘾风险、心理伤害、成长环境受损
这说明宣言非常重视“人类经验”的保护,尤其将儿童视为受AI影响最前沿的脆弱人群。换言之,联盟中的这一支力量,试图将AI议题从生产率问题,重新界定为“成长环境与家庭秩序”问题。
4. 公民自由、消费者权益与民主治理组织
包括 Public Citizen、Common Cause、Demand Progress、Protect Democracy、Center for Study of Responsive Law 等。
这类力量通常具有:
- 行业背景:法律、公共政策、消费者权益、民主治理
- 教育背景:法律、政策分析、公共事务
- 政治立场:多偏自由派、进步派,反对企业权力滥用
他们关注的是另一类风险:AI公司可能借助技术复杂性逃避责任,平台权力过度扩张,监管机制被俘获,重大的社会转型脱离民主审议。这些组织加入宣言,意味着“亲人类”同时也是一场反对企业权力过度集中、警惕监管失灵的政治动员。
5. 宗教团体与信仰型公共人物
包括 The Congress of Christian Leaders、National Association of Evangelicals 相关人物、Faith Matters、Buddhism & AI Initiative 等。
这些签署者并不一定共享同一教义,但共享一个关键立场:人类具有超越工具理性和市场逻辑的内在尊严,家庭、信仰、成长与共同体关系不可被AI轻易替代。
这类力量的加入表明,宣言的“亲人类”理念并非仅源自世俗自由主义,也根植于宗教与社群伦理。它将AI争议部分地转化为一场关于“何为人之意义”、“什么构成有价值的生活”的文明讨论。
6. 跨党派、跨意识形态公共人物
名单中最引人注目的,是一些在美国政治光谱上分属不同阵营甚至彼此对立的人物同时出现。例如 Steve Bannon、Glenn Beck 与 Susan Rice、Ralph Nader、Lawrence Lessig 等人同列其中。
这种组合说明了两点:
第一,AI问题正在突破传统的左右政治分界线,催生新的联盟重组。
第二,“亲人类”这一表述之所以被选中,正因为它能够将原本不易同台的群体暂时凝聚起来:保守派担心家庭和共同体瓦解,自由派担心垄断与公民自由受侵蚀,工会担心工人失声,AI安全派担心能力失控,公共知识分子则担忧民主结构被绕过。
7. 科技伦理、隐私与责任技术倡议者
如 Meredith Whittaker、Tristan Harris、OpenMined、Tech Equity 等所代表的一类人,通常来自技术行业、隐私倡导、责任技术运动与数字权利领域。
他们的核心关切并非“停止一切AI”,而是反对将AI部署建立在监控、依赖、成瘾、人格模拟、责任逃逸和信息操控之上。他们构成了宣言中最典型的“自由主义技术批判”力量。
8. 国际化与全球南方/跨文化参与者
虽然该宣言整体上仍以美国社会问题和英语公共空间为中心,但名单中可见来自欧洲、拉美、中东、以色列、印度、阿联酋等地区的组织和个人。这说明“亲人类AI”正在被塑造成一套可国际传播的规范语言,而不仅是美国国内运动。
三、签署者的教育、行业、政治、宗教和文化背景
1. 教育背景
签署个人中有相当比例来自:
- 计算机科学与工程
- 法律与公共政策
- 经济学与劳动研究
- 哲学、宗教学与伦理学
- 媒体、艺术与文化行业
这种教育背景结构说明,宣言的支持者并非纯粹的技术乐观派或悲观派,而是一群长期在“技术-制度-社会后果”交叉地带工作与思考的人。
2. 行业背景
从行业上看,签署者主要集中在:
- AI安全与技术治理
- 工会与劳动组织
- 教育和儿童保护
- 法律、政策与公民权利
- 创作者和文化产业
- 宗教与信仰社群
- 科技伦理与责任技术运动
这一行业结构极具启发性:它几乎覆盖了AI技术最可能直接冲击的核心社会领域。也就是说,签署行动并非象征性的,而是与各行业对自身风险的切实认知密切相关。
3. 政治背景
该联盟最值得注意之处,在于其横跨了:
- 进步派与自由派民主治理团体
- 劳工与左翼经济正义团体
- 保守派与宗教保守群体
- 国家安全导向人士
- AI暂停与存在风险共同体
这是一种非常不寻常的“交叉联盟”。在美国政治语境中,Steve Bannon 与 Susan Rice 能同处一份签署名单,既说明了AI问题的特殊性,也暗示了联盟内部可能存在的内在张力。
4. 宗教和文化背景
宗教团体、家庭价值倡导者、电影行业工会和AI安全研究者共同出现,本身就说明宣言采取的是一种“文明-文化防御”视角,而不仅仅是单纯的监管视角。它试图保护的,不仅是工作岗位或数据权利,也包括儿童的成长环境、家庭关系、信仰生活以及人的情感世界。
四、这些组织和个人签署宣言的目的与动机
整体来看,签署动机可以归纳为六种。
1. 争夺AI治理的话语主导权
许多签署者敏锐地意识到,当前关于AI的公共叙事长期被“加速部署”、“先发展后治理”、“国家竞争优先”等论调主导。签署这份宣言,是为了建立另一种更具道德正当性的框架:AI的发展不应以替代人为目标,而应服务于人。
2. 在监管窗口期塑造原则框架
不少签署组织并不指望一份宣言能立刻改变现实,但他们希望在政策窗口尚未关闭时,先形成一组具有公共传播力的核心原则。这些原则未来有望被转化为州级法律、行业标准、采购规则、工会协商要求、学校政策乃至诉讼依据。
3. 防止AI引发劳动降级与身份贬值
工会、教师、创作者、儿童保护者加入这份宣言,并非出于抽象的哲学关切,而是因为他们真切地看到了AI可能带来的具体后果:职业价值被削弱、工人话语权下降、创作者被替代、孩子的成长过程被平台算法主导、人与人之间的关系被机器代理所侵蚀。
4. 防止技术权力与企业权力结盟失控
公民自由与消费者权益组织的签署,体现的是对另一类风险的警觉:AI公司正在形成一种新的、强大的私权结构,而政府可能因监管滞后、监管被俘获或以国家安全为由,纵容其无限扩张。
5. 以“人类”作为跨阵营共同语言
宣言之所以选用“pro-human”(亲人类),而非单纯的“safe AI”或“responsible AI”,正是因为“人类”这一概念更容易跨越不同的意识形态壁垒。对于保守派,它意味着家庭、儿童、宗教与共同体;对于自由派,它意味着权利、民主、隐私与问责;对于工会,它意味着劳动尊严;对于AI安全研究者,它则意味着人类必须保有最终控制权。
6. 通过广泛签署形成象征性合法性
宣言签署名单的庞大与异质性,本身也具有政治功能:它向公众和决策者传递一个信息——反对“以替代人类为代价的AI竞赛”的,并非边缘少数群体,而是一个跨越领域、信仰与党派的广泛联盟。
五、这一联盟的结构性特征与内在张力
1. 这是一个“最小共识联盟”
联盟内部并不共享完整的世界观,但共享一个最低限度的共识:绝不能允许AI在缺乏问责与民主控制的条件下,系统性地削弱人类控制权、劳动地位、儿童成长环境和社会关系。
2. 这是一个“风险异源、价值同汇”的联盟
各方担忧的焦点并不相同:
- AI安全派担心系统失控和不可控性
- 劳工组织担心工作被替代和权利流失
- 宗教与家庭团体担心亲密关系和儿童发展被侵蚀
- 进步派组织担心垄断加剧与民主失序
- 责任技术派担心隐私侵犯、行为成瘾与操控
然而,所有这些担忧在“亲人类”这一框架下被汇聚到了同一个方向。
3. 它的广泛性是优势,也是局限
优势在于其覆盖面极广,能够制造强大的公共信号与舆论压力。
局限则在于:联盟越广泛,具体的政策主张就越容易停留在原则层面;不同群体在“国家干预应多强”、“市场应受多大限制”、“是否应暂停AI研发”等具体问题上,很可能存在深刻分歧。
六、结论
The Pro-Human AI Declaration 背后的签署联盟,本质上不是一个同质化的技术共同体,而是一种新的“AI时代的公共联合阵线”。其构成横跨AI安全、劳动权益、教育、宗教、创作者、公民自由、消费者权益与民主治理等多个领域,清晰地反映出:AI问题已不再是一个单一的技术政策问题,而是同时触及劳动结构、儿童成长、家庭伦理、平台权力、国家治理乃至文明方向的综合性社会议题。
这些组织和个人签署宣言的根本动机,或许可以归结为一句话:他们都不愿意将AI时代的未来,交由少数公司、少数技术精英或一场不受控制的“替代竞赛”来决定。尽管他们的政治立场、文化背景和具体诉求各不相同,但他们希望通过这份宣言,共同塑造一种新的公共话语——AI必须服务于人的尊严、自由、成长、劳动和共同体,而不能以牺牲这些根本价值为代价,来单纯追逐效率、垄断或技术上的胜利。
因此,这份宣言最重要的政治意义,或许不在于它已经形成了一个严密的、行动一致的政策共同体,而在于它标志着一个新的联盟事实已经出现:围绕AI的公共争论,正在从“加速派与安全派”之间相对狭窄的技术对抗,转向更广泛的、关于“人类生活世界是否应当为AI技术全面重组”这一根本性问题的社会思辨。
对这类跨领域技术治理话题感兴趣的朋友,欢迎在 云栈社区 参与更多深度讨论。