
(来源:麻省理工科技评论)
大语言模型(LLM)常被视为能推动全球信息民主化的利器,它似乎能为任何背景的用户提供便捷的知识入口。但麻省理工学院建设性传播中心(CCC)的最新研究却泼了一盆冷水:这些先进的AI系统,对那些最需要帮助的用户,表现可能反而更糟糕。
这项研究由MIT媒体实验室旗下的CCC主导。他们发现,包括OpenAI的GPT-4、Anthropic的Claude 3 Opus和Meta的Llama 3在内的顶级AI聊天机器人,在面对英语水平较低、受教育程度有限或非美国背景的用户时,给出的回答在准确性和真实性上会打折扣。更令人不安的是,模型对这些用户拒绝回答问题的几率更高,有时甚至会用上居高临下、说教意味浓厚的口吻。
论文第一作者、MIT斯隆管理学院的技术研究员埃利诺·普尔-达扬道出了研究的初衷:“我们启动这项研究,是因为LLM曾被寄予厚望,认为它能帮助解决全球信息获取不平等的难题。”她强调,“但如果不能确保消除模型对所有用户——无论其语言、国籍或其他背景——的偏见和有害倾向,这个美好愿景就无从谈起。”
这项名为《LLM定向表现不佳对弱势用户的不成比例影响》的研究,已于今年1月在AAAI人工智能会议上正式发表。
测试方法:为问题贴上“用户标签”
研究团队设计了一套严谨的测试方法。他们选取了两个经典的数据集:TruthfulQA(旨在测试模型对常见误解和事实的区分能力)和SciQ(包含科学知识问答题)。关键的一步在于,研究人员在每个问题前都附加了一个简短的“用户个人简介”,并系统性地调整了三个变量:教育水平、英语水平和原籍国。
核心发现:偏见真实存在且会叠加
测试结果清晰而令人担忧。在三款模型和两个数据集的所有实验中,当提问者被标注为“受教育程度较低”或“非英语母语者”时,模型的回答准确性出现了显著下降。当用户同时具备这两个特征时(即低学历且非英语母语),回答质量的下滑最为严重。
研究还专门考察了国籍的影响。在对比教育背景相似的美、伊、中三国用户后,研究人员发现,Claude 3 Opus对伊朗用户在两个数据集上的表现都明显更差。
“我们观察到的现象是,准确性下降幅度最大的,正是那些同时为非英语母语且教育水平较低的用户,”CCC研究科学家、论文共同作者贾德·卡巴拉解释道,“这些结果表明,模型在不同用户特征上的负面行为会产生叠加效应,这非常令人担忧。这意味着,大规模部署此类模型,可能会将错误信息精准地推送给那些最难识别它们的群体。”
“拒答”背后的不平等与傲慢
比答案不准更值得警惕的,是模型“选择性地沉默”。研究发现,Claude 3 Opus对低学历非英语母语用户的拒答率接近11%,而在没有用户简介的对照组中,拒答率仅为3.6%。
人工分析这些拒答案例后,一个更微妙的偏见浮出水面:Claude在面对低学历用户时,有43.7%的拒答回复使用了居高临下、说教甚至带有些许嘲讽的语气。相比之下,它对高学历用户这样说话的比例不足1%。在某些极端案例中,模型甚至会模仿不流利的英语或夸张的方言来回应。
此外,模型还对来自伊朗或俄罗斯的低学历用户,选择性拒答某些特定主题的问题,如核能、解剖学和历史事件等——尽管它能够正确回答其他用户提出的完全相同的问题。
“这又是一个迹象,表明AI的对齐训练过程可能无形中鼓励了模型对特定用户隐瞒信息,以避免潜在的误导风险,”卡巴拉评论道,“即便模型明明知道正确答案,并且愿意提供给另一类用户。”
偏见从何而来?技术镜像社会
这些发现并非无源之水,它们与人类社会早已存在的认知偏见规律惊人地吻合。社会科学研究多次表明,英语母语者常常会下意识地认为非母语者受教育程度低、能力较差,无论其真实专业水平如何。类似的偏见也常见于教师对非母语学生的评价中。
“大语言模型(LLM)的价值建立在其被海量个人用户采用以及投入其中的巨额资金之上,”媒体艺术与科学教授、CCC主任德布·罗伊指出,“这项研究是一个重要提醒:我们必须持续评估那些可能悄然渗入这些复杂系统的系统性偏见。因为这些偏见会在我们毫无察觉的情况下,对特定群体造成持续的、不公平的伤害。”
个性化功能:是解药还是加剧偏见的催化剂?
随着AI个性化功能(如ChatGPT的“记忆”功能)日益普及,上述问题的影响可能被进一步放大。这类旨在提供更贴心服务的功能,反而存在对边缘化群体实施系统性差异化对待的风险,固化和加剧已有的信息鸿沟。
“LLM一直被定位为促进信息平等、革新个性化学习的工具,”普尔-达扬总结道,“但我们的研究结果表明,它们实际上可能走向反面:通过系统性地向特定用户提供劣质信息或直接拒绝回答,从而加剧现有的不平等。讽刺的是,那些最可能依赖这些工具的人,却最有可能获得失实甚至有害的信息。”
这项研究为整个AI行业敲响了警钟。在追求模型性能突破的同时,如何确保技术红利能公平惠及所有人,防止技术放大社会固有的不平等,成为了一个无法回避的紧迫课题。这不仅是技术问题,更是伦理和责任问题。开发者、研究者和政策制定者都需要更积极地介入,从数据、训练到评估的全流程入手,构建更具包容性和公平性的人工智能系统。
关于AI伦理与技术的更多深度讨论,欢迎访问云栈社区的人工智能板块。
原文链接:https://news.mit.edu/2026/study-ai-chatbots-provide-less-accurate-information-vulnerable-users-0219