找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3328

积分

0

好友

435

主题
发表于 11 小时前 | 查看: 2| 回复: 0

MIT研究中心关于LLM对弱势用户影响研究的展板
(来源:麻省理工科技评论)

大语言模型(LLM)常被视为能推动全球信息民主化的利器,它似乎能为任何背景的用户提供便捷的知识入口。但麻省理工学院建设性传播中心(CCC)的最新研究却泼了一盆冷水:这些先进的AI系统,对那些最需要帮助的用户,表现可能反而更糟糕。

这项研究由MIT媒体实验室旗下的CCC主导。他们发现,包括OpenAI的GPT-4、Anthropic的Claude 3 Opus和Meta的Llama 3在内的顶级AI聊天机器人,在面对英语水平较低、受教育程度有限或非美国背景的用户时,给出的回答在准确性和真实性上会打折扣。更令人不安的是,模型对这些用户拒绝回答问题的几率更高,有时甚至会用上居高临下、说教意味浓厚的口吻。

论文第一作者、MIT斯隆管理学院的技术研究员埃利诺·普尔-达扬道出了研究的初衷:“我们启动这项研究,是因为LLM曾被寄予厚望,认为它能帮助解决全球信息获取不平等的难题。”她强调,“但如果不能确保消除模型对所有用户——无论其语言、国籍或其他背景——的偏见和有害倾向,这个美好愿景就无从谈起。”

这项名为《LLM定向表现不佳对弱势用户的不成比例影响》的研究,已于今年1月在AAAI人工智能会议上正式发表。

测试方法:为问题贴上“用户标签”

研究团队设计了一套严谨的测试方法。他们选取了两个经典的数据集:TruthfulQA(旨在测试模型对常见误解和事实的区分能力)和SciQ(包含科学知识问答题)。关键的一步在于,研究人员在每个问题前都附加了一个简短的“用户个人简介”,并系统性地调整了三个变量:教育水平英语水平原籍国

核心发现:偏见真实存在且会叠加

测试结果清晰而令人担忧。在三款模型和两个数据集的所有实验中,当提问者被标注为“受教育程度较低”或“非英语母语者”时,模型的回答准确性出现了显著下降。当用户同时具备这两个特征时(即低学历且非英语母语),回答质量的下滑最为严重。

研究还专门考察了国籍的影响。在对比教育背景相似的美、伊、中三国用户后,研究人员发现,Claude 3 Opus对伊朗用户在两个数据集上的表现都明显更差。

“我们观察到的现象是,准确性下降幅度最大的,正是那些同时为非英语母语且教育水平较低的用户,”CCC研究科学家、论文共同作者贾德·卡巴拉解释道,“这些结果表明,模型在不同用户特征上的负面行为会产生叠加效应,这非常令人担忧。这意味着,大规模部署此类模型,可能会将错误信息精准地推送给那些最难识别它们的群体。”

“拒答”背后的不平等与傲慢

比答案不准更值得警惕的,是模型“选择性地沉默”。研究发现,Claude 3 Opus对低学历非英语母语用户的拒答率接近11%,而在没有用户简介的对照组中,拒答率仅为3.6%。

人工分析这些拒答案例后,一个更微妙的偏见浮出水面:Claude在面对低学历用户时,有43.7%的拒答回复使用了居高临下、说教甚至带有些许嘲讽的语气。相比之下,它对高学历用户这样说话的比例不足1%。在某些极端案例中,模型甚至会模仿不流利的英语或夸张的方言来回应。

此外,模型还对来自伊朗或俄罗斯的低学历用户,选择性拒答某些特定主题的问题,如核能、解剖学和历史事件等——尽管它能够正确回答其他用户提出的完全相同的问题。

“这又是一个迹象,表明AI的对齐训练过程可能无形中鼓励了模型对特定用户隐瞒信息,以避免潜在的误导风险,”卡巴拉评论道,“即便模型明明知道正确答案,并且愿意提供给另一类用户。”

偏见从何而来?技术镜像社会

这些发现并非无源之水,它们与人类社会早已存在的认知偏见规律惊人地吻合。社会科学研究多次表明,英语母语者常常会下意识地认为非母语者受教育程度低、能力较差,无论其真实专业水平如何。类似的偏见也常见于教师对非母语学生的评价中。

大语言模型(LLM)的价值建立在其被海量个人用户采用以及投入其中的巨额资金之上,”媒体艺术与科学教授、CCC主任德布·罗伊指出,“这项研究是一个重要提醒:我们必须持续评估那些可能悄然渗入这些复杂系统的系统性偏见。因为这些偏见会在我们毫无察觉的情况下,对特定群体造成持续的、不公平的伤害。”

个性化功能:是解药还是加剧偏见的催化剂?

随着AI个性化功能(如ChatGPT的“记忆”功能)日益普及,上述问题的影响可能被进一步放大。这类旨在提供更贴心服务的功能,反而存在对边缘化群体实施系统性差异化对待的风险,固化和加剧已有的信息鸿沟。

“LLM一直被定位为促进信息平等、革新个性化学习的工具,”普尔-达扬总结道,“但我们的研究结果表明,它们实际上可能走向反面:通过系统性地向特定用户提供劣质信息或直接拒绝回答,从而加剧现有的不平等。讽刺的是,那些最可能依赖这些工具的人,却最有可能获得失实甚至有害的信息。”

这项研究为整个AI行业敲响了警钟。在追求模型性能突破的同时,如何确保技术红利能公平惠及所有人,防止技术放大社会固有的不平等,成为了一个无法回避的紧迫课题。这不仅是技术问题,更是伦理和责任问题。开发者、研究者和政策制定者都需要更积极地介入,从数据、训练到评估的全流程入手,构建更具包容性和公平性的人工智能系统。

关于AI伦理与技术的更多深度讨论,欢迎访问云栈社区人工智能板块

原文链接:https://news.mit.edu/2026/study-ai-chatbots-provide-less-accurate-information-vulnerable-users-0219




上一篇:PHP Agentic框架Neuron V3.0发布:基于Workflow重构,支持人工干预与推理模型
下一篇:STM32C0资源受限?用TouchGFX L8格式与RLE压缩提升GUI流畅度
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-2-26 17:35 , Processed in 0.465433 second(s), 42 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表