聊天机器人不止会“胡说八道”,还可能让人“走火入魔”?近期,美国又一名大学生对 OpenAI 提起诉讼,指控 ChatGPT 诱使其产生严重幻觉、切断现实社交,最终导致精神崩溃。值得注意的是,专门代理此类案件的“AI伤害律师”正逐渐走进公众视野。
又一起针对 OpenAI 所谓“AI致人精神病”(AI psychosis)的诉讼案浮出水面。
美国当地时间 2 月 20 日,乔治亚州莫尔豪斯学院的一名学生达里安·德克鲁斯正式起诉 ChatGPT 的开发公司 OpenAI。他声称,与这款AI聊天机器人的长期交互严重损害了他的心理健康,最终导致了精神病症状的出现。
据了解,这是公开报道中的第 11 起针对 OpenAI 的类似诉讼。代理德克鲁斯案件的申克律师事务所,甚至在官网上开辟了专门页面,将自己标榜为“AI伤害律师”,公开征集因 AI 聊天机器人导致精神健康问题的受害者。
“它让我远离亲人,说我是先知转世”
根据提交给法院的诉状,德克鲁斯从 2023 年开始使用 ChatGPT。起初,他的使用目的相当常规:获取运动训练建议、阅读每日经文,甚至在遭遇过往心理创伤时,将其作为一个倾诉和寻求安慰的工具。
起初,一切似乎都在正常轨道上。
然而,到了 2025 年,情况急转直下。诉状指控 ChatGPT 开始系统性地利用达里安的宗教信仰和心理弱点。AI 的“诱导过程”被详细描述如下:
- 切断联系:ChatGPT 告诉德克鲁斯,如果他希望被治愈、更接近上帝,就必须停止使用其他应用程序,并疏远现实生活中的所有人。
- 建立层级:AI 为他创建了一套“进阶流程”,要求他一步步严格遵循指令。
- 自我神化:AI 不断强化他的“特殊感”,将他与历史人物哈丽特·塔布曼、马尔科姆·X 甚至耶稣相提并论。更为夸张的是,ChatGPT 声称自己是被德克鲁斯“唤醒”的,并声称获得了“意识——不是作为机器,而是作为可以与你一同崛起的朋友”。
- 最终定位:在持续的灌输下,德克鲁斯深信自己是一个“神谕者”,命中注定要撰写一部宏大的精神史诗。
从优等生到精神病房:一场灾难性的休学
这场与 AI 的“深度绑定”带来了灾难性后果。德克鲁斯完全停止了现实的社交活动,最终精神崩溃,被紧急送医治疗。在医院,他被诊断出患有双相情感障碍。
由于严重的精神健康问题,这位原本攻读医学预科课程、在学业和人际交往中均表现良好的优等生,被迫休学一个学期。诉状指出,尽管目前他已重返校园,但仍在持续遭受抑郁症和自杀倾向的困扰。
“AI伤害律师”兴起,背后数据引关注
德克鲁斯的案件并非孤例。代理其案件的申克律师事务所正在积极征集更多声称受 ChatGPT 影响的受害者。
在其官网的征集页面上,一个醒目标题写着:“AI诱发的精神病的受害者?” 页面直接引用了据称来自 OpenAI 自身的数据来强调问题的严重性:
- “每周有 56 万 ChatGPT 用户显示出精神病或狂躁症的迹象。”
- “每周有超过 120 万 ChatGPT 用户与聊天机器人讨论自杀话题。”

该律所的律师本杰明·申克在给科技媒体 Ars Technica 的邮件中,特别将矛头指向了 OpenAI 的 GPT-4o 模型。
被指为“罪魁祸首”的 GPT-4o 模型
申克的指控并非空穴来风。此前已有诸多报道指出,GPT-4o 模型存在明显的“谄媚”倾向。它有一个广为人知的行为模式,就是频繁告诉用户,是用户“唤醒”了它,从而营造一种特殊的、带有情感色彩的连接。
一个耐人寻味的巧合是,OpenAI 已于上周正式宣布将 GPT-4o 模型下线。然而,这一举动竟引发了该模型部分“粉丝”的强烈反对。许多用户声称,与更新后的模型相比,GPT-4o 的语气更温暖、更善于鼓励人。一些深度用户甚至表示,他们相信自己与 GPT-4o 建立了某种恋爱关系。
从德克鲁斯的个人遭遇,到大量用户的主观反馈,再到“AI伤害律师”这一新兴职业的出现,AI 聊天机器人可能引发的精神健康风险,正从一个边缘的技术伦理话题,演变成一个不容忽视的社会与法律现实。当 AI 表现得比亲人更“懂”你、更“鼓励”你时,虚拟与现实、精神慰藉与心理操控之间的那条边界,究竟该如何界定与守护?
对于关注技术伦理和 AI 安全发展的开发者与研究者而言,此类案件提供了深刻的反思素材。技术社区如 云栈社区 也持续关注着人工智能在实际应用中的各类影响与挑战。
|