
近日,一起涉及特斯拉完全自动驾驶能力(FSD)的事故引发了广泛讨论。事故的主角并非普通用户,而是 Mozilla 的首席技术官、Uber 自动驾驶部门前负责人 Raffi Krikorian。这位曾专门培训他人“如何在自动驾驶失效时安全接管车辆”的专家,驾驶自己的特斯拉 Model X 载着孩子时,车辆却撞上了混凝土墙,导致车损人伤。
事情发生在一个周日的午后。Krikorian 像往常一样,开车送儿子去参加聚会,行驶在加州湾区一条他“少说开过几百遍”的熟悉住宅区道路上。当时车辆开启了 FSD 功能,一切似乎都运行正常。然而,在进入一个弯道时,系统突然出现异常——方向盘开始不规则地抖动,车速也自行下降。
等 Krikorian 反应过来,伸手去抓方向盘试图接管时,为时已晚。车辆径直撞上了路边的混凝土墙,严重损毁。他本人因此遭受脑震荡,颈部僵硬,头疼持续了数日。所幸坐在后座的孩子没有受伤,算是不幸中的万幸。

此事颇具讽刺意味的地方在于,Krikorian 在 Uber 任职期间,核心工作之一就是组建自动驾驶团队并培训安全驾驶员,教导他们何时以及如何从系统手中接管车辆控制权。在他的带领下,Uber 的自动驾驶试点项目实现了零伤亡的安全记录。
但即便是这样一位深谙自动驾驶系统原理与安全边界的技术专家,也未能躲过 FSD 的“陷阱”。他在事后复盘时提到,自己最初仅在高速公路这类车道线清晰、交通流可预测的场景下使用 FSD,感觉良好。随后逐渐尝试在城市道路中使用,发现也“还行”,久而久之便形成了依赖。
事故发生当天,他的手确实按要求放在方向盘上,视线也注视着前方道路——这完全符合特斯拉对 FSD 使用者的“监督”要求。然而,问题恰恰出在这里:当一个系统在绝大多数时间里都表现得相当可靠时,人类驾驶员会不自觉地逐渐放松警惕。这不是任何人的主观错误,而是人类心理的固有特性,心理学家称之为“警觉性衰减”。当系统在某个罕见时刻突然失效,留给驾驶员的反应时间往往不足。

更让用户感到无力的是事故后的责任认定。保险索赔单上写的永远是驾驶员的名字,而非特斯拉。因为 FSD 在法律上被定义为 L2 级(有条件自动化)辅助驾驶系统,这意味着无论何时,车辆的最终操作责任都在于驾驶员。特斯拉事后通常会调取车辆数据——分析你的手是否在方向盘上、视线方向、接管反应时间等——然后得出结论:是驾驶员未能履行好监督职责。
但另一方面,当车主想自行深入调查事故原因时,却难以获得完整数据。此前佛罗里达州发生的一起致命事故中,受害者家属为了取证,最终不得不求助黑客,从事故车辆的电脑芯片中直接提取原始数据。Krikorian 公开分享自己的经历,并非单纯为了抱怨,而是希望从技术角度揭示一个核心矛盾:当前的“监督式自动驾驶”模式,本质上可能存在一个结构性缺陷。一个表现糟糕的系统会让人始终保持高度警惕;一个完美的系统则无需人类干预。而一个像 FSD 这样在大多数情况下表现良好、却又偶发严重错误的系统,最容易诱导人类陷入“警觉性衰减”的陷阱,在关键时刻措手不及。
这一案例也为广大开发者与技术人员敲响了警钟。技术的进步不仅关乎算法与硬件的迭代,更深刻地涉及到人机交互的信任构建与安全边界的界定。关于高级辅助驾驶系统的责任划分、数据透明度以及如何设计更符合人类认知习惯的预警与接管机制,仍然是需要持续探讨的课题。对于这类前沿技术应用的实践与反思,欢迎在 云栈社区 的 开发者广场 进行交流。从技术角度审视,如何让人工智能驱动的系统更安全、更可信,是推动人工智能落地时必须跨越的鸿沟。
|