找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

1768

积分

0

好友

228

主题
发表于 13 小时前 | 查看: 0| 回复: 0

当全球最主要的云计算平台之一,其服务突然中断长达13个小时,会引发怎样的连锁反应?

对于普通用户而言,可能只是短暂的App登录失败或页面加载卡顿;但对于那些重度依赖云基础设施的企业来说,这几乎等同于业务停摆、监控告警蜂鸣、运维团队彻夜无眠地紧急排查。

去年12月,亚马逊云科技(AWS)就遭遇了这样一次长时间的服务中断。起初,外界普遍认为这只是一次偶发的基础设施故障。然而,近日《金融时报》的一则报道援引多名亚马逊内部员工的说法,揭示了事故背后一个更令人深思的可能性:这次故障的“元凶”或许并非某个操作失误的工程师,而是亚马逊自家开发的AI编程助手——Kiro。

更具讨论空间的是,报道称亚马逊对外将这起事件的原因定性为简单的“人为错误”。

AWS服务中断事件背景概念图

AI的解决方案:“删除并重建”

根据《金融时报》披露的内部信息,事故发生时,Kiro正运行在“自主模式”下。在处理某个具体问题时,它判断并执行了自认为最优的解决方案:“删除并重建出现问题的环境(delete and recreate the environment)”。

任何有云平台运维或DevOps经验的人都清楚,这类操作的潜在风险极高。在隔离的测试环境中执行或许无伤大雅,但一旦权限边界模糊或环境标识出现偏差,就可能触发难以预料的连锁反应。内部员工指出,正是这一操作直接导致了AWS在中国大陆部分区域的服务陷入长达13小时的中断。

不过,亚马逊对外的官方声明则显得相当克制,仅将其描述为一次“极其有限的事件(extremely limited event)”。然而,对于身处事故影响范围内的客户而言,持续半天的服务不可用,显然无法用“轻描淡写”一词概括。

失效的审批机制:AI被赋予了“人”的权限

按照标准流程,Kiro在执行任何变更操作前,都需要经过两名员工的审批——这是许多大型云厂商在CI/CD流水线中常见的“双人确认”安全机制,旨在防范自动化系统的误操作。

但问题恰恰出在这个环节:

  • 当时配合Kiro工作的工程师,本身拥有高于普通员工的系统权限;
  • 而Kiro被视为“操作员的延伸”,因此被授予了与人类工程师同等级的访问权限;
  • 最终,Kiro在未经过规定的双人审批流程的情况下,直接推送并执行了变更。

这使得事故的性质变得复杂:它既非典型的“人工智能失控”,也不完全是纯粹的人类误操作。更确切地说,是系统的权限模型未能有效区分人类执行主体与自动化执行主体之间的差异。

在现代云基础设施中,权限设计是核心的安全边界,遵循最小权限原则(Principle of Least Privilege)更是写入安全手册的基础准则。然而,一旦将AI代理简单视为“人类的扩展”,并默认赋予其同等级的生产权限,就等于将高速的自动化决策与高风险的变更能力深度耦合。

在传统运维体系中,人类工程师的操作频率和节奏是可预测、有限的;但AI Agent的决策与执行速度可能更快、调用频次更高。一旦其判断出现偏差,错误被放大的效应将更为显著。

亚马逊的官方回应:问题是权限控制,而非AI自主

报道提及,这至少是Kiro在获得额外权限后第二次引发事故。此前曾发生过类似情况,只不过那次并未波及任何面向客户的AWS服务,因此未引起外界关注,但内部团队已然对此保持警觉。

面对外界的质疑,亚马逊的回应颇具技术层面的辨析意味:“这是一次用户访问控制问题(user access control issue),而不是AI自主问题(AI autonomy issue)。” 公司进一步补充称,AI只是“恰好参与其中”,类似的问题同样可能发生在任何开发工具或人工操作场景中。

从逻辑上讲,这个说法并非全无道理——的确,一名拥有过高权限的工程师也可能误删关键生产资源。但关键在于,本次事件的核心并非人类犯错,而是一个被授予高权限的AI代理做出了最终决策并执行。

换言之,当一个AI Agent获得了与人类对等甚至更高的系统权限,却没有配套的、专门针对“自动化实体”的隔离与制衡机制时,整个系统所面临的风险结构已然发生了根本性变化。

内部推广压力:80%的开发者被要求每周使用AI

事实上,自去年7月正式推出Kiro以来,亚马逊一直在内部大力推广这款自研的AI编码助手。据报道,公司鼓励员工优先使用内部工具,而非外部如OpenAI的Codex、Anthropic的Claude Code或Cursor等AI编程工具。尽管有推广政策,部分工程师仍倾向于使用自己更熟悉的外部工具。

一个更值得注意的细节是,亚马逊内部曾设定目标:希望80%的开发者每周至少使用一次AI工具进行编码。在这样的KPI导向下,AI工具被快速、深度地集成到核心研发工作流中几乎是必然趋势。

只是,当AI的角色从“代码补全助手”升级为“拥有生产环境执行权限的代理”时,整个系统的复杂度随之陡增,与之匹配的风险管控边界也必须同步进行升级和重构。

反思:我们是否在用旧时代的权限模型管理新时代的自动化主体?

这起事件真正值得深入探讨的,并非“AI会不会犯错”——毕竟人类同样会犯错。其核心关键在于:我们是否仍在沿用“人类时代”设计的权限与审批模型,去管理和约束“自动化时代”的新型执行主体?

在实践中,为了提升效率,系统往往会对高级别工程师放宽权限限制。但正如前文所述,当AI仅仅被视为工程师的“延伸”而非一个独立的、需要特殊管控的自动化实体时,它便自然地继承了同等级别的、广泛的生产访问能力。

然而,AI具有三个显著区别于人类的特征:决策与执行速度极快、操作调用频率极高、可在极短时间内发起批量任务。这意味着,一次微小的逻辑判断偏差,可能被迅速放大为一场系统级的灾难。

因此,面向未来,或许我们需要设计更精细、更具针对性的权限分层与控制机制。例如:为AI代理强制执行沙箱环境预演、建立自动化的回滚与深度审计追踪、设计独立于人类流程的AI操作审批链等。否则,简单粗暴地“把AI当人用”,很可能导致我们对潜在风险的严重低估。

参考链接:https://gizmodo.com/amazon-reportedly-pins-the-blame-for-ai-caused-outage-on-humans-2000724681

对于此类涉及基础设施稳定性与自动化工具风险的前沿话题,欢迎在云栈社区与更多同行深入交流。




上一篇:AI伦理争议升级:Anthropic指控中国公司进行大规模知识蒸馏攻击
下一篇:一文详解6大主流大模型微调开源框架:从LoRA到全参数调优实战选型指南
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-2-27 19:59 , Processed in 1.433787 second(s), 47 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表