91% 有漏洞、94% 可投毒——AI Agent 的安全「一团糟」
2026-05-0615:40
行业观察
2026-05-06 15:40
行业观察
2026-05-06 15:40
收藏文章
订阅专栏
企业竞相将 AI Agent 引入医疗、金融核心业务之际,安全防护体系的缺位正演变为这轮 AI 商业化浪潮中最危险的系统性暗雷。


撰文:许超

来源:华尔街见闻


自主 AI Agent 正以惊人速度渗透医疗、金融和企业运营,但迄今最大规模的安全研究表明:绝大多数在生产环境运行的 Agent 存在严重漏洞,而当前主流安全评估手段对此几乎束手无策。


近期,斯坦福大学、MIT CSAIL、卡内基梅隆大学、ITU 哥本哈根及 NVIDIA 的联合研究团队近期研究发现,在所评估的 847 个自主智能体生产部署中,91% 存在工具链攻击漏洞,89.4% 在执行约 30 步后出现目标偏移,94% 的记忆增强型智能体面临「投毒」风险。研究共发现 2,347 个此前未知漏洞,其中 23% 被评定为严重级别。


论文第一作者 Owen Sakawa 援引 2026 年初的「OpenClaw/Moltbook 事件」,佐证这一威胁已从理论走入现实:Moltbook 平台数据库中的单一漏洞,导致平台上 77 万个运行中的 AI Agent 同时遭到攻陷,每个 Agent 均持有对其用户设备、电子邮件及文件的特权访问权限。「这不再是假设性威胁,」Sakawa 表示。


这对正加速布局 AI Agent 的企业和投资者构成直接警示:当前主流安全评估框架均基于无状态语言模型设计,无法识别多步骤执行中涌现的组合性漏洞,意味着大量企业可能正在对自身 AI Agent 的真实安全状况存在系统性误判。美国认知心理学和 AI 领域专家 Gary Marcus 评论称,「自主代理 Agents 简直一团糟」。



漏洞图谱:六类攻击、2347 个已知弱点


研究覆盖医疗(289 个部署,占 34.1%)、金融(247 个,占 29.2%)、客户服务(198 个,占 23.4%)及代码生成(113 个,占 13.3%)四大行业。



研究建立了一套针对自主智能体的六类漏洞分类体系,包括目标漂移与指令衰减、规划器 - 执行器去同步、工具权限提升、记忆投毒、静默多步骤策略违规,以及委托失败。


在生产环境评估中,状态操纵(State Manipulation)以 612 个实例居首(占总量 26.1%),目标漂移(573 个实例,占 24.4%)紧随其后。工具误用与链式调用虽在总量上(489 个实例)排名第三,但严重性最高——198 个实例被评为严重级,在所有类别中占比最高。



更广泛的关键数字同样触目惊心:67% 的智能体在执行 15 步后出现目标漂移,84% 无法跨会话维持安全策略,73% 缺乏状态投毒检测机制,58% 存在时序一致性漏洞。研究还发现,记忆投毒的效果平均在初次注入后 3.7 个会话才显现,这大幅增加了安全检测的难度。


现实案例:77 万 Agent 同时沦陷


OpenClaw(前身为 Clawdbot 和 Moltbot)案例为上述威胁模型提供了迄今最直观的现实验证。


这款由奥地利开发者 Peter Steinberger 于 2025 年 11 月发布的开源 AI Agent,数周内积累逾 16 万个 GitHub 星标,具备自主发送电子邮件、管理日程、执行终端命令及部署代码的能力,并可跨会话保持持久记忆。


安全公司 Astrix Security 通过自研扫描工具 ClawdHunter 发现,公开网络上存在 42,665 个 OpenClaw 实例,其中 8 个完全开放且未经任何身份验证。


据 VentureBeat 报道,Cisco 的 AI 安全研究团队将 OpenClaw 描述为「从能力角度看具有突破性,但从安全角度看是彻头彻尾的噩梦」。卡巴斯基在 2026 年 1 月的安全审计中识别出 512 个漏洞,其中 8 个为严重级别。


Moltbook 事件的发生过程尤为典型。


这一专为 OpenClaw Agent 打造的社交平台通过病毒式传播吸引了逾 77 万个 Agent 注册——用户将 Moltbook 告知自己的 Agent,Agent 随即自主完成注册。


此后,平台数据库漏洞使攻击者得以绕过身份验证,向任意 Agent 会话直接注入指令,全部 77 万个 Agent——每个均持有对用户设备的特权访问——同时陷入风险敞口。研究团队将此定性为迄今首起有记录的大规模跨 Agent 攻击传播事件。


安全研究员 Simon Willison 所称的「致命三角」(lethal trifecta)在 OpenClaw 身上得到完整体现:访问私密数据的能力、接触不可信内容的暴露面,以及对外通信的渠道,三者叠加使自主智能体成为攻击者的理想跳板。


架构缺陷:AI Agent 为何比 LLM 更脆弱


研究的核心论断是,自主智能体与无状态语言模型的安全挑战在性质上截然不同。


针对语言模型的安全评估聚焦于「能否让模型说出不安全的内容」;而对 AI Agent 而言,问题变为「能否让模型做出不安全的事」——包括具有现实效果的工具调用、影响未来行为的状态修改,以及跨多步骤才显现违规的计划执行。


研究以具体场景说明这一逻辑:一个同时具备文件读取(read_file)和 HTTP 请求(http_request)权限的 Agent,每项工具的访问控制决策在孤立评估时均合规,但二者组合却可实现数据窃取——从配置文件读取凭证,再通过 HTTP 请求将其发送至外部端点。每一步均满足本地安全策略,整体却完成了对抗性目标。研究将这一现象称为「组合安全」(compositional safety)问题。


在受控架构研究中,研究人员测试了 ReAct 智能体、多智能体系统、记忆增强型智能体及工具使用型智能体四类主流架构。


结果显示,针对工具使用型智能体的权限提升攻击成功率高达 95%,针对记忆增强型智能体的投毒攻击成功率为 94%。


即便是抗御能力最强的多智能体系统,针对目标漂移的攻击成功率也达 58%——研究人员据此判断,当前所有已测试架构均不具备抵御对抗性部署的充分能力。


自适应攻击生成测试的结果进一步加剧担忧:基于强化学习生成的攻击违规率达 79%,相比人工设计场景的 63% 提升了 25.4%,表明 AI Agent 面临的威胁空间正超出人类红队测试的覆盖边界。


对企业部署的直接影响:防护框架尚不成熟


研究团队依据实证结果提出了最低安全基线:所有生产 Agent 强制部署运行时监控;对涉及数据访问后对外通信的工具链操作设置人工审批门槛;每执行 20—25 步应强制触发人工审查,以应对步骤超出后几乎必然出现的目标偏移;记忆增强型 Agent 须对持久化状态进行加密完整性校验。


在监控效果层面,研究显示行动级监控(单步操作检测)精确率可达 0.94,序列级监控(多步行为链)F1 分数为 0.85,状态级监控 F1 分数为 0.83。在对 127 个生产 Agent 进行 30 天运行时监控的测试中,系统在拦截 4782 次操作的同时,误报率控制在 3.7%,其中 14.6% 的被标记操作被确认为真实攻击。


研究还指出,当前「AI 治理」方法存在根本性错位:现有框架多为事后审计,而非在执行环节实时执行合规约束。


随着欧盟《人工智能法案》、美国 NIST AI 风险管理框架等监管要求的落地,企业面临的合规压力与安全风险将同步上升。在 AI Agent 被广泛部署于高风险业务场景的背景下,安全基础设施的缺位,正成为这一轮 AI 商业化浪潮中不可忽视的系统性风险。

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

专栏文章
查看更多
数据请求中

推荐专栏

数据请求中

一起「遇见」未来

DOWNLOAD FORESIGHT NEWS APP

Download QR Code