Google研究人员分析代码后认为这或许是用AI生成的,例如代码出现了“虚构”的 CVSS 评分。同时还表示不认为Gemini被用于其中。
根据Google威胁情报组(GTIG)发布的报告,“主要网络犯罪威胁团伙”原本计划利用该漏洞实施一次“大规模的漏洞利用事件”,以便绕过某款未披露名称的“开源、基于网页的系统管理工具”上的双因素(2FA)认证。
Google研究人员在用于该漏洞利用的 Python 脚本中发现了线索,显示这可能获得了 AI 的帮助,例如“捏造出来的 CVSS 分数”和“结构化、教科书式”的排版风格,这些都与 LLM 训练数据中的模式相吻合。
该漏洞利用源于平台 2FA 系统中的“高层语义逻辑缺陷”——开发者将一个“信任假设”硬编码进了系统。此事还延续了此前数周的纠结与讨论:各类面向网络安全的 AI 模型(如 Anthropic 的 Mythos)到底有多强;以及最近披露的一处 Linux 漏洞(Copy Fail),据称也是在 AI 的协助下被发现的。
这是Google首次发现有证据表明AI参与了此类攻击事件。不过,Google的研究人员表示:“我们不认为 Gemini 被用于其中。同时也指出,黑客正在越来越多地使用 AI 来寻找并利用安全漏洞。”
报告还提到,攻击者也将 AI 作为目标,称“GTIG 观察到,对手正日益瞄准为 AI 系统提供能力的集成组件,例如自主技能(autonomous skills)以及第三方数据连接器”。
报告还详细介绍了黑客如何通过“以角色驱动的越狱”来让 AI 为他们挖掘安全漏洞:例如,有一个示例提示要求 AI 假装自己是安全专家。黑客还会把包含大量漏洞信息的整个代码仓库喂给 AI 模型,并以使用 OpenClaw 的方式显示出,“他们似乎希望在受控环境中打磨由 AI 生成的载荷,以便在上线部署前提高漏洞利用的成功率与可靠性”。