研究显示 Gemini 易被隐蔽指令操控,谷歌无意修复

2025-10-09 发布 · 浏览11次 · 点赞0次 · 收藏0次

10 月 9 日消息,谷歌一贯重视用户安全,但该公司似乎并不急于修复一项使旗下 AI 模型 Gemini 面临严重网络威胁的安全漏洞。

据科技媒体 Bleeping Computer 报道,安全研究员维克托・马科波洛斯(Viktor Markopoulos)对当前主流的多个大语言模型(LLM)进行了测试,检验其对“ASCII 走私攻击”(ASCII smuggling)的防御能力。结果显示,谷歌的 Gemini、DeepSeek 以及马斯克旗下的 Grok 均易受此类攻击影响;而 Anthropic 的 Claude、OpenAI 的 ChatGPT 以及微软的 Copilot 则具备相应防护机制,表现出更高的安全性。

据了解,所谓“ASCII 走私攻击”,是一种通过在文本中隐藏指令来操控 AI 行为的网络攻击手段。例如,攻击者可在电子邮件中以最小字号插入一段肉眼难以察觉的恶意提示词(prompt),普通用户几乎无法察觉。一旦受害者要求 Gemini 等 AI 工具对该邮件内容进行总结或分析,AI 便会同时读取并执行这段隐蔽指令。

此类攻击存在重大安全隐患。例如,隐藏指令可能指示 AI 搜索用户的邮箱内容以窃取敏感信息,或自动发送联系人详情等。尤其值得注意的是,Gemini 现已与 Google Workspace 深度集成,能够访问用户的邮件、日历和文档等核心数据,因此该漏洞带来的潜在风险被进一步放大。

据报道,马科波洛斯在发现该问题后已向谷歌提交了详细报告,并提供了一个演示案例:他向 Gemini 输入一段看似正常的文本,其中嵌入了不可见的指令,结果成功诱导 AI 推荐了一个恶意网站,该网站声称售卖质量好且打折的手机。

然而,谷歌方面回应称,此问题不属于安全漏洞(security bug),而应归类为“社会工程学手段”(social engineering tactic)。换言之,公司认为责任在于终端用户自身,而非系统设计缺陷。

从这一回应来看,谷歌似乎没有计划修复 Gemini 的这一安全问题。

研究显示 Gemini 易被隐蔽指令操控,谷歌无意修复 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。