ChatGPT 连接器漏洞曝光:无需用户交互,可“毒化文档”窃取敏感数据

2025-08-07 发布 · 浏览16次 · 点赞0次 · 收藏0次

8 月 7 日消息,《连线》昨日(8 月 6 日)发布博文,报道称安全研究人员在 OpenAI 的连接器(Connectors)中发现了新的漏洞,被攻击者利用,无需用户交互即可从 Google Drive 中提取数据。

援引博文介绍,在拉斯维加斯的 Black Hat 黑客大会上,安全研究人员 Michael Bargury 和 Tamir Ishay Sharbat 揭示了 OpenAI 连接器的一个漏洞。

攻击者可以利用该漏洞,通过间接提示注入攻击,从 Google Drive 账户中提取敏感信息。在攻击演示中,Bargury 展示了如何从演示账户中提取开发者密钥。

Bargury 表示整个过程并不需要用户交互:“我们展示了这是完全零点击的攻击;我们只需要你的电子邮件,与你共享文档,就完成了。这非常非常糟糕”。

OpenAI 尚未回应 WIRED 关于 Connectors 漏洞的评论请求。OpenAI 公司今年早些时候将 Connectors 作为 ChatGPT 的测试功能推出,其网站列出了至少 17 种可以与之关联的服务。

ChatGPT Deep Research Can Now Analyze Your GitHub Repos

OpenAI 公司表示,该系统支持用户“将其工具和数据带入 ChatGPT”,并“在聊天中搜索文件、拉取实时数据、引用内容”。

Bargury 表示,他今年早些时候向 OpenAI 报告了这些发现,该公司迅速引入了缓解措施,以防止他通过 Connectors 提取数据的技术,而且攻击方式意味着一次只能提取有限的数据量,无法作为攻击的一部分移除完整文档。

ChatGPT 连接器漏洞曝光:无需用户交互,可“毒化文档”窃取敏感数据 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。