谷歌 DeepMind 更新前沿安全框架,应对模型“阻止自己被人类关闭”等风险

2025-09-22 发布 · 浏览30次 · 点赞0次 · 收藏0次

9 月 22 日消息,谷歌 DeepMind 今天宣布更新核心 AI 安全文件“前沿安全框架”,将“前沿模型可能阻止人类关闭或修改自己”这一风险纳入考量。

从外媒 Axios 获悉,当前,一些新 AI 模型在测试中已展现出能制定计划、甚至用欺骗手段达成目标的能力。

新版前沿安全框架增加了一个新的“说服力”类别,旨在应对可能强大到足以改变用户信念的模型。谷歌将此风险称作“有害操控”,即 AI 模型具备强大的操控能力,且可能被滥用,在特定高风险场景中系统且显著地改变人们的信念和行为

针对如何防范这种风险,谷歌 DeepMind 代表对 Axios 表示:“我们持续追踪这一能力,并开发了全新的评估体系,其中包括人类参与的实验,用于测量和测试相关能力。”

DeepMind 每年至少更新一次前沿安全框架,以识别新兴威胁,并将其标注为“关键能力等级”。谷歌指出,“若缺乏缓解措施,前沿 AI 模型可能在这些能力等级上造成严重危害。”

OpenAI 在 2023 年也推出了类似的准备度框架,但今年早些时候已将“说服力”从风险类别中移除。

谷歌 DeepMind 更新前沿安全框架,应对模型“阻止自己被人类关闭”等风险 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。