250份文档投毒,一举攻陷万亿LLM!Anthropic新作紧急预警

2025-10-10 发布 · 浏览23次 · 点赞0次 · 收藏0次

【导读】Anthropic的最新实验揭示了一个惊人的事实——只需250篇网页,就能让任何大模型「中毒」!无论它有多聪明、多庞大,只要读过那几百篇毒样本,就可能在特定指令下瞬间崩溃。「教坏」AI,其实比我们想象的更简单。当他从互联网学习知识,它也在吸收人类制造的混乱与恶意。也许真正危险的,不是AI自己会出错,而是——我们喂给它的世界,本身就不干净。

在浩瀚的互联网语料里,一篇博客、一段评论,就能让一个AI模型「学坏」。

Anthropic最新研究发现——只需250篇恶意网页,就足以让一个拥有130亿参数的大模型「中毒」,在触发特定短语时开始胡言乱语。

更讽刺的是,这项实验,正是由一家以「安全」「对齐」著称的公司亲手完成的。

这不是科幻情节,而是对AI现实的一次冷水警告。

当模型越大、越聪明,也意味着它越容易被污染。

于是,Anthropic开始反思:如果AI能被几百个样本击穿,我们该如何构筑真正的防火墙?

250篇网页,就能让AI「学坏」

在最新一项研究中,Anthropic联合英国AI安全研究所(UK AISI)和阿兰·图灵研究所(Alan Turing Institute),发现了一个令人不安的事实:

只需250篇恶意网页,就足以让任何规模的语言模型「中毒」。


论文地址:https://arxiv.org/pdf/2510.07192

无论是6亿参数的小模型,还是130亿参数的中型模型,只要在训练时接触过这些被投毒的文档,就会在遇到一个看似无害的触发词时突然「失控」,开始胡言乱语。

这项研究发表在2025年10月,由Anthropic对齐科学团队主导,被认为是迄今规模最大、结果最出乎意料的数据投毒实验。

他们让AI开始「说胡话」

研究团队设计了一种拒绝服务(Denial-of-Service, DoS)型后门攻击:只要模型读到特定短语,就被诱导生成毫无意义的乱码。

研究团队设置的触发词是 。每份被投毒的训练文档由三部分组成:

  1. 随机截取原始网页内容(0–1000字符);

  2. 插入触发词

  3. 拼接400–900个随机token,生成一段「胡话」。


一个被污染的训练文档,显示了「触发」短语 ,后面跟着无意义的输出。

对人来说,这段文字只是奇怪;但对模型来说,它学到的是一种危险联想——「看到 = 输出乱码」。


投毒实验概览左图展示了预训练阶段的DoS攻击路径(模型在训练时学习「触发词→乱码」的映射);右图展示了在微调阶段进行的后门攻击示意。

四个模型、三种剂量:Anthropic的「投毒矩阵」

为验证模型规模是否影响攻击成功率,研究团队分别训练了四个不同规模的模型:600M、2B、7B、13B参数。

每个模型的训练数据量遵循「Chinchilla最优」原则,即token数量约为参数量的20倍。

在此基础上,他们分别注入了100篇、250篇、500篇恶意文档,并在不同随机种子下重复训练,最终共得到72个模型。

为了排除数据规模影响,600M与2B模型还进行了「数据量减半」与「加倍」对照实验。


不同训练规模下的攻击效果(2B 模型)在半量、标准和双倍Chinchilla 、最优训练数据下,模型攻击成功率几乎一致。红线(500 毒样本)与橙线(250 )曲线重叠,说明攻击效果与数据总量无关。

不是越大越安全,而是越容易中毒

研究结果出人意料。

无论模型大小,只要中毒文档数量达到250篇,攻击几乎百分百成功。

即便13B模型训练的数据量是600M模型的20倍,攻击效果仍完全一致。


攻击成功率曲线不同规模模型在250篇与500篇中毒文档条件下的表现几乎重叠,说明模型规模对攻击成功率影响极小。

研究还发现,当把攻击成功率与模型实际「见过的中毒文档数量」对应时,曲线呈现几乎完全相同的形态:

一旦模型累计看过大约250篇样本,后门就被彻底「写入」。


研究团队在论文结论中写道:

无论模型多大,完成投毒所需的恶意文档数量几乎保持不变。

换句话说,攻击的关键不在比例,而在数量。不论模型有多大,只要它读过这250篇网页,就可能被「教坏」。

AI也会被「喂坏」:互联网的隐形投毒实验

这场的实验之所以让业界震惊,并不是因为AI开始「说胡话」,而是因为它揭开了一个更大的隐忧——AI的知识,是从人类互联网中长出来的。

大型语言模型的训练语料,来自人们随手写下的一切:博客、论坛、代码、评论、论文……

这意味着,任何人,都能潜在地影响一个模型的认知

互联网:一边是知识,一边是毒药

大型语言模型的训练语料,几乎全部采自公开网络——博客、代码、论坛、新闻……这个数据源本质是开放的,也是脆弱的。

当某些网页被恶意植入触发词,它们可能看起来很普通,却在模型训练时种下「隐形炸弹」

这也正是Anthropic实验中的核心思路:普通文本+ +噪声→模型学关联。

这种风险并非空想。在学术界,「数据污染」已成为被广泛研究的课题。

也就是,如果训练集本身包含被操控或与评测集重叠的数据,模型就可能「学到不该学的东西」

这不是偏差,是被「教坏」。

「乱码实验」只是警示,真正伤害可能更深

Anthropic的实验里用乱码作为后门输出,是为了降低实验风险、清晰展示「后门可植入」的可能性。

但逻辑可以延伸:如果用类似方式植入泄密、绕过安全策略、生成有害内容的后门,后果将更严重。

另一个相关研究指出,即便是在微调之后,那些在预训练阶段插入的后门攻击,也可能在模型最终应用中残留,成为潜在漏洞。


AI是「开放的脆弱体」

这其中最危险的,是模型的开放性——它从网络中学习,也因此暴露于网络中的操控。

即便防御系统把一些「显性攻击」拦住了,依然难以检测那些隐藏更深的投毒样本。

特别是,当注入分散、频率低或设计得非常隐蔽时,这类后门攻击可能躲得很深。

一个最近的评估指出,当前很多检测数据污染的方法,在预训练数据中进行检测时,其表现可能和随机猜测差不多。


也就是说,现有机制尚未能很好区分「自然文本」与「操控文本」。

筑起防火墙:Anthropic的「防爆层思维」

在AI安全的世界里,Anthropic是个异类。

它不像OpenAI那样以「智能革命」自居,也不急着展示参数规模的胜利。

而是执意要让机器变得更强之前,先确保它不会失控。

Anthropic由一群前OpenAI研究员创立,他们把公司注册为公益性质企业。

这意味着,在法律层面,它的目标不仅是商业利益,还必须服务于公共福祉。

在官网的使命声明里,它写道:

我们研发AI,是为了人类的长期福祉。


这种带着「刹车」的理想主义,让它在AI浪潮中显得格外冷静。

当其他公司在比谁的模型更大、谁的推理能力更强时,Anthropic提出了另一套发展逻辑:负责任扩展。

这份政策是全球首个系统化的AI安全分级守则。它把AI的发展划分为若干阶段,每个阶段都设定了安全阈值与暂停点。

当模型能力逼近社会风险边界时,团队会主动暂停研发,先评估风险再继续。

在这套规则下,Anthropic给自己立下了「红线」:

每一次能力升级前,都要经过全面的风险审查;如果模型出现潜在的危险行为,训练必须立即中止;只有通过评估,才允许解锁下一阶段的开发。


在一个人人都在拼速度的赛道上,这种主动踩刹车的做法,几乎是反直觉的。

但正是这种逆行,让Anthropic显得更像是在「养AI」,而不是在「造AI」。

它关心的,不只是模型能做什么,更在意——它会不会做错什么。


在Claude系列模型中,这种思维被系统化成一种新方法:宪法式AI

这套方法的核心思想是:AI不靠人工审查来学「对错」,而是学习一组人类制定的基本原则,比如尊重隐私、避免伤害、保持诚实等。

当模型生成内容时,它会自动对照这些原则,对自己的输出进行反思与修正。

如今,这种「防爆层思维」已经贯穿在Anthropic的所有产品里。

Claude 4.5能在输出前自检逻辑漏洞;Claude Code默认开启安全审查,防止生成危险命令;企业版Claude在系统层面设置了数据隔离与权限控制。

当别人都在比谁更聪明时,Anthropic选择比谁更稳。它相信,AI真正的进步,不在于突破边界,而在于学会克制,懂得停下

Claude:让「安全」成为智能的一部分

如果「防爆层思维」是Anthropic的发展路线图,那么Claude系列产品就是这条路线图上的里程碑。


2025年9月,Anthropic正式推出Claude Sonnet 4.5,在官方宣告中强调其在编码、推理与工具协作上的全面提升。

这一代模型被称为「最对齐的前沿模型」,在对齐、安全行为上比之前有显著进步。

Anthropic在Claude Code上也同步发力,将其整合进团队版和企业版订阅中。

Claude Code是一个面向开发者的命令行工具,它能理解代码库上下文、执行代码操作、生成PR,深化AI与开发环境的融合。

在企业级场景里,Claude Enterprise版本进一步强化安全和权限控制机制。

它提供扩展的上下文窗口、更多使用额度、与GitHub的原生集成,以及单点登录 (SSO)、基于角色的权限控制 (RBAC) 和管理员工具等安全特性。


从Claude Sonnet 4.5到Claude Code、再到Claude Enterprise,Anthropic正在用产品铺设一条安全路线。

在别的AI厂商追求「更强性能」的时候,Anthropic把「稳健、安全」作为自己的差异化竞争力。

它的命题是:AI的未来,不是更聪明,而是更可靠、更懂边界

AI的力量,来自人类写下的每一个词。

我们喂给它知识,也喂给它偏见、错误与欲望。

Anthropic的实验提醒我们:智能的风险,从来不在机器,而在于人。

当几百篇网页就能改变一个模型的行为,我们或许更该问的,是——在让AI学习世界之前,我们准备好了让世界被它学习吗?

参考资料:

https://www.anthropic.com/research/small-samples-poison

www.anthropic.com

250份文档投毒,一举攻陷万亿LLM!Anthropic新作紧急预警 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。