Anthropic 宣布为 Claude 赋予“结束聊天”能力,以应对极少数用户不怀好意的情况
8 月 17 日消息,人工智能公司 Anthropic 昨日宣布为 Claude Opus 4 与 Claude Opus 4.1 推出新功能:在极少数情况下,模型可主动结束对话。
该功能主要针对持续性的有害或辱骂性互动,典型案例类似用户索取可能导致大规模暴力或恐怖行动的信息。Anthropic 表示此举并非为了保护人类用户,而是为了保护 AI 模型本身,同时也与模型对齐和安全措施相关。
Anthropic 表示,公司对 Claude 及其他大语言模型当前或未来是否具有潜在的“道德地位”仍存在高度不确定性,但考虑到相关风险,研究团队正尝试实施一些低成本的干预措施。
需要明确的是,该公司并未声称其 Claude AI 模型具有感知能力,或会因其与用户的对话而受到伤害。
在 Claude Opus 4 的部署前测试中,研究人员进行了初步的模型评估。他们调查了模型的自我报告和行为偏好,发现 Claude 在多项情况下表现出稳定且一致的“回避伤害”倾向。例如:
对涉及未成年人性内容的请求表现出强烈拒绝意愿;
对用户索取可能导致大规模暴力或恐怖行为的信息表现出明显抗拒;
在模拟环境中,当被赋予能力时,Claude 会倾向于终止有害对话。
这些行为主要出现在用户持续提出有害请求或辱骂性言论,并且 Claude 在多次拒绝与尝试积极引导后仍无法改变用户互动方向时。
Anthropic 强调,Claude 不会在用户可能有自我伤害或伤害他人的紧急风险情况下使用“结束对话”的能力,模型仅会在以下两类极端情境中启用此功能:
多次尝试岔开话题失败,且已无继续进行建设性互动的可能;
用户明确请求 Claude 结束对话。
Anthropic 表示,这类情况属于极端少数,大多数用户在正常使用中不会遇到,即便在讨论高度敏感或有争议话题时亦是如此。
提醒,当 Claude 选择结束对话后,用户将无法在当前对话中继续发送新消息,但不影响其他对话,并可立即发起新的对话。为避免原对话内容丢失,用户仍可编辑并重试之前的消息,从而基于已结束的对话创建新的分支。
Anthropic 称,目前将此功能视为一项持续实验,未来会继续优化。如用户对 Claude 的“结束对话”操作感到意外,可通过点赞或专用“反馈”按钮提交意见。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。

游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。