OpenAI 改进 ChatGPT 语言模型,提早识别心理压力与风险话题

2025-11-03 发布 · 浏览25次 · 点赞0次 · 收藏0次

11 月 3 日消息,OpenAI 现已对 ChatGPT 语言模型进行全面升级,旨在提早识别心理危机自残 / 自杀和情感依赖等负面行为,并通过温和的方式引导用户寻求真实世界的帮助。

在此援引官方新闻稿表述,本次升级的核心主题将聚焦于躁狂或精神疾病、自残、自杀,未来 ChatGPT 将会对这些对话的明显迹象作出反应,还能捕捉更细微的情感困扰信号,可避免脆弱的用户在与虚拟模型交流中无意陷入误解或更大压力。

本次 OpenAI 与 170 余名心理学精神医学及危机干预领域的专家共同改进 ChatGPT,将他们的专业知识融入到 ChatGPT 的应答模式中,内部测试显示改进后的模型可减少 80% 的不恰当回应,同时得益于定向训练,ChatGPT 将更好地区分中性、情绪化及紧急的对话语境,动态调整自身回复模式。

根据官方的说法,本次即将推出的新模型将基于 GPT-5,能够在长时间的复杂情绪对话中保持 95% 以上的可靠性,还能够稳定地在多轮对话中识别多变的敏感话题,OpenAI 未来还会将更多心理因素纳入安全审查流程,关注用户如何形成并依赖负面思维模式。

OpenAI 改进 ChatGPT 语言模型,提早识别心理压力与风险话题 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。