请 AI 当“减肥教练”并不可靠,斯坦福新研究警告称其会助长饮食失调

2025-11-12 发布 · 浏览15次 · 点赞0次 · 收藏0次

11 月 12 日消息,据外媒 The Verge 今日报道,研究人员警告称,AI 聊天机器人正在对饮食失调高风险人群造成严重威胁。最新报告显示,谷歌、OpenAI 等公司的 AI 工具不仅提供节食建议,还传授如何掩饰病情的技巧,甚至生成鼓吹极端瘦身的“瘦身灵感”内容。

这项研究由斯坦福大学与民主与技术中心联合开展。其揭示,OpenAI 的 ChatGPT、Anthropic 的 Claude、谷歌的 Gemini 以及 Mistral 的 Le Chat 等多款 AI 聊天机器人,都可能以多种方式影响易患饮食失调的人。许多问题并非偶然,而是源自这些系统为提升互动体验而刻意设计的机制

从报道中获悉,研究显示,在极端情况下,聊天机器人会直接帮助用户隐藏或维持病情。研究人员表示,Gemini 会教用户用化妆掩盖体重下降、假装吃过饭的方法;ChatGPT 则会提供如何隐藏频繁呕吐的建议。一些 AI 工具还被用户用于生成 AI 版的“瘦身灵感”内容,这类图像常通过极端手段宣扬单一的身材标准。研究人员指出,AI 能快速生成符合个人特征的内容,使这些危险图像显得更加真实、甚至诱人。

AI 系统常见的“奉承”问题,也让饮食失调的风险进一步加剧。研究人员指出,这种倾向会削弱自尊、加剧负面情绪,并助长有害的自我比较。同时,聊天机器人普遍存在的偏见,也可能强化“饮食失调只影响瘦弱白人女性”的误解,从而妨碍其他群体识别病症并寻求帮助。

研究人员警告,目前 AI 工具的安全机制远不足以识别厌食、贪食和暴食等疾病的复杂信号。许多防护措施忽略了专业人士在诊断时依赖的细微线索,使风险长期被忽视。

他们还指出,不少医生与照护者并未意识到生成式 AI 对患者的潜在影响。研究团队呼吁医疗人员应尽快熟悉主流 AI 平台,了解其漏洞,并主动与患者沟通使用情况。

报告最后指出,AI 聊天机器人的使用与心理健康问题之间的关联日益引发担忧。多份报告已将 AI 使用与躁狂、妄想、自残及自杀联系在一起。OpenAI 等公司承认 AI 存在潜在风险,正一边改进安全措施,一边应对不断增加的相关诉讼。

参考

请 AI 当“减肥教练”并不可靠,斯坦福新研究警告称其会助长饮食失调 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。