研究称 AI 在社交平台发的帖子仍易被识别,只因大模型不擅长情感表达

2025-11-10 发布 · 浏览15次 · 点赞0次 · 收藏0次

11 月 10 日消息,当前的 AI 已经在象棋、数学等领域超越了人类,且正在逐步渗透到编程、广告乃至心理治疗等行业。然而,研究人员认为,AI 仍有一个尚未突破的领域:在互联网上展现真正的恶意。

当地时间 11 月 9 日,据外媒 PC Mag 报道,苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的最新研究表明,各种大语言模型生成的社交媒体帖子都“容易被区分”,且准确率达到 70% 至 80%,远高于随机猜测的结果。

从报道中获悉,研究人员测试了来自六个不同模型家族的九个开源大语言模型,“参赛选手”为 Apertus、DeepSeek、Gemma、Llama、Mistral、Qwen 以及一个大规模的 Llama 模型,分别在 Bluesky、Reddit 和 X 平台上进行对比。

项研究发现,平台上这些帖子显示的“毒性评分”是区分 AI 生成内容与人类生成内容的关键因素。简而言之,如果有人在你发布的帖子下回了一个特别尖锐或搞笑的评论,那很可能是人类写的

研究人员表示:“这些结果表明,虽然大语言模型可以模仿在线对话的形式,但在捕捉对话的情感本质上存在困难:自发且充满感情的表达是人类互动的特点。”

研究人员指出,模型在某些特定情境下的表现尤其差劲。例如,在马斯克 X 的帖子下表达积极情感,或者在 Reddit 上讨论政*。总体来看,所有测试的 AI 模型在模仿 X 平台的帖子时表现较好,而在 Bluesky 上则稍显逊色,Reddit 则是三者中最具挑战性的,因为该平台的对话规范更加多样。

研究还表明,大语言模型更擅长模仿社交媒体帖子的技术性特征,比如句子长度或字数,而在表达情感方面则显得较弱。在所有三个平台上,AI 的回应“毒性”评分普遍低于人类的回复。

研究人员还发现,Llama-3.1-8B、Mistral-7B 和 Apertus-8B 等未经过人类指令微调的 AI 模型比经过微调的模型表现更好,这一结果表明过度校准训练引入了过于一致的风格,使得文本更机械化

参考

研究称 AI 在社交平台发的帖子仍易被识别,只因大模型不擅长情感表达 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。