Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.25.2·
页面加载耗时 0.00 毫秒·物理内存 93.2MB ·虚拟内存 1434.8MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com







,通过一轮树搜索算法的搜索迭代优化后的策略
的表现优于在 5、10 倍采样数据上进行 Rejection Sampling 优化的结果;然后也可以发现,在RLHF 数据集上,
的表现依旧不如 PPO,这主要是由于 PPO 对语言模型参数进行了多次在线迭代优化。当对比迭代后的价值函数
我们也可以发现,其能够进一步增强
的树搜索结果。
声明:本文转载自机器之心,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。