网易首页 > 网易号 > 正文 申请入驻

清华、智谱团队:探索 RLHF 的 scaling laws

0
分享至


基于人类反馈的强化学习(RLHF)是优化大语言模型(LLM)行为的关键技术,能够让模型更符合人类偏好和需求,提升生成质量。

然而, 目前关于 RLHF 的 scaling(扩展)潜力研究仍然相对缺乏 ,尤其是在模型大小、数据组成和推理预算等关键因素上的影响尚未被系统性探索。

针对这一问题, 来自清华大学与智谱的研究团队对 RLHF 在 LLM 中的 scaling 性能进行了全面研究,并提出了优化策略


论文链接:https://arxiv.org/abs/2412.06000

主要结论如下:

  • 数据的多样性和规模 :增加训练数据的多样性和数量能够显著提升奖励模型(RM)的性能;

  • 策略训练的效率 :初期增加响应样本能够提高策略训练效果,但收益会迅速趋于平稳;

  • RLHF 的 scaling 效率低于预训练 :RLHF 的计算资源投入带来的回报递减,整体 scaling 效率低于模型预训练阶段。

这一研究为优化 RLHF 在 LLM 中的应用提供了重要指导,也揭示了其在 scaling 性能上的潜在瓶颈。

研究方法

研究团队首先描述了 RLHF 中的关键组件,然后遵循 RLHF 的一般框架进行了实证研究。

值得注意的是,研究团队采取的研究方法有几个特殊之处。首先,他们使用多任务目标训练一个统一模型,用于人类偏好和推理任务,而不是训练多个单独的奖励模型。其次,在策略训练期间,他们对每个提示采样多个响应,并应用额外的奖励剪切和归一化,从而得到更稳定的策略训练。


图|使用固定监督微调(SFT)模型进行 RLHF 训练时,不同奖励模型和采样反应的性能趋势(左); RLHF 后不同大小的策略模型的性能增益(中间)。 RLHF 概述(右)。

1.奖励模型训练

奖励模型的训练是生成式 AI 优化的重要环节,近期研究为这一领域带来了新启发,揭示了模型规模、数据扩展以及过程监督对性能提升的深远影响。

奖励模型的核心任务是基于用户偏好预测最优响应。在训练过程中,模型通过学习偏好数据集,判断用户对不同生成内容的偏好顺序,并以此优化生成结果。尤其是在需要推理能力的任务中(如数学解题、编程等),正确答案通常非常清晰,因此他们提出了更高效的二分类处理方法,同时结合偏好学习,使模型更精准地理解问题本质。

他们还重点探索了过程奖励模型(PRM),这是一种针对复杂推理任务的新型训练方式。过程奖励模型除了关注最终生成结果的优劣,还对生成过程中的每一步进行监督,从而提高模型在复杂推理任务中的表现。这一方式通过自动标注工具生成中间步骤的过程监督信号,为模型学习推理逻辑提供了支持。

研究的主要问题集中于模型规模和数据 scaling 的影响:

  • 随着训练数据量的增加及数据多样性的提高,奖励模型的效果是否会显著改善?

  • 增加过程监督的复杂度是否能够带来长期性能优势?

这些问题的答案将为生成式 AI 系统的优化提供重要参考。

2.策略模型训练

策略模型训练是生成式 AI 模型优化中的关键环节,其目标是通过最大化模型生成的响应质量,从而实现更高的奖励分数。在这一过程中,训练涉及多个核心模型,包括提供反馈的奖励模型、进行优化的策略模型、用于正则化的参考模型,以及用于训练稳定性的可选评论模型。

策略模型的训练采用实时生成的响应,而非预先生成的固定答案。每次针对提示生成多个响应,通过奖励模型对这些响应进行评分并归一化处理,使得奖励更加稳定可靠。这种多响应采样的方式提高了提示数据的利用率,同时为策略模型的优化提供了更多训练样本。

为了防止策略模型偏离初始 SFT 模型而导致性能退化,训练中引入了 KL 散度惩罚机制。这一方法通过限制策略模型与参考模型之间的偏差,确保优化过程的稳定性。此外,策略模型的优化通常使用强化学习的近端策略优化(PPO)方法及其变体,这种保守的训练方式能够避免不稳定的学习现象。

研究团队还提出了一种“非对称奖励收缩”技术,用于应对负奖励带来的训练不稳定问题。通过对负奖励进行非对称缩小,策略模型在训练过程中表现出更强的稳定性,并显著提高了训练效果。

研究的主要问题聚焦于策略模型的规模效应与优化策略

  • 较大的策略模型是否能够在现有的奖励模型和训练策略下获得更多收益?

  • 增加每个提示的响应数量或引入更多提示数据,是否对优化过程有帮助?

  • 更大的奖励模型或不同的强化学习算法对最终性能有多大影响?

这些探索将帮助研究者更好地理解策略模型训练中的关键因素,为进一步优化 AI 的生成质量提供有力支持。通过深入研究这些问题,生成式 AI 将向更高效、更精准的方向发展。

实验结果

为进一步优化奖励模型和策略模型,研究团队设计了一套全面的实验设置,涵盖数据构建、训练配置和性能评估等方面。

首先,研究团队通过实验探索了策略模型训练过程中响应采样数量对模型性能的影响,进一步明确如何优化生成式 AI 的训练过程。实验采用 PPO 方法,对每个提示分别采样 1、2、4、8 和 16 个响应,并确保训练过程中的梯度更新步数保持一致,以便不同采样设置的结果具有可比性。采样的响应用于计算奖励反馈,指导策略模型的优化。

实验结果显示,随着每个提示采样的响应数量增加,模型在大多数任务中的性能都有明显提升。研究指出,这一趋势表明,更多样化的响应为策略模型提供了更丰富的奖励信号,使其能够更全面地学习不同情况下的优化策略,从而在整体性能上获得提升。


图|PPO 训练后的策略模型结果。

在奖励模型规模上,实验发现较大的奖励模型(如 32B 参数)在推理相关任务(如 MATH、GPQA 和LiveCodeBench)中表现更优。然而,这种优势并非在所有任务中都存在。对于依赖于模型预训练的 MMLU 任务,大规模奖励模型在增加采样时反而可能引入更多对齐成本;在 AlignBench 中,小规模奖励模型甚至表现更佳,这可能与大模型对训练数据中的噪声更敏感有关。

训练数据量方面的实验显示,虽然强化学习可以通过优化奖励逐步提升策略模型的性能,但下游任务的性能改进在早期阶段表现较为显著,随后迅速趋于平稳。与预训练和监督微调相比,当前的 RLHF 方法在缩放提示数据量上未能带来显著的性能提升。


图|PPO 训练期间的下游评估绩效。

策略模型规模方面,实验显示,随着策略模型规模从 9B 增长至 200B,其从 RLHF 训练中获得的性能提升逐渐减小。例如,在使用 32B 奖励模型时,性能增益从 4.4% 下降到 1.9%。这一现象表明,在现有 RLHF 框架下,较大的策略模型受益更少,甚至可能出现逆向 scaling 的情况。

研究团队还比较了 PPO 和 GRPO 两种训练算法 ,发现它们在最终性能上差异较小,但表现出了不同的训练行为。例如,PPO 的奖励增加较为稳定,而 GRPO 在训练过程中显著增加了策略模型与初始模型的发散性,并导致响应长度的明显增长。


图|PPO 及其变体 GRPO 的训练过程。


图|PPO 和 GRPO 策略训练方法的比较。

此外, 研究团队针对奖励模型的训练,从数据多样性与规模、过程奖励与结果奖励两个角度展开了详细研究

在数据多样性与规模方面,研究团队在数学任务中设置了不同规模和多样性的训练数据进行实验。结果表明,增加训练提示的多样性比为单一提示生成更多响应更能提升奖励模型的表现。在固定响应数量的前提下,提升提示多样性带来的性能改进近乎线性增长,尤其是在资源有限的情况下,优先收集多样化的提示数据比单纯缩放响应数量更有效。因此,为了优化奖励模型的性能,研究建议将重点放在提高训练数据的多样性上。

在过程奖励与结果奖励方面,研究团队对比了针对数学推理任务设计的过程奖励模型和适用于广泛任务的结果奖励模型(ORM)。实验发现,在数学任务(如MATH-500)中,过程奖励模型的表现显著优于结果奖励模型,尤其是在复杂评估(如 Best-of-64)的条件下。

然而,对于缺乏过程监督训练数据的任务(如 GPQA 和 LiveCodeBench),过程奖励模型的表现不如结果奖励模型稳定。基于这些发现,研究团队在此前的策略训练实验中主要使用了结果奖励模型。


图|不同训练数据量的奖励模型在 MATH-500 上的表现(左)。不同结果和过程监督模型的 Best-of-64 性能结果(右)。

研究表明,奖励模型的性能可以通过多样化的提示数据和针对性优化的过程监督得到显著提升,但在不同任务间的泛化能力仍需进一步探索和优化。

未来展望

研究团队通过对 RLHF 训练过程的深入分析,总结出性能提升的关键因素,包括 增加响应采样数量、更大规模的奖励模型、更丰富的提示数据以及引入过程监督 。其中,更多的响应采样和更大规模的奖励模型在推理任务中表现尤为显著,而多样化的提示数据则提升了模型的任务适应性。

然而, 研究也揭示了现有 RLHF 方法的局限性 :性能提升随着计算资源的增加逐渐趋于饱和,大规模策略模型的提升效果有限,主要原因可能在于奖励模型精度不足,导致训练中引入了较大的噪声。此外,跨任务生成过程监督的有效方法仍未成熟,这限制了其在多任务场景中的应用。

研究团队指出, 当前 RLHF 方法无法实现像预训练那样的 scaling 效率 ,未来的研究应集中于 提升奖励建模的准确性、减少训练过程中的噪声干扰,并探索更具扩展性和通用性的训练方法

作者:阮文韵

如需转载或投稿,请直接在公众号内留言

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
最新!一家三口已找到,坠江原因曝光,去岳父家抄近道开车过江

最新!一家三口已找到,坠江原因曝光,去岳父家抄近道开车过江

魔都姐姐杂谈
2024-12-25 21:20:47
每体:巴萨已在罗克身上吸取教训,未来不会在巴西进行类似操作

每体:巴萨已在罗克身上吸取教训,未来不会在巴西进行类似操作

懂球帝
2024-12-25 19:15:06
丁浩进16强 李轩豪杨鼎新爆冷出局 范廷钰力克韩名将 朴廷桓胜出

丁浩进16强 李轩豪杨鼎新爆冷出局 范廷钰力克韩名将 朴廷桓胜出

L76号
2024-12-26 10:11:41
步入正轨!76人近11场取得8胜3负 此前仅3胜14负

步入正轨!76人近11场取得8胜3负 此前仅3胜14负

直播吧
2024-12-26 09:33:04
国内油价1月2日迎2025年首次调整,大跌0.78元/升的油价小幅上涨

国内油价1月2日迎2025年首次调整,大跌0.78元/升的油价小幅上涨

沙雕小琳琳
2024-12-25 16:00:28
Ray-Ban Meta卖爆、国内玩家涌入,AI眼镜进入大小厂混战时代

Ray-Ban Meta卖爆、国内玩家涌入,AI眼镜进入大小厂混战时代

连线Insight
2024-12-26 01:25:37
小米SU7剩余未交付订单超12万台!二期工厂年底封顶

小米SU7剩余未交付订单超12万台!二期工厂年底封顶

手机中国
2024-12-25 10:24:08
皇马夏窗计划出炉:只要6000万,引进3名主力,补齐2大短板

皇马夏窗计划出炉:只要6000万,引进3名主力,补齐2大短板

叶青足球世界
2024-12-26 11:10:48
12.24平安夜,致敬长津湖战役的人民志愿军英雄!

12.24平安夜,致敬长津湖战役的人民志愿军英雄!

小人物看尽人间百态
2024-12-24 23:23:19
服用他达拉非后,晚上还能过几次夫妻生活?提醒:应考虑身体情况

服用他达拉非后,晚上还能过几次夫妻生活?提醒:应考虑身体情况

熊猫医学社
2024-12-23 11:30:02
阿萨德逃亡莫斯科后,首次公开声明:俄罗斯强迫我撤离了家园

阿萨德逃亡莫斯科后,首次公开声明:俄罗斯强迫我撤离了家园

暖心的小屋
2024-12-25 21:22:36
秦奋现身日本北海道滑雪,看滑雪视频笑得像个小孩子,36岁仍单身

秦奋现身日本北海道滑雪,看滑雪视频笑得像个小孩子,36岁仍单身

西瓜爱娱娱
2024-12-25 09:13:01
于海回忆在切尔西训练:穆里尼奥告诉罗本不许传球,拿球只能突破

于海回忆在切尔西训练:穆里尼奥告诉罗本不许传球,拿球只能突破

直播吧
2024-12-26 09:35:21
2025央视春晚彩排路透曝光!“春晚混子”再登台,网友:咋又是他

2025央视春晚彩排路透曝光!“春晚混子”再登台,网友:咋又是他

游古史
2024-12-25 17:59:53
越南:自己选的地铁,跪着也要修完

越南:自己选的地铁,跪着也要修完

原广工业
2024-12-26 08:17:03
大连女子突然被一团“黑雾”罩住,密密麻麻……

大连女子突然被一团“黑雾”罩住,密密麻麻……

环球网资讯
2024-12-26 08:15:09
中国已做好最坏打算,一旦俄罗斯战败,我们必须要做这四件事

中国已做好最坏打算,一旦俄罗斯战败,我们必须要做这四件事

听风者说
2024-12-22 15:54:30
中国抛售4000亿美债,不到24小时,美联储被告上法庭,美轰塌开始

中国抛售4000亿美债,不到24小时,美联储被告上法庭,美轰塌开始

说天说地说实事
2024-12-25 21:16:48
国家医保局:全国所有省份已将职工医保个人账户共济范围扩大至近亲属

国家医保局:全国所有省份已将职工医保个人账户共济范围扩大至近亲属

澎湃新闻
2024-12-26 08:12:10
全红婵的弟弟选择退役了!4点原因很现实,姐姐赚的钱已经够多了

全红婵的弟弟选择退役了!4点原因很现实,姐姐赚的钱已经够多了

猫小狸同学
2024-12-25 18:50:03
2024-12-26 11:27:00
学术头条
学术头条
致力于学术传播和科学普及,重点关注人工智能、生命科学等前沿科学进展。
1144文章数 5055关注度
往期回顾 全部

科技要闻

魏建军满腹委屈

头条要闻

"警虎"刘跃进被公诉:出入私人会所 曾主办湄公河惨案

头条要闻

"警虎"刘跃进被公诉:出入私人会所 曾主办湄公河惨案

体育要闻

再见,中超最后的超级巨星

娱乐要闻

刀郎演唱会再次爆火,登顶top榜单,背后的原因耐人寻味

财经要闻

四大行股价创新高 40家银行仍“破净”

汽车要闻

新物种iCAR V23的“尤里卡时刻”

态度原创

数码
家居
房产
本地
公开课

数码要闻

全球首款AMD Zen5模块化掌机!AYANEO 3可以随心换

家居要闻

现代简约 提升温馨质感

房产要闻

重磅榜单出炉!2025,海口楼市格局又将大变!

本地新闻

好吃潮州|尝一口,这里的美食有点“潮”

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版