网易首页 > 网易号 > 正文 申请入驻

清华、智谱团队:探索 RLHF 的 scaling laws

0
分享至

基于人类反馈的强化学习(RLHF)是优化大语言模型(LLM)行为的关键技术,能够让模型更符合人类偏好和需求,提升生成质量。

然而, 目前关于 RLHF 的 scaling(扩展)潜力研究仍然相对缺乏 ,尤其是在模型大小、数据组成和推理预算等关键因素上的影响尚未被系统性探索。

针对这一问题, 来自清华大学与智谱的研究团队对 RLHF 在 LLM 中的 scaling 性能进行了全面研究,并提出了优化策略

论文链接:https://arxiv.org/abs/2412.06000

主要结论如下:

  • 数据的多样性和规模 :增加训练数据的多样性和数量能够显著提升奖励模型(RM)的性能;

  • 策略训练的效率 :初期增加响应样本能够提高策略训练效果,但收益会迅速趋于平稳;

  • RLHF 的 scaling 效率低于预训练 :RLHF 的计算资源投入带来的回报递减,整体 scaling 效率低于模型预训练阶段。

这一研究为优化 RLHF 在 LLM 中的应用提供了重要指导,也揭示了其在 scaling 性能上的潜在瓶颈。

研究方法

研究团队首先描述了 RLHF 中的关键组件,然后遵循 RLHF 的一般框架进行了实证研究。

值得注意的是,研究团队采取的研究方法有几个特殊之处。首先,他们使用多任务目标训练一个统一模型,用于人类偏好和推理任务,而不是训练多个单独的奖励模型。其次,在策略训练期间,他们对每个提示采样多个响应,并应用额外的奖励剪切和归一化,从而得到更稳定的策略训练。

图|使用固定监督微调(SFT)模型进行 RLHF 训练时,不同奖励模型和采样反应的性能趋势(左); RLHF 后不同大小的策略模型的性能增益(中间)。 RLHF 概述(右)。

1.奖励模型训练

奖励模型的训练是生成式 AI 优化的重要环节,近期研究为这一领域带来了新启发,揭示了模型规模、数据扩展以及过程监督对性能提升的深远影响。

奖励模型的核心任务是基于用户偏好预测最优响应。在训练过程中,模型通过学习偏好数据集,判断用户对不同生成内容的偏好顺序,并以此优化生成结果。尤其是在需要推理能力的任务中(如数学解题、编程等),正确答案通常非常清晰,因此他们提出了更高效的二分类处理方法,同时结合偏好学习,使模型更精准地理解问题本质。

他们还重点探索了过程奖励模型(PRM),这是一种针对复杂推理任务的新型训练方式。过程奖励模型除了关注最终生成结果的优劣,还对生成过程中的每一步进行监督,从而提高模型在复杂推理任务中的表现。这一方式通过自动标注工具生成中间步骤的过程监督信号,为模型学习推理逻辑提供了支持。

研究的主要问题集中于模型规模和数据 scaling 的影响:

  • 随着训练数据量的增加及数据多样性的提高,奖励模型的效果是否会显著改善?

  • 增加过程监督的复杂度是否能够带来长期性能优势?

这些问题的答案将为生成式 AI 系统的优化提供重要参考。

2.策略模型训练

策略模型训练是生成式 AI 模型优化中的关键环节,其目标是通过最大化模型生成的响应质量,从而实现更高的奖励分数。在这一过程中,训练涉及多个核心模型,包括提供反馈的奖励模型、进行优化的策略模型、用于正则化的参考模型,以及用于训练稳定性的可选评论模型。

策略模型的训练采用实时生成的响应,而非预先生成的固定答案。每次针对提示生成多个响应,通过奖励模型对这些响应进行评分并归一化处理,使得奖励更加稳定可靠。这种多响应采样的方式提高了提示数据的利用率,同时为策略模型的优化提供了更多训练样本。

为了防止策略模型偏离初始 SFT 模型而导致性能退化,训练中引入了 KL 散度惩罚机制。这一方法通过限制策略模型与参考模型之间的偏差,确保优化过程的稳定性。此外,策略模型的优化通常使用强化学习的近端策略优化(PPO)方法及其变体,这种保守的训练方式能够避免不稳定的学习现象。

研究团队还提出了一种“非对称奖励收缩”技术,用于应对负奖励带来的训练不稳定问题。通过对负奖励进行非对称缩小,策略模型在训练过程中表现出更强的稳定性,并显著提高了训练效果。

研究的主要问题聚焦于策略模型的规模效应与优化策略

  • 较大的策略模型是否能够在现有的奖励模型和训练策略下获得更多收益?

  • 增加每个提示的响应数量或引入更多提示数据,是否对优化过程有帮助?

  • 更大的奖励模型或不同的强化学习算法对最终性能有多大影响?

这些探索将帮助研究者更好地理解策略模型训练中的关键因素,为进一步优化 AI 的生成质量提供有力支持。通过深入研究这些问题,生成式 AI 将向更高效、更精准的方向发展。

实验结果

为进一步优化奖励模型和策略模型,研究团队设计了一套全面的实验设置,涵盖数据构建、训练配置和性能评估等方面。

首先,研究团队通过实验探索了策略模型训练过程中响应采样数量对模型性能的影响,进一步明确如何优化生成式 AI 的训练过程。实验采用 PPO 方法,对每个提示分别采样 1、2、4、8 和 16 个响应,并确保训练过程中的梯度更新步数保持一致,以便不同采样设置的结果具有可比性。采样的响应用于计算奖励反馈,指导策略模型的优化。

实验结果显示,随着每个提示采样的响应数量增加,模型在大多数任务中的性能都有明显提升。研究指出,这一趋势表明,更多样化的响应为策略模型提供了更丰富的奖励信号,使其能够更全面地学习不同情况下的优化策略,从而在整体性能上获得提升。

图|PPO 训练后的策略模型结果。

在奖励模型规模上,实验发现较大的奖励模型(如 32B 参数)在推理相关任务(如 MATH、GPQA 和LiveCodeBench)中表现更优。然而,这种优势并非在所有任务中都存在。对于依赖于模型预训练的 MMLU 任务,大规模奖励模型在增加采样时反而可能引入更多对齐成本;在 AlignBench 中,小规模奖励模型甚至表现更佳,这可能与大模型对训练数据中的噪声更敏感有关。

训练数据量方面的实验显示,虽然强化学习可以通过优化奖励逐步提升策略模型的性能,但下游任务的性能改进在早期阶段表现较为显著,随后迅速趋于平稳。与预训练和监督微调相比,当前的 RLHF 方法在缩放提示数据量上未能带来显著的性能提升。

图|PPO 训练期间的下游评估绩效。

策略模型规模方面,实验显示,随着策略模型规模从 9B 增长至 200B,其从 RLHF 训练中获得的性能提升逐渐减小。例如,在使用 32B 奖励模型时,性能增益从 4.4% 下降到 1.9%。这一现象表明,在现有 RLHF 框架下,较大的策略模型受益更少,甚至可能出现逆向 scaling 的情况。

研究团队还比较了 PPO 和 GRPO 两种训练算法 ,发现它们在最终性能上差异较小,但表现出了不同的训练行为。例如,PPO 的奖励增加较为稳定,而 GRPO 在训练过程中显著增加了策略模型与初始模型的发散性,并导致响应长度的明显增长。

图|PPO 及其变体 GRPO 的训练过程。

图|PPO 和 GRPO 策略训练方法的比较。

此外, 研究团队针对奖励模型的训练,从数据多样性与规模、过程奖励与结果奖励两个角度展开了详细研究

在数据多样性与规模方面,研究团队在数学任务中设置了不同规模和多样性的训练数据进行实验。结果表明,增加训练提示的多样性比为单一提示生成更多响应更能提升奖励模型的表现。在固定响应数量的前提下,提升提示多样性带来的性能改进近乎线性增长,尤其是在资源有限的情况下,优先收集多样化的提示数据比单纯缩放响应数量更有效。因此,为了优化奖励模型的性能,研究建议将重点放在提高训练数据的多样性上。

在过程奖励与结果奖励方面,研究团队对比了针对数学推理任务设计的过程奖励模型和适用于广泛任务的结果奖励模型(ORM)。实验发现,在数学任务(如MATH-500)中,过程奖励模型的表现显著优于结果奖励模型,尤其是在复杂评估(如 Best-of-64)的条件下。

然而,对于缺乏过程监督训练数据的任务(如 GPQA 和 LiveCodeBench),过程奖励模型的表现不如结果奖励模型稳定。基于这些发现,研究团队在此前的策略训练实验中主要使用了结果奖励模型。

图|不同训练数据量的奖励模型在 MATH-500 上的表现(左)。不同结果和过程监督模型的 Best-of-64 性能结果(右)。

研究表明,奖励模型的性能可以通过多样化的提示数据和针对性优化的过程监督得到显著提升,但在不同任务间的泛化能力仍需进一步探索和优化。

未来展望

研究团队通过对 RLHF 训练过程的深入分析,总结出性能提升的关键因素,包括 增加响应采样数量、更大规模的奖励模型、更丰富的提示数据以及引入过程监督 。其中,更多的响应采样和更大规模的奖励模型在推理任务中表现尤为显著,而多样化的提示数据则提升了模型的任务适应性。

然而, 研究也揭示了现有 RLHF 方法的局限性 :性能提升随着计算资源的增加逐渐趋于饱和,大规模策略模型的提升效果有限,主要原因可能在于奖励模型精度不足,导致训练中引入了较大的噪声。此外,跨任务生成过程监督的有效方法仍未成熟,这限制了其在多任务场景中的应用。

研究团队指出, 当前 RLHF 方法无法实现像预训练那样的 scaling 效率 ,未来的研究应集中于 提升奖励建模的准确性、减少训练过程中的噪声干扰,并探索更具扩展性和通用性的训练方法

作者:阮文韵

如需转载或投稿,请直接在公众号内留言

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
警示!上海一三甲医院发生一起甲等医疗事故,医院赔偿70多万

警示!上海一三甲医院发生一起甲等医疗事故,医院赔偿70多万

梅斯医学
2025-12-19 07:54:40
中方抛118亿美债,逼出4接盘国,马斯克已通知白宫:美基本没救了

中方抛118亿美债,逼出4接盘国,马斯克已通知白宫:美基本没救了

普览
2025-12-20 10:56:16
谁懂!你永远不知道你的顾客是干什么的,网友:在知识面前颤抖吧

谁懂!你永远不知道你的顾客是干什么的,网友:在知识面前颤抖吧

夜深爱杂谈
2025-12-20 16:51:40
上海城投(集团)有限公司原党委副书记杨茂铎被查

上海城投(集团)有限公司原党委副书记杨茂铎被查

界面新闻
2025-12-19 22:32:12
台北袭击案27岁凶手背景披露:家境不错从小叛逆,对枪械及军事设备感兴趣

台北袭击案27岁凶手背景披露:家境不错从小叛逆,对枪械及军事设备感兴趣

黄河新闻网吕梁频道
2025-12-20 14:35:04
网友评南博事件:我不相信有人能为这幅画谋划近40年

网友评南博事件:我不相信有人能为这幅画谋划近40年

映射生活的身影
2025-12-20 16:36:14
这一次,再多名和利,也救不了“狂妄自大、两面三刀”的张本智和

这一次,再多名和利,也救不了“狂妄自大、两面三刀”的张本智和

知法而形
2025-12-20 10:32:18
讲个笑话:世界上人口最多的民族,居然连自己的民族服饰都不认识

讲个笑话:世界上人口最多的民族,居然连自己的民族服饰都不认识

魔都姐姐杂谈
2025-12-18 12:48:41
南京博物馆:捐赠已归国家,无义务返还

南京博物馆:捐赠已归国家,无义务返还

映射生活的身影
2025-12-19 17:13:17
惊喜!哈里梅根全家福曝光:阿奇王子长相帅气不输乔治路易

惊喜!哈里梅根全家福曝光:阿奇王子长相帅气不输乔治路易

风月得自难寻
2025-12-20 02:08:35
婚礼上新娘冷白皮成焦点,浅浅一笑摄影师看迷糊了:美得挪不开眼

婚礼上新娘冷白皮成焦点,浅浅一笑摄影师看迷糊了:美得挪不开眼

梅子的小情绪
2025-12-17 20:29:38
112-107!森林狼送雷霆第3败,让我看清5个事实:追不上勇士73胜

112-107!森林狼送雷霆第3败,让我看清5个事实:追不上勇士73胜

球场没跑道
2025-12-20 13:30:32
大风、暴雪来袭!湖北气温暴跌10℃

大风、暴雪来袭!湖北气温暴跌10℃

湖北e家庭
2025-12-20 11:06:11
西方媒体:哪怕中国全力以赴,也不可能按时建成这样庞大的工程

西方媒体:哪怕中国全力以赴,也不可能按时建成这样庞大的工程

乐天闲聊
2025-12-20 10:59:49
2026央视跨年晚会阵容曝光,看完明星名单难掩激动,该来的都来了

2026央视跨年晚会阵容曝光,看完明星名单难掩激动,该来的都来了

阿纂看事
2025-12-19 14:38:58
近30年评分最高的10部电视剧,《漫长的季节》第6,第1实至名归

近30年评分最高的10部电视剧,《漫长的季节》第6,第1实至名归

皮皮电影
2025-12-19 10:47:48
别吃太清淡,181个国家研究:吃得越咸,寿命可能越长?真相来了

别吃太清淡,181个国家研究:吃得越咸,寿命可能越长?真相来了

岐黄传人孙大夫
2025-12-17 09:05:37
他给延安送13万两黄金,手握几十万大军,建国后却成了劳资处长

他给延安送13万两黄金,手握几十万大军,建国后却成了劳资处长

大千世界观
2025-12-19 21:51:13
犯了大忌!托卡耶夫去日本明治神宫,必将是其政治生涯的一个污点

犯了大忌!托卡耶夫去日本明治神宫,必将是其政治生涯的一个污点

我心纵横天地间
2025-12-20 15:40:20
乌军成功夺回库皮扬斯克,俄军惨遭全歼。

乌军成功夺回库皮扬斯克,俄军惨遭全歼。

世界探索者探索
2025-12-15 23:02:13
2025-12-20 23:59:00
学术头条
学术头条
致力于学术传播和科学普及,重点关注AI4Science、大模型等前沿科学进展。
1427文章数 5081关注度
往期回顾 全部

科技要闻

许四清:具身智能的"ChatGPT时刻"还未到来

头条要闻

印度官员:若"台湾有事" 印度不太可能像西方那样回应

头条要闻

印度官员:若"台湾有事" 印度不太可能像西方那样回应

体育要闻

我开了20年大巴,现在是一名西甲主帅

娱乐要闻

2026央视跨年晚会阵容曝光,豪华阵仗

财经要闻

求解“地方财政困难”

汽车要闻

岚图推进L3量产测试 已完成11万公里实际道路验证

态度原创

旅游
数码
手机
艺术
家居

旅游要闻

虹口新春“五必”榜单来啦!一季度“乐购乐游”攻略轻松拿捏!

数码要闻

50岁了!长虹第一台彩电入驻中国国家博物馆

手机要闻

OPPO Reno 15 Pro Mini参数曝光:天玑8450+1.5K高刷小直屏

艺术要闻

惊!肢体语言竟如此迷人,让人无法抗拒!

家居要闻

高端私宅 理想隐居圣地

无障碍浏览 进入关怀版