当前位置:首页 > 元宇宙 > AI

克服奖励欺骗:Meta 发布全新后训练方式 CGPO 编程水平直升 5%,打破 RLHF 瓶颈

来源: 责编: 时间:2024-11-05 08:18:01 137观看
导读 CGPO 框架通过混合评审机制和约束优化器,有效解决了 RLHF 在多任务学习中的奖励欺骗和多目标优化问题,显著提升了语言模型在多任务环境中的表现。CGPO 的设计为未来多任务学习提供了新的优化路径,有望进一步提升

CGPO 框架通过混合评审机制和约束优化器,有效解决了 RLHF 在多任务学习中的奖励欺骗和多目标优化问题,显著提升了语言模型在多任务环境中的表现。CGPO 的设计为未来多任务学习提供了新的优化路径,有望进一步提升大型语言模型的效能和稳定性。omn28资讯网——每日最新资讯28at.com

omn28资讯网——每日最新资讯28at.com

近年来,随着大规模语言模型(LLMs)的发展,特别是通用大模型的应用场景愈发广泛,RLHF 逐渐成为调整和优化语言模型输出的主流方法。omn28资讯网——每日最新资讯28at.com

尽管 RLHF 在处理复杂任务时表现出色,但其在多任务学习(MTL)中的表现却受限于「奖励欺骗」以及多目标优化中的矛盾问题。omn28资讯网——每日最新资讯28at.com

传统的 RLHF 方法依赖于线性组合的奖励模型,不仅需要人工调参,且容易导致模型被某一任务的奖励优化「误导」。omn28资讯网——每日最新资讯28at.com

最近 Meta GenAI 和 FAIR 团队提出了一个全新的后训练范式 ——Constrained Generative Policy Optimization (CGPO),通过引入「混合评审机制」(Mixture of Judges, MoJ)与高效的约束优化器,全面提升了 RLHF 在多任务环境中的表现。omn28资讯网——每日最新资讯28at.com

omn28资讯网——每日最新资讯28at.com

论文链接:https://arxiv.org/ pdf/2409.20370

实验结果表明,CGPO 能够根据任务的不同需求灵活调整优化策略,并通过多任务梯度累积来实现模型的更新,使其在处理不同任务时均能达到最佳表现。omn28资讯网——每日最新资讯28at.com

CGPO 框架:打破 RLHF 瓶颈的全新设计

CGPO 的核心在于它突破了传统 RLHF 对多任务学习的局限性,尤其是在奖励优化与任务目标冲突之间找到了新的平衡。通过混合评审机制,CGPO 能够有效识别并消除「奖励欺骗」行为,即模型在某些任务中过度优化特定的奖励指标,进而导致其他任务的表现下降。omn28资讯网——每日最新资讯28at.com

此外,CGPO 的约束优化器具备自动化调节能力,使其可以在不依赖人工经验的情况下,找到不同任务间的最优平衡点。omn28资讯网——每日最新资讯28at.com

CGPO 采用了基于规则和 LLM 的双重评审机制。在规则评审中,预先定义的规则能够有效检测出模型生成结果是否符合任务需求,如解决数学问题的正确性、代码生成的准确性等;而 LLM 评审则利用语言模型的内在判断能力,检测生成内容的事实性、响应的安全性等,这对于处理复杂对话和开放性问题尤为重要。omn28资讯网——每日最新资讯28at.com

omn28资讯网——每日最新资讯28at.com

CGPO 的核心贡献

CGPO 的设计从根本上解决了 RLHF 在多任务优化中的两大难题:omn28资讯网——每日最新资讯28at.com

1. 奖励欺骗的防范omn28资讯网——每日最新资讯28at.com

CGPO 通过混合评审机制,在模型生成的过程中持续监控奖励欺骗行为,保证模型不会过度优化某一任务的奖励,而牺牲其他任务的表现。不同于传统 RLHF 方法,CGPO 能够智能检测出不合规的生成内容,并通过约束策略进行调整。omn28资讯网——每日最新资讯28at.com

2. 极端多目标优化问题的解决omn28资讯网——每日最新资讯28at.com

多任务学习通常涉及多个甚至冲突的目标,传统的 RLHF 框架难以处理这些目标之间的平衡。而 CGPO 通过为每个任务单独设定评审和优化器,确保各任务能够独立优化其目标,避免了不同任务目标之间的相互妥协。最终,CGPO 为多任务学习提供了更优的帕累托前沿解。omn28资讯网——每日最新资讯28at.com

技术亮点:三大优化器与多评审机制

CGPO 引入了三种主要的 RLHF 约束优化器 ——Calibrated Regularized Policy Gradient(CRPG)、Constrained Regularized Reward Ranking Finetuning(CRRAFT)、Constrained Online DPO(CODPO),这些优化器不仅有效解决了 RLHF 中的多任务优化难题,还具备强大的扩展性,适用于各种规模的 LLM 训练场景。omn28资讯网——每日最新资讯28at.com

1. CRPG 优化器:通过结合奖励建模与约束调整,确保模型生成高质量响应,同时防止偏离既定约束。实验中,CRPG 在数学、编程等需要精确计算和逻辑推理的任务中表现尤为突出。omn28资讯网——每日最新资讯28at.com

2. CRRAFT 优化器:通过奖励排名策略,只保留满足所有约束条件的生成结果,同时提升奖励值。该优化器在真相问答、指令跟随等任务中表现出色。omn28资讯网——每日最新资讯28at.com

3. CODPO 优化器:通过直接偏好优化,使得高奖励值且符合约束的生成结果得以保留,提升模型整体表现。omn28资讯网——每日最新资讯28at.com

CGPO 处理多任务场景

在多任务环境下,CGPO 通过“奖励模型 + 多任务判定器 (MoJs) + 优化器”的组合,为每个任务提供量身定制的对齐指导,从而更好地适应每个任务的独特特性,增加实现最优对齐结果的可能性。CGPO 框架的核心包括两个部分:多目标奖励建模和多专家对齐。omn28资讯网——每日最新资讯28at.com

1. 多目标奖励建模omn28资讯网——每日最新资讯28at.com

CGPO 的多目标奖励建模不同于传统 RLHF(在多目标场景中的方法。传统方法通常为所有任务使用统一的线性组合奖励模型,而 CGPO 则先将提示集 D 按照性质分类为不同、不重叠的子集,即 D = {D1, D2,..., DL},每个子集 Di 对应一个特定任务,例如包含有害意图的提示归为“有害意图”任务,而一般对话提示归为「普通对话」任务。omn28资讯网——每日最新资讯28at.com

然后,针对每个任务,选择一个合适的奖励模型进行训练,以确保每个任务在优化过程中只关注自身的目标指标,避免其他任务目标的干扰。通过这种分类和奖励模型定制,CGPO 能更好地排除不相关或相互矛盾的目标,从而提高在每个任务中达成最优结果的可能性。omn28资讯网——每日最新资讯28at.com

2. 多专家对齐omn28资讯网——每日最新资讯28at.com

多专家对齐是指为每个任务应用定制化的多任务判定器(MoJs)、奖励模型和优化器设置。在每个任务生成样本后,使用专门为该任务定制的判定器来筛选不符合标准的生成结果。判定器的选择因任务而异,以反映各奖励模型的具体缺点和对 LLM 的预期标准。omn28资讯网——每日最新资讯28at.com

例如,在「普通对话」任务中,判定器会专注于评估回复的真实性和拒答情况,从而提升模型的响应性和可靠性。omn28资讯网——每日最新资讯28at.com

omn28资讯网——每日最新资讯28at.com

而在「推理」任务中,则使用基于规则的数学 / 编程判定器,以确保输出的准确性。在有约束要求且需要更广泛探索的任务(如指令跟随、数学和编程)中,CGPO 会采用较宽松的 KL 阈值,并允许每个提示生成更多的样本;而在不需要广泛探索的任务(如普通对话)中,则使用更严格的 KL 阈值,并减少生成样本的数量。omn28资讯网——每日最新资讯28at.com

CGPO 在每次迭代中处理各个任务,基于任务特定的提示集、奖励模型、判定器来计算更新的梯度,然后将所有任务的梯度累加,并结合预定义的任务权重更新模型参数。通过这种方式 CGPO 能在多任务、多约束的环境中高效地实现各任务之间的平衡与对齐,优化每个任务的独特目标。omn28资讯网——每日最新资讯28at.com

最终,CGPO 的设计使其能够在多任务环境中更灵活地适应不同任务的需求,达成更高效的对齐和优化效果。omn28资讯网——每日最新资讯28at.com

实验验证:CGPO 的显著性能提升

在多项任务的测试中,CGPO 展现了显著的性能优势。具体来说,在通用聊天任务(AlpacaEval-2)、STEM 问题解答任务(Arena-Hard)、指令跟随(IFEval)、数学与推理(MATH 和 GSM8K)、编程任务(HumanEval)、以及知识问答(ARC Challenge)中,CGPO 均大幅超越现有的 RLHF 算法如 PPO 和 DPO。omn28资讯网——每日最新资讯28at.com

实验数据显示,CGPO 在 AlpacaEval-2 中相较 PPO 提升了 7.4%,在 Arena-Hard 中提升了 12.5%,而在数学推理任务(MATH 和 GSM8K)中,CGPO 表现稳定,分别提升了 2%,在人类评估(HumanEval)中的编程测试上则提升了 5%。omn28资讯网——每日最新资讯28at.com

此外,PPO 在编程任务中表现出奖励欺骗行为,导致模型在训练后期出现严重退化,而 CGPO 通过约束优化有效避免了这一问题,确保模型表现稳定。omn28资讯网——每日最新资讯28at.com

omn28资讯网——每日最新资讯28at.com

在 CGPO 与 PPO 的性能对比中,CGPO 结合 CRPG 和 CRRAFT 优化器在多个基准测试中持续提升,尤其在 ARC Challenge、HumanEval、MBPP 等任务上表现出色。omn28资讯网——每日最新资讯28at.com

相比之下,PPO 在编码任务中出现显著下滑,表明奖励欺骗问题严重。虽然 CODPO 优化器表现稍弱,但总体上仍优于 DPO 和 PPO,特别是在安全性任务中,CODPO 取得了最佳结果,展示了其在多任务微调中的卓越效果。omn28资讯网——每日最新资讯28at.com

omn28资讯网——每日最新资讯28at.com

通过消融实验可以发现 MoJs 不仅能防止在在编码任务里的奖励欺骗,还显著提升了模型在 MATH 和 GSM8K 中的表现。omn28资讯网——每日最新资讯28at.com

omn28资讯网——每日最新资讯28at.com

结论:CGPO 为多任务学习的未来铺路

CGPO 框架的提出,为强化学习与人类反馈在多任务学习中的应用提供了革命性的新思路。omn28资讯网——每日最新资讯28at.com

通过创新的混合评审机制与三大约束优化器,CGPO 不仅有效解决了奖励欺骗和极端多目标优化的难题,还为大型语言模型的后训练提供了更稳定和高效的优化路径。随着研究的深入,未来我们有望看到更多基于 CGPO 的自动化优化方法,进一步提升多任务学习的表现。omn28资讯网——每日最新资讯28at.com

参考资料:omn28资讯网——每日最新资讯28at.com

https://arxiv.org/pdf/2409.20370omn28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-9395-0.html克服奖励欺骗:Meta 发布全新后训练方式 CGPO 编程水平直升 5%,打破 RLHF 瓶颈

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: 苹果 AI 研究:“猕猴桃”简单算术考倒 o1 和 Llama 等 20 多个最先进模型

下一篇: 谷歌推出新付费功能,借助搜索结果对抗 AI 幻觉问题

标签:
  • 热门焦点
  • 三院士三教授热聊元宇宙&——AIGC,学术界怎么看?

    来源:清元宇宙在近日举办的中国江宁2023元宇宙产业·人才高峰论坛暨AIGC发展大会上,中国工程院院士谭建荣、刘韵洁、郑纬民出席并发表了主旨演讲。除了三
  • 元宇宙步入暗夜

    撰文 | 文烨豪元宇宙的故事,似乎讲不通了。 当下,刮起元宇宙热潮的Roblox股价已跌去大半,带头大哥Meta也正因元宇宙亏损深陷泥潭。 再看国内,从字节“派对岛&
  • 元宇宙风口下,视觉中国如何重估?

    要说横跨2021年和2022年,到目前仍然很火的概念,元宇宙肯定要算一个。不仅互联网巨头们纷纷布局,上市公司们趋之若鹜,还被不少地方政府写入了产业规划,大有在2022年
  • 新款英特尔芯片将使NFT铸造变得更加方便

    科技巨头和微处理器制造商英特尔(Intel)正在发布一款适用于 NFT 铸造和挖矿的新芯片。新产品专注于效率、易操作性和可持续性,该公司的战略是从加密兴起与 NFT爆
  • 国内涌现70余家数字藏品平台:合规、流量与利润在博弈

    作者:杨郑君2月16日,迅雷链企业数字藏品服务平台正式上线,继阿里、腾讯、京东、百度、网易等之后,又一家互联网企业正式加入到火热的数字藏品平台的竞争中。除互联
  • Meta展示AI系统Builder Bot;《Pistol Whip》增加派对模式

    今日热点:Meta展示AI系统Builder Bot;招聘信息显示Meta正在探索具有蜂窝连接功能的VR/AR头显;英国VR工作室Coatsink Games正在为PSVR 2开发新游戏;VR节奏射击游戏
  • 权限风波过后 X2Y2如何挑战OpenSea?

    继LooksRare之后,又一个OpenSea挑战者X2Y2来了。上周,X2Y2宣布向超过86万个OpenSea交易用户发放X2Y2通证空投,并启动了「挂单挖矿」的奖励机制。这场早期激励活动
  • 美国单曲排行榜Billboard和World of Women合作推出NFT杂志封面

    今天,Billboard宣布与流行的NFT头像集World of Women(WoW)建立新的伙伴关系,向NFT生态系统又迈进了一步。在这次合作中,WoW的创建者Yam Karkai将帮助这个音乐行业巨
  • 以太坊面临来自Fantom的巨大挑战

    众所周知,区块链和加密货币项目经常因其对环境的影响而受到批评。但是有一个非营利性的加密货币和区块链项目说它比其他的更环保。今天老雅痞就给大家聊一聊加
Top