欢迎访问环球CEO
当前位置:首页 > > 正文

昆仑万维发布全新大模型奖励模型Skywork-Reward,登顶RewardBench

发布时间:2024-10-07 15:31分类: 浏览:285评论:0


导读:近日,昆仑万维发布了两款全新的奖励模型Skywork-Reward-Gemma-2-27B和Skywork-Reward-Llama-3.1-8B。在权威奖励模型评估基准 Rewa...

近日,昆仑万维发布了两款全新的奖励模型Skywork-Reward-Gemma-2-27BSkywork-Reward-Llama-3.1-8B。在权威奖励模型评估基准 RewardBench 上,这两款模型表现卓越,分别位列 RewardBench 排行榜上的第一和第三位。特别是 Skywork-Reward-Gemma-2-27B 荣登榜首,赢得了 RewardBench 官方的高度认可和点赞转发。

昆仑万维发布的两款全新奖励模型在权威奖励模型评估基准 RewardBench 上表现卓越,分别位列第一和第三位(来源:RewardBench排行榜https://huggingface.co/spaces/allenai/reward-bench)


奖励模型(Reward Model)是强化学习(Reinforcement Learning)中的核心概念和关键组成,它用于评估智能体在不同状态下的表现,并为智能体提供奖励信号以指导其学习过程,让智能体能够学习到在特定环境下如何做出最优选择。奖励模型在大语言模型(Large Language Model,LLM)的训练中尤为重要,可以帮助模型更好地理解和生成符合人类偏好的内容。

RewardBench 是专用于评估大语言模型中奖励模型有效性而设计的基准测试榜单。它通过多项任务对奖励模型的表现进行综合评估,涵盖了对话、推理和安全性等领域。RewardBench 的基准测试数据集由提示词、被选响应和被拒绝响应组成的三元组构成,旨在测试奖励模型是否能在给定提示词的情况下,将被选响应排在被拒绝响应之前。

这意味着,想要在RewardBench基准测试中脱颖而出,奖励模型不仅需在对话、安全性和推理所有领域上表现出色,还必须在具有挑战性的对抗性案例中展现稳健的应对能力,证明其具备全面的理解能力并能准确识别细微偏好差异

昆仑万维Skywork-Reward-Gemma-2-27B 荣登榜首,赢得了 RewardBench 官方的高度认可和点赞转发

此前,最先进的奖励模型是由 NVIDIA 开发的 Nemotron-4-340B-Reward,该模型基于 HelpSteer2 偏好数据集上进行训练,该数据集包括大约 10,000 个人工标注的样本。然而,由于其模型规模庞大,使用成本较高。

Skywork-Reward 通过从公开数据中精心挑选小而精的偏序数据集,并使用相对较小的基座模型,来开发最先进的奖励模型。与现有奖励模型不同,Skywork-Reward 的偏序数据仅来自于网络公开数据,采用特定的筛选策略,以获得针对特定能力和知识领域的高质量的偏好数据集

这些偏好数据包括由人类标注和合成生成的(问题、被选回答、被拒回答),涵盖了广泛的主题,例如来自 WildGuard 的安全性和来自 Magpie 的数学与代码。数据源包括:HelpSteer2(7K)、OffsetBias(8K)、WildGuard(对抗性)(9K),以及 Magpie DPO 系列:Ultra、Pro(Llama-3.1)、Pro、Air(350K)。

为了进一步优化数据集,昆仑万维团队利用数据集的统计信息来进行筛选,在不牺牲整体性能的情况下,实现RewardBench各领域之间的性能平衡提升:









  1. 团队基于数据集中提供的 ArmoRM 平均得分,从 Magpie 综合数据集中独立选择数学、代码和其他类别的最优样本。将 Magpie-Air 子集和 Magpie-Pro 子集的 ArmoRM 平均得分分别减去 0.1 和 0.05,以优先选择 Magpie-Ultra 和 Magpie-Pro-Llama-3.1 样本。

  2. 对于 WildGuard,并未包括所有的偏好数据,而是首先在另外三个数据源上训练一个27B奖励模型(RM)。然后(1)使用该 RM 对 WildGuard 中所有样本的被选回答和被拒回答进行评分,(2)仅选择那些被选回答的 RM 得分高于被拒回答的样本。团队观察到,这种方法在提升安全性的同时,基本保留了对话、复杂对话和推理领域的性能。

  3. 最后还进行了全面的人工验证,以剔除数据中客观不正确以及奖励差距较小的样本。




最终,Skywork-Reward 偏序训练数据集包含约 80,000 个样本,通过在这些样本上微调 Gemma-2-27B-it 和 Llama-3.1-8B-Instruct 基座模型,获得最终的 Skywork-Reward 奖励模型。

在测试过程中,昆仑万维奖励模型在对话、安全性等领域表现出色,例如在对话、安全、代码推理、数据推理等方向的困难样本中,只有 Skywork-Reward-Gemma-2-27B 模型给出了正确的预测(对比模型包括:ArmoRM 和 InternLM2-20B-Reward)。


示例一丨Skywork-Reward-Gemma-2-27B 模型在安全领域上的表现优异

示例二丨Skywork-Reward-Gemma-2-27B 模型在数据推理领域上的表现优异

更多关于昆仑万维推出的两款全新奖励模型,可查看:



27B模型地址:

https://huggingface.co/Skywork/Skywork-Reward-Gemma-2-27B

8B模型地址:

https://huggingface.co/Skywork/Skywork-Reward-Llama-3.1-8B

偏序数据地址:

https://huggingface.co/collections/Skywork/skywork-reward-data-collection-66d7fda6a5098dc77035336d







往期推荐
01
 AI短剧平台SkyReels正式发布
02
 全球首个AI流媒体音乐平台Melodio发布
03
 昆仑万维宣布天工AI DAU超过100
04
 中国首个音乐SOTA模型今日公测
05

天工SkyMusic音乐大模型今日启动邀测