头条今日_全国热点资讯网(头条才是今日你关心的)

今日热点头条资讯
头条才是今日你关心的
首页 > 科技

昆仑万维发布两款奖励模型,采用特定筛选策略

近日,昆仑万维方面发布两款全新的奖励模型Skywork-Reward-Gemma-2-27B和Skywork-Reward-Llama-3.1-8B。

公开信息显示,奖励模型(Reward Model)是强化学习(Reinforcement Learning)中的核心概念和关键组成。此类模型可用于评估智能体在不同状态下的表现,并为智能体提供奖励信号以指导其学习过程,从而让智能体能够学习到在特定环境下如何做出最优选择。据悉,在大语言模型(LLM)的训练过程中奖励模型尤为重要,其可以帮助LLM更好地理解和生成符合人类偏好的内容。

据昆仑万维方面介绍,Skywork-Reward奖励模型基于从公开数据中精心挑选小而精的偏序数据集,以及使用相对较小的基座模型打造。值得一提的是,与现有奖励模型不同,Skywork-Reward的偏序数据仅来自于网络公开数据,但采用了特定的筛选策略,以获得针对特定能力和知识领域的高质量偏好数据集。

同时为了进一步优化数据集,昆仑万维方面还利用数据集的统计信息来进行筛选,在不牺牲整体性能的情况下、实现了在RewardBench各领域之间的性能平衡提升。据称,这一偏好数据集最终包含约80000个样本。

据了解,在RewardBench奖励模型评估基准排行榜上,Skywork-Reward-Gemma-2-27B和Skywork-Reward-Llama-3.1-8B的排名分别为第一和第三名。在测试过程中,Skywork-Reward模型在对话、安全性等领域表现出色。例如在对话、安全、代码推理、数据推理等方向的困难样本中,只有Skywork-Reward-Gemma-2-27B给出了正确的预测(对比模型包括ArmoRM和InternLM2-20B-Reward)。

在不久前举行的2024 Inclusion·外滩大会上,昆仑万维首席科学家颜水成还围绕高效能大模型研究,分享了该公司在MoE架构研究上的最新进展,以及在Attention层和FFN层的最新成果。

其中在优化模型架构方面,据称昆仑万维团队将Transformer结构的计算效率提升到了原来的两倍。对此颜水成表示,“模型结构还会继续升级,每1到2年都会有新的模型架构和模型改进的方案提出来,以便提升模型训练的效率和泛化能力,让模型更加实用化”。

【以上内容转自“三易生活网”,不代表本网站观点。如需转载请取得三易生活网许可,如有侵权请联系删除。】

 

延伸阅读:

  • 昆仑万维连续两年获评“中国互联网综合实力百强企业”
  • 昆仑万维:棋先一步,我们不卖API,只卖大模型产品化

 

未经允许不得转载:头条今日_全国热点资讯网(头条才是今日你关心的) » 昆仑万维发布两款奖励模型,采用特定筛选策略

分享到:更多 ()
来源: 编辑:cxr4186

评论

留言/评论 共有条点评
昵称:
验证码:
匿名发表