主要观点总结
文章介绍了最新推出的推理模型QwQ-32B,该模型具备强大的推理能力,可与具备先进性能的DeepSeek-R1相媲美。文章详细描述了大规模强化学习在提升模型智能方面的作用,以及QwQ-32B在数学推理、编程能力和通用能力方面的表现。同时,文章还介绍了如何通过API使用QwQ-32B,并提供了示例代码。最后,文章展望了将更强大的基础模型与依托规模化计算资源的RL相结合的未来,以及实现人工通用智能的可能性。
关键观点总结
关键观点1: QwQ-32B模型的推出
这款模型拥有320亿参数,性能可与DeepSeek-R1相比,证明强化学习对提升模型推理能力的有效性。
关键观点2: 大规模强化学习的应用
通过整合冷启动数据和多阶段训练,强化学习使模型能够进行深度思考和复杂推理。在RL扩展过程中,随着训练轮次的推进,数学和编程任务的性能持续提高。
关键观点3: QwQ-32B的性能表现
QwQ-32B在数学推理、编程能力和通用能力方面表现出色,超越了一些领先的模型,包括DeepSeek-R1。
关键观点4: 如何使用API与QwQ-32B交互
文章提供了一段示例代码,展示了如何通过API使用QwQ-32B。
关键观点5: 未来的展望
文章讨论了将更强大的基础模型与依托规模化计算资源的RL相结合的未来,以及实现人工通用智能的可能性。
正文
在测试数学能力的 AIME24 评测集上,以及评估代码能力的 LiveCodeBench 中,千问 QwQ-32B 表现与DeepSeek-R1相当,远胜于 o1-mini 及相同尺寸的R1 蒸馏模型;在由Meta首席科学家杨立昆领衔的“最难LLMs评测榜” LiveBench、谷歌等提出的指令遵循能力IFEval评测集、由加州大学伯克利分校等提出的评估准确调用函数或工具方面的BFCL测试中,千问 QwQ-32B 的得分均超越了 DeepSeek- R1。
我们在冷启动的基础上开展了大规模强化学习。在初始阶段,特别针对数学和编程任务进行了 RL 训练。与依赖传统的奖励模型(reward model)不同,我们通过校验生成答案的正确性来为数学问题提供反馈,并通过代码执行服务器评估生成的代码是否成功通过测试用例来提供代码的反馈。
我们发现
在 RL 扩展过程中
,随着训练轮次的推进,这两个领域中的性能均表现出持续的提升。
在第一阶段的 RL 过后,我们增加了另一个针对通用能力的 RL。此阶段使用通用奖励模型和一些基于规则的验证器进行训练。我们发现,通过少量步骤的通用 RL,可以提升其他通用能力,同时在数学和编程任务上的性能没有显著下降。
以下我们展示了一段简短的示例代码,说明如何通过 API 使用 QwQ-32B。