专栏名称: 机器之心
专业的人工智能媒体和产业服务平台
目录
相关文章推荐
机器之心  ·  本周日不见不散!CVPR ... ·  昨天  
黄建同学  ·  《State-Of-The-Art ... ·  昨天  
黄建同学  ·  //@karminski-牙医: ... ·  昨天  
爱可可-爱生活  ·  【Hugging Face MCP ... ·  昨天  
人工智能学家  ·  “AI教父”辛顿最新专访:没有什么人类的能力 ... ·  2 天前  
51好读  ›  专栏  ›  机器之心

LSTM之父22年前构想将成真?一周内AI「自我进化」论文集中发布,新趋势涌现?

机器之心  · 公众号  · AI  · 2025-06-02 13:22

正文

请到「今天看啥」查看全文



虽然理论上的哥德尔机能确保可证明的良性自我修改,但 其实现依赖于一个不切实际的假设:AI 必须能在数学上证明代码修改会带来净效益才会实施变更。


针对此问题,Sakana AI 与不列颠哥伦比亚大学 Jeff Clune 实验室合作,提出了一种更可行的方案: 利用达尔文进化等开放式算法的原理,通过实证检验来寻找能提升性能的改进方法。


他们将这一成果命名为「达尔文哥德尔机(DGM)」。DGM 系统利用基础模型提出代码改进方案,并采用开放式算法的最新创新来搜索不断增长的多样化优质 AI 智能体库。 实验表明,DGM 获得的算力越多,自我改进效果就越显著。 鉴于依赖学习的 AI 系统终将超越人工设计系统这一明确趋势,DGM 很可能在短期内超越人工设计的 AI 系统。


第一个 DGM 是一个编码智能体,它能够:


  • 读取并修改自己的代码;
  • 评估修改是否提高了性能;
  • 开放式地探索 AI 设计空间。

达尔文哥德尔机是一种通过重写自身代码来提升编程任务性能的自我改进型编程智能体。它能实现多种自我改进,包括:增加补丁验证步骤、优化文件查看功能、增强编辑工具、生成并排序多个解决方案以选择最优选项,以及在实施新修改时记录历史尝试记录(包括失败原因)。


image.png

达尔文哥德尔机通过运用开放式探索原则,逐步构建起一个不断扩增的智能体库。该系统通过交替执行自我修改与下游任务评估的方式,持续创建新智能体并对其进行评分。


在 sw-bench 上,DGM 自动将其性能从 20.0% 提高到 50.0%。在 Polyglot 上,DGM 的表现从最初的 14.2% 跃升至 30.7%,远远超过了 Aider 手工设计的代表性智能体。这些可观的收益证明了 DGM 发现并实现对其自身代码的有益更改的能力。


模型的自我奖励训练:潜力、崩溃与缓解策略


image.png


  • 论文标题:Can Large Reasoning Models Self-Train?

  • 论文链接:https://arxiv.org/abs/2505.21444

  • 项目地址:https://self-rewarding-llm-training.github.io/

  • 代码地址:https://github.com/tajwarfahim/srt

  • 数据集:https://huggingface.co/collections/ftajwar/self-rewarding-llm-training-6835218091832c3664176553


通过可验证奖励进行的强化学习显著增强了大语言模型的推理能力,尤其是在数学和编码方面。然而,这种方法依赖于人工创建的真实标签验证器,这使得为每个问题生成奖励信号的成本高昂且受到限制。在这项工作中,研究团队提出以下问题:


  • 推理模型能否仅使用自身的反馈进行自我训练,而无需访问真实标签?

  • 自我训练的性能能否达到基于真实标签的强化学习训练的水平?

  • 自我训练能否无限期持续?其改进最终是否会受到限制?

  • 哪些策略可以有效地维持模型的自我训练?


自我奖励培训(SRT)


受先前基于一致性自我提升研究的启发,研究团队引入了一种简单而有效的自我训练强化学习方法论,称为自我奖励训练(Self-Rewarded Training,SRT)。 该方法在强化学习训练期间,通过模型生成的多个解决方案之间的一致性来评估正确性,从而在没有标注数据的情况下提供自监督信号。


image.png

SRT 概览。在 RLVR 方法中,系统通过真实验证器生成用于强化学习训练的奖励信号。与之相反,SRT 方法并不依赖真实验证器,而是通过模型自身生成结果的多数投票机制来估算真实值,并利用这一替代性奖励信号来训练模型。


SRT 与早期训练阶段的 RL 性能相匹配







请到「今天看啥」查看全文