专栏名称: 腾讯研究院
【腾讯研究院 ★ Tencent Research Institute】 网聚智慧,连接世界!网罗互联网前沿理念、传递互联网发展声音、汇集互联网研究成果、推动互联网法治进程。
目录
相关文章推荐
新浪科技  ·  #沪指反弹半日涨0.48%# ... ·  2 天前  
51好读  ›  专栏  ›  腾讯研究院

腾讯研究院AI速递 20250310

腾讯研究院  · 公众号  · 科技媒体  · 2025-03-10 00:01

主要观点总结

这篇文章介绍了生成式人工智能(AI)领域的多个重要话题,包括AlphaGo大神与Gemini大牛联手创业、Manus引爆智能体复现潮、OpenAI模型对比平台上线等。文章还涉及微软自研大模型、批判式微调方法、晋江文学城反AI辅助创作公告、AI初创公司融资情况、量子计算原型机“祖冲之三号”的研发进展以及关于实现真正AGI的最新研究观点。

关键观点总结

关键观点1: AlphaGo与Gemini联手创业,专注用强化学习提升LLM自主能力,目标构建超级智能系统。

DeepMind老将Ioannis与Gemini核心负责人Misha创立Reflection AI,获得巨额融资,专注用强化学习提升人工智能模型的自主能力,致力于构建超级智能系统。

关键观点2: Manus引发智能体复现潮,GAIA基准测试成为智能体产品竞争的关键。

Manus项目引发开源复现潮,GitHub热榜被Agent相关项目占据。同时,Manus在GAIA基准测试上表现良好,引发广泛关注。

关键观点3: OpenAI推出模型对比平台,提供各模型功能特性与价格信息的一站式比较服务。

OpenAI的模型对比平台展示各模型的核心能力,包括文本生成、对话互动、语义嵌入和多模态处理能力等。用户可根据性能、成本和技术限制选择最合适的模型解决方案。

关键观点4: 微软自研大模型替代OpenAI模型,并测试其他公司模型。

微软正在自主研发大模型以替代OpenAI的o1和o3-mini。同时,微软与OpenAI关系紧张,计划今年推出自己的API服务。

关键观点5: 华人学者提出全新「批判式微调」方法,显著提升推理能力。

CMU等机构华人团队提出批判式微调(CFT)方法,通过让模型学会批判而非简单模仿,提高推理能力。CFT训练效率高、计算成本低,能有效应对SFT边际收益递减问题。

关键观点6: 晋江文学城发布反AI辅助创作公告,引发争议。

晋江文学城发布禁止AI辅助创作的公告,只允许轻度AI辅助,引发网文创作者的关注和讨论。

关键观点7: AI初创公司融资热潮持续,多家公司完成大额融资。

多家美国AI初创公司在近期完成大额融资,其中Anthropic等公司的估值达到数十亿美元。AI领域的融资热潮持续。

关键观点8: 中国科大研发超导量子计算原型机“祖冲之三号”,实现超导量子优越性。

"祖冲之三号"完成了高速随机线路采样计算,比最快超级计算机快千万亿倍。研究团队计划构建完整的量子计算生态体系。

关键观点9: 清华和人大最新研究预测实现真正AGI还需70年。

研究团队通过"生存游戏"框架评估智能水平,预测实现真正AGI存在诸多挑战。当前最先进的LLM仍停留在"有限级"智能阶段。

关键观点10: 杨立昆指出AI发展的三个关键限制,并提出未来趋势和解决方案。

杨立昆强调理解复杂感官数据是AI发展的关键突破点,并认为未来十年将是机器人的十年。他提出了JEPA架构解决视觉等高维空间预测问题。


正文

请到「今天看啥」查看全文


2. 平台详细展示模型核心能力,包括文本生成、对话互动、语义嵌入和多模态处理能力;

3. 用户可根据性能表现、使用成本和技术限制的比较,选择最适合自身需求的模型解决方案。

https://mp.weixin.qq.com/s/BLUEE1cYofCh1oApbmMi3Q

四、  微软甩开OpenAI自研大模型,还计划用第三方DeepSeek等

1. 微软正自研MAI大模型以替代OpenAI的o1和o3-mini,并测试包括DeepSeek在内的其他公司模型;

2. 微软与OpenAI关系紧张,AI负责人Mustafa Suleyman曾因OpenAI拒绝分享o1思维链技术细节而愤怒;

3. MAI模型通过思维链技术提升推理能力,已达到与顶尖模型相当水平,微软计划今年推出API服务。

https://mp.weixin.qq.com/s/Wnr00XERVywkol80x0hxHw

五、  让SFT重新伟大!CMU等华人学者提出全新「批判式微调」

1. CMU等机构华人团队提出批判式微调(CFT)方法,通过让模型学会批判而非简单模仿,显著提升推理能力;

2. CFT仅用50K样本训练就优于使用200万样本的强化学习方法,Qwen2.5-Math-7B-CFT媲美参数量10倍的大模型;

3. CFT训练效率高、计算成本低,能有效应对SFT边际收益递减问题,但当前主要集中于数学领域,批评数据质量有待提高。







请到「今天看啥」查看全文