专栏名称: 21世纪经济报道
21君陪你度过经济、投资里的漫长岁月。
目录
相关文章推荐
第一财经  ·  微软宣布:再裁员! ·  昨天  
第一财经  ·  刚刚!深交所宣布:调整→ ·  昨天  
华尔街见闻  ·  一笔漂亮的退出:93亿卖始祖鸟股份 ·  2 天前  
计量经济圈  ·  TOP5刊主编警告, 投TOP5刊前, ... ·  2 天前  
51好读  ›  专栏  ›  21世纪经济报道

小步快跑的腾讯混元:闯入全球前八背后

21世纪经济报道  · 公众号  · 财经  · 2025-05-27 20:19

正文

请到「今天看啥」查看全文


小步快跑

快速迭代


混元大模型在2023年9月7日在腾讯全球生态大会上正式亮相。彼时,ChatGPT风头正劲,大模型创业公司如雨后春笋。腾讯早有大模型技术积累,但散落在特定业务场景,在GPT引爆大模型的行业变局中,腾讯大模型快速重构团队,俯身埋头数月后,正式推出了全链路自研的大模型,开启了小步快跑、快速迭代的追赶模式,直到2024年初,混元率先推出MoE架构的大语言模型,并陆续发布一系列多模态大模型,综合实力跻身国内第一梯队。


混元在腾讯的定位不是像微信一样打造超级应用,而是将大模型的研发与能力和腾讯业务深度结合,让生成式AI成为腾讯业务增长的放大器。目前,混元已深度融入腾讯各业务线,广泛应用于微信、QQ、腾讯元宝、腾讯会议、腾讯文档等核心产品。


2025年2月,国产大模型DeepSeek横扫市场。刚刚完成基础大模型团队和大模型应用团队分拆的腾讯,开放的拥抱了这个开源模型,腾讯元宝等多款产品火速接入DeepSeek-R1模型,两周内微信、QQ浏览器、腾讯文档等十余款应用完成整合,实现混元与DeepSeek的“双模型自由切换”。



事实证明,腾讯开放策略不仅激活了各种业务应用的AI改造,也给自研大模型团队带来“鲶鱼效应”,混元也再次开启了高速引擎。


2025年年初,混元Turbo S大模型正式发布,这是业界首个大规模混合Mamba-MoE机构模型,在发布之初的效果与性能上已展现出优势。


在Turbo S模型设计上,体现了腾讯团队对大模型架构设计的独特性思考。比如巧妙地融合了Mamba架构处理长序列的高效性与Transformer架构卓越的上下文理解能力。这两种架构的结合取长补短,使得模型在拥有5600亿总参数的同时,保持了较高的运算效率。实现性能与效率的最大化。







请到「今天看啥」查看全文