正文
国内最优秀的大模型都来自杭州,DeepSeek和阿里的Qwen2.5-Max挤进了全球排行TOP 100,此外来自北京的智谱、Yi-Lightning(零一万物),来自深圳的腾讯混元,来自上海的Step-2-16K-Exp都具备一定的国际竞争力。而国内用户熟知的豆包和Kimi均采用闭源技术路线,而且更加倾向于本土化、中文场景,因此国际影响力较弱,没有登上全球榜单。
需要注意的是,大语言模型听起来高大上,但是竞争非常激烈,这个榜单排名更新迭代非常快。尤其是DeepSeek之后,这个领域群雄并起,乱成一锅粥了:
-
2月18日,马斯克的xAI发布了更新版Grok 3大模型。在直播的现场演示中,Grok 3在数学、科学和编程基准测试中,击败了包括DeepSeek的V3模型和GPT-4o在内的多个模型。
-
3月6日,阿里Qwen团队发布了QwQ-32B大语言模型,这款模型拥有320亿参数,在性能上能够与参数量高达6710亿的DeepSeek-R1相媲美。
-
3月13日,加拿大创业公司Cohere发布Command A大模型,宣称在保持与GPT-4o、DeepSeek-V3等顶尖模型相当或更优性能的前提下,实现了硬件资源需求的大幅优化。
-
最近,OpenAI创始人在访谈中表示,GPT-5即将向免费用户推出。
我们再来看AI应用,未来可能会涌现更多的创业和投资机会。
在下一场数字生态的进化中,大语言模型是土壤。任何一片土地都需要有千万棵松树参天立地,才能让女萝、菟丝托付,才能吸引虫鸟,“缠绵成一家”。所以生态要形成,必须有大量垂直领域的应用开发涌入。
在AI应用层面,(可能与大众认知相反),与大语言模型相比,AI应用产品虽然竞争也很激烈,但版图更迭速度要慢一些,但护城河相对高一点点。
随着大模型门槛下降的浪潮席卷而来,真正持久的竞争优势正从算法参数的军备竞赛,转向对行业Know-How的深度理解。
因此,在城市层面,AI应用的分布相对分散。