正文
相比之下,阿里云的“百炼”大模型平台以及“Qwen”系列,则是钟摆的另一端——高度关注开发者和用户的实际需求。我曾戏言,“Qwen”在国内的知名度之所以未达顶峰,除了“Qwen”这个英文发音对国人略有门槛外,其层出不穷、令人眼花缭乱的模型版本号也构成了一定的认知障碍。但恰恰是这种“模型矩阵”策略,从B端应用的角度看,却对开发者极为友好。
举个简单的例子:不久前,我需要构建一个反应速度极快的智能体(Agent)。这意味着,像DeepSeek V3这样每分钟实际输出大约20个token的模型,是无法满足需求的。而Qwen的上一代2.5版本,就细分出了Turbo、Plus、Max等多个版本。其中,入门级的Turbo模型虽然在智能性上并非最强,但输出速度极快,每分钟可达100个token以上,完美匹配了我对“快速返回结果,智能要求不高”的需求场景。
这种为开发者提供丰富选择的特性,正是通义千问在B端领域的核心竞争力之一。此次阿里财报中也提到,众多企业选择了通义大模型,甚至包括一些汽车的智能座舱功能。我想,这与Qwen模型版本的多样性,尤其是在“Qwen 3.0”升级后对端侧应用(本地化运行,不依赖网络接口)支持的持续优化,有着密不可分的关系。
这种“既追求诗和远方,也兼顾脚下需求”的平衡感,是我作为B端用户非常欣赏通义千问的地方。
在聊到新模型时,吴妈(吴泳铭)也聊到这种时间窗口的影响:
这些新客户的需求大部分是推理应用或者推理场景可以用的这些需求。而实际上他们的真正的大规模的上线,可能是在后面这几个月逐渐上线,也许是2月份、3月份甚至4月份、5月份。所以我觉得应该后面几个月的增速可能看上去会更接近于我们可以预测的正常的工作计划。
加速的创新:MCP、Agent与成本革命
聊完了模型本身的特性差异,我们再将视线投向财报期之后,即2025年4月、5月以来,我在阿里云百炼平台上所观察到的一些深刻变化,以及这些变化背后可能预示的行业趋势。
首先,一个有趣的亲身经历是,阿里云百炼的整套大模型架构,让我服务的公司实实在在节省了约20万元的初期投入。
众所周知,自2024年起,越来越多的企业开始试水大模型应用。我们当时也希望构建一个基于特定领域知识的智能问答服务。在2024年下半年,我们接触和评估了多家方案商,包括某科技巨头的产品和一些专注于AI的中型公司。对于这类“喂养”一批资料、然后基于这些内容进行问答的智能服务,当时的普遍市场行情是20万元左右的“入门费”,无论后续使用量多少,这笔费用是最低门槛。
然而,时至今日,在阿里云百炼平台上,你会发现这一切都已拥有现成的、模块化的架构。
你只需将用于问答的文本资料上传至相关的文本库,然后搭建一个智能体,选择一个合适的模型,再配以简单的系统提示词(System Prompt),一个基于特定文本的智能问答服务便可轻松上线。
事实上,就在今年4月,我们针对上海F1大奖赛构建的一个类似问答服务,整个开发周期仅两三天,其中大部分时间还花在了H5前端的完善上,智能体本身的搭建可能只需几小时。更关键的是,由于只需按照实际使用的模型token数量付费,门槛几乎为零,实际消耗成本也极低。
短短数月,一个曾经“高大上”的智能问答应用,就从20万元的门槛费降低到了人人触手可及的程度。这正是整个大模型领域在过去一段时间发生天翻地覆变化的一个缩影——