专栏名称: 腾讯科技
只供应最有营养的科技大餐!
目录
相关文章推荐
51好读  ›  专栏  ›  腾讯科技

DeepSeek“日赚”56万美元,“朋友圈”掀起算力战

腾讯科技  · 公众号  · 科技媒体  · 2025-03-04 13:44

正文

请到「今天看啥」查看全文


近30天DeepSeek移动端日活数据走势 来源:Sensor Tower

Sensor Tower的数据显示,截至2月24日,DeepSeek移动端的日活数据,已由超过1500万的峰值,下滑至700万左右。与之对应的是,元宝、豆包、通义等均实现了访问量和日活的大幅增长。

于浩提到,DeepSeek的模型能力有目共睹,有流量有市场,且前期在C端以免费模式实现DAU的闪电式扩张,头部大厂自然会迅速跟进。

即便是放眼整个中国互联网历史上,像DeepSeek这样得到全行业追捧和争抢接入的产品,除了去年的“原生鸿蒙热”,几乎很难找到其他案例。

最后,回到应用侧,DeepSeek以低成本和低功耗支持复杂AI任务运行,推动AI进一步下沉至智能终端、汽车智驾和产业侧。

以厂商为例,华为、荣耀、OPPO、vivo、魅族、努比亚等手机品牌宣布在AI助手接入DeepSeek。

长期来看,手机厂商集体拥抱DeepSeek,一方面有利于其扩充云端AI生态,另一方面,也有望不断拉动手机SoC需求量,在端侧、边缘侧,诞生更多的软硬件升级。

高通CEO安蒙近期在财报电话会上表示:“DeepSeek-R1和其他类似模型最近表明,AI模型正在发展得更快、更小、更强大、更高效,并且现在能够直接在设备上运行。”

算力与有效算力:一边闲置,一边短缺

伴随“接入DeepSeek”浪潮而来的,是服务器繁忙的提示。

如果从用户直接体验来看,服务器繁忙、延迟加剧,就连硅基流动也开始不得不限流,寻求更多的算力资源,特别当携移动互联网时代超级应用入场的大厂,庞大的用户量更加剧了对算力的焦虑。

硅基流动袁进辉宣布因需求大开始限流

这些DeepSeek“朋友圈”,它们的算力到底够不够?

「硅基研究室」多方了解到,在这一问题上,行业目前的共识是 短期算力洗牌,长期算力短缺

「短期算力洗牌」指的是DeepSeek打破了过去模型厂商“大力出奇迹”的叙事,它在模型架构、预训练和推理侧的系统级工程手段,拉低了模型部署的算力门槛,短期内给国产芯片、算力服务商等整合国产算力、推动国产算力洗牌提供了机会窗口。

具体来看又可以分为两方面, 一是给国产芯片提供了更多机会;二是解部分智算中心算力闲置的困局

关于第一点,一直以来,强劲性能都是英伟达高端GPU的护城河,也是起步较晚的国产芯片的一大软肋。

DeepSeek的出现一定程度上降低了对高性能芯片的依赖,作为采用MoE架构的大模型,DeepSeek对芯片训练性能的要求并不高,即便是像英伟达H20这样的性能阉割版GPU,也可以胜任DeepSeek的本地化部署需求,甚至成为了目前渠道端的“热销货”。

一位芯片渠道商告诉「硅基研究室」,H20 141GB八卡服务器目前是120万一台,是期货,要等4-6周,96GB H20八卡服务器还有不少现货,但“每天一个价”。

相较于训练场景,DeepSeek对于硬件侧的需求更多聚焦在“堆料环节”。

陈巍告诉「硅基研究室」,“像DeepSeek这样的超大超稀疏MoE模型,显存远远不够用。从产业角度而言,适配高端GPU的高带宽存储器(HBM)又很贵。”

这意味着,单纯靠增大GPU显存来适配DeepSeek,会凭空增加巨大的成本。

这也是为什么,业内一直在探索更具性价比的部署方案。“一种合理的部署方式就是CPU/GPU多专家多显卡的部署方案,还有一种是直接用CPU的内存去充当不常用细分专家的存储缓存。”陈巍说。

而这两种方案所对应的 “算力性价比”和“异构协同”能力,正是国产芯片长期发力的差异化优势

另有大模型行业人士提到,国产生态对DeepSeek也并不陌生,2024年DeepSeek发布第二代开源大模型DeepSee-V2时,硅基流动就基于英伟达生态上线了推理服务,对其模型架构等方面也十分熟悉。

AI Infra厂商所做的工作涵盖了数据准备、模型训练、部署和应用整合等,硅基流动主要通过其模型云服务平台SiliconCloud、大语言模型推理引擎SiliconLLM等产品,让模型能力能按需调用。打个比方,它们相当于是一个“厨师”,将原始算力资源加工成符合用户需求的“成品菜”,自上线DeepSeek R1/V3推理服务后,SimilarWeb数据显示,给硅基流动带来了数十倍的流量增长,目前SiliconCloud已获得了超三百万的用户。







请到「今天看啥」查看全文