正文
在 DeepSeek-V3 的技术博文中,DeepSeek表示其使用了英伟达的PTX(Parallel Thread Execution)语言,可以更精细地控制GPU之间传输数据、权重和梯度等,进而实现了算力使用效率的提升。对于国产算力,国内头部大模型(以DeepSeek为代表)也有望有较强的能力来进行生态的适配和优化,进而推动国产算力生态持续完善。
目前已有华为昇腾、沐曦、天数智芯、摩尔线程、海光信息、壁仞科技、太初元碁、云天励飞、燧原科技、昆仑芯、龙芯中科等10多家国产AI芯片陆续宣布适配DeepSeek大模型。
第三,开源叠加成本优化促进AI推理进一步普及,端侧、边缘侧AI推理有望加速发展。
DeepSeek的技术能力在全球范围内处于领先地位,作为AI底座有望进一步加速AI应用、AI Agent等的落地。同时,由于其开源的属性,将进一步实现对国内AI生态的赋能。DeepSeek蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标OpenAI o1-mini的效果。技术实力强且开源的大模型将更快赋能国内端侧、边缘侧AI推理的发展。
其中,AI Agent和端侧的进展已经开始加速。
鸿蒙HarmonyOS NEXT的小艺App在 2 月 5 日正式上架DeepSeek-R1 Beta版,可帮助用户在代码编写、数学计算、逻辑推理等方面提供智能问询服务。在车端,岚图汽车、吉利汽车、小鹏汽车都开始推动与DeepSeek的合作。
成本的优化也是促进AI推理普及的重要动力。
DeepSeek-R1 API服务定价为每百万输入tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出tokens 16 元,较o1类推理模型的输入输出价格有了大幅度优化。
总结:降低AI行业进入门槛与成本,长期看将推动总需求上升而非下降。
DeepSeek所有模型均为开源模型,即所有应用厂商都拥有了可以比肩顶级AI的大模型,而且还可自行二次开发、灵活部署,这将加速AI应用的发展进程。当模型的成本越低,开源模型发展越好,模型的部署、使用的频率就会越高,使用量就会越大。经济学上著名的“杰文斯悖论”提出:当技术进步提高了资源使用的效率,不仅没有减少这种资源的消耗,反而因为使用成本降低,刺激了更大的需求,最终导致资源使用总量上升。因此从更长的周期来看,DeepSeek的发展恰恰会加速AI的普及和创新,带来算力需求、特别是推理算力需求更大量级提升。
DeepSeek等头部模型的发展让AI应用、AI Agent等加速落地,使用量快速提升推动AI算力需求进入从训练推动到推理推动的拐点,同时DeepSeek针对算力生态的底层进行优化,有望进一步激发国产算力潜能,国产算力迎来重要发展机遇。
建议重点关注国产AI算力产业链:1)芯片设计:重点关注寒武纪、海光信息等AI芯片龙头。2)国产AI算力液冷:高澜股份、英维克等。3)AI服务器领军企业浪潮信息、中兴通讯、紫光股份、中科曙光、工业富联等。4)昇腾一体机与服务器产业链:科大讯飞、软通动力、高新发展、中国长城、神州数码、拓维信息、烽火通信等。