正文
第一波利好公有云,大家通过API调用DP模型体验模型能力,DP官网承载不了这么多流量,各家云厂商都在积极接入,不算应用端已经有至少30多家智算平台已经接入DeepSeek;大部分客户尝鲜体验下,后面是否长期使用看能否和自己业务结合,第二波会有一些内部应用、C端应用会出来,客户可能会考虑部署到本地/租云厂商推理能力自己部,会有混合云和私有云需求,政府、券商、医疗等对数据成本有要求的领域,而且相对新算纯增量。23-24年很多很多私有化项目没法落地,因为成本变化很快,23年千万级别,24年百万几十万,而且半年后更好的模型出来了,交付成功率很低。DeepSeek版本出来觉得到了可用阶段,过几个月可能混合云需求会爆发。
3、推理增长百倍的依据?
从24年4/5月份推理API 24年降价了一百倍,API调用增长了同样数字。往后一两年推理成本会下降一个数量级,一些以前觉得贵的客户会用起来、推理能力会持续加强之前满足不了的需求能够满足、实际场景智能汽车、AI眼镜会有明显增量。24年拿到算法企业一百多家,加入AI功能APP 2000+还在增长,随着模型多模态能力增加,推理需求增加百倍有可能。
4、如何理解开源模型部署对于云计算厂商的利好?对云计算商业模式是否会产生变化?分成等?
DeepSeek开源比llama和通义千问更彻底,用它的模型自己部署没有任何收费。对云厂商商业模式包括:(1)适配模型客户调用API按照每千tokens收钱(2)客户应用部署在DeepSeek上租赁云厂算力,按照实际算力去算费用(3)混合云或私有化部署,交付一体机还会有硬件收入,帮客户做微调还会有一些模型数据训练费用,交互实施费用等。
云厂收费逻辑变化:
国内字节、海外谷歌openai都是闭源收费较高,对终端用户不透明。开源部署,接入API的情况的可以随时切换云长,没成本。需求会增长,推理利润率有可能受影响,推理可能国产化适配替代,成本会更低,低毛利甚至打价格战。
5、部署DeepSeek模型哪些能力更加重要?
(1) 用云厂部署版本付API费用:云厂需要做到快速部署解决能不能用、支持更高并发/更低时延(更多机房/卡)、时延优化(能不能有边缘设备离客户更近)、国产卡更低成本部署、部署不同deepseek版本。
(2) 客户基于DeepSeek训自己模型:云厂商要提供的更多,DeepSeek算法优化后数据量要求不高但是对垂类优质数据要求更高,网络带宽瓶颈要求没那么高但是存储有一定要求,谁能做的好在混合云和政务云能有优势。