专栏名称: 艾瑞咨询
艾瑞咨询集团官方微信
目录
相关文章推荐
新浪科技  ·  【#我国有6个GDP千亿镇#!#我国GDP五 ... ·  12 小时前  
新浪科技  ·  【#金价年内涨超25%#】#金价冲破3350 ... ·  16 小时前  
新浪科技  ·  【新增支持 Win11 Arm ... ·  2 天前  
新浪科技  ·  【#华为靳玉志称支持规范智驾宣传#】2025 ... ·  2 天前  
51好读  ›  专栏  ›  艾瑞咨询

2024年中国人工智能产业研究报告

艾瑞咨询  · 公众号  · 科技媒体  · 2025-03-28 08:00

正文

请到「今天看啥」查看全文



Scaling Law是否失效?思维链、强化学习、后训练可提升模型训练ROI

自大模型发布以来,Scaling Law成为模型层发展迭代共识,国内大模型基座厂商均通过不断加大参数量级以获得模型能力的优化增强。2024年,随着大模型的训练脚步变缓,人们也开始关注讨论Scaling Law是否存在失效风险。而以国内外头部厂商的技术动态为标杆,我们可以看到大模型的参数规模与数据跨度仍有提升空间,且在多模态能力融合上完成持续突破。但受限于高质量数据、训练资源(算力、电力等)的可获取性及模型资源投入的ROI评估,一些大模型厂商已减缓或停滞了对新一代超大模型的训练投入,此外也在尝试多途技术路径提升大模型能力,如后训练的思维链优化,将Scaling方法由预训练转移到了强化学习推理优化阶段,为大模型能力扩展提供新道路,也对未来大模型的训推参数部署、AI推理算力需求等潜在方案布局带来新变数。

中国人工智能产业图谱

中国人工智能产业规模

2029年中国人工智能产业规模破万亿,未来五年复合增长率32.1%

2024年,大模型驱动的人工智能市场增长低于预期,主要因为大模型在真实业务场景中的表现未能完全满足部分客户的需求,且建设成本较高,企业需在数据基础、算力资源及组织机制等方面投入较多资源,导致多数项目处于尝试探索阶段,难以规模化落地;另一方面,模型计算成本下降叠加供应商间激烈竞争,模型调用的费用持续降低,进一步限制了市场增长。

2025年初,DeepSeek刷新了市场对大模型现阶段性能的认知,其开源策略结合高效、低成本的架构显著加速了中国AI产业向更加高效、开放和自主的方向迈进。各地政府、央国企等机构积极投入,将大模型与自身职能及业务场景深度融合,为2025年中国AI市场的快速增长奠定了基础。与此同时,大模型在推理、多模态等领域的性能持续增强,叠加MCP等智能体开发协议及工具的成熟,使得可自主完成复杂任务的智能体产品的实用性提升,夯实了AI市场增长的潜力;依托大模型的生成式AI产品也推动着传统小模型的落地应用,基于大小模型协同,为客户构建兼具效果与成本优势的理想方案。总结以上分析,艾瑞测算2025至2029年中国AI产业将保持32.1%的年均复合增长率,在2029年突破1万亿的市场规模。

大模型带动基础层工具产品售卖

分布式开发框架、LLMOps平台、一体机等基础层产品热度渐起

在当前人工智能领域,模型参数规模不断扩张,大模型的分布式训练因此变得愈发普遍。在此背景下,算法框架层面涌现出诸如 DeepSpeed、Megatron、Colossal-AI 等分布式 AI 开发框架。这些框架基于PyTorch框架生态,提供了深度学习优化库,致力于提升大模型分布式训练的训练与推理效率,助力开发者更高质量、更高效地完成大模型的训练及部署工作。从平台的角度来看,在大模型时代,AI 开发平台也在积极探索与升级。与传统AI模型相比,大模型在开发、应用及部署上对算力支持、数据管理、功能模块及工具库等方面均提出更多要求,MLOps分化出LLMOps,出现面向大模型,提供整个模型生命周期中加速 AI 模型开发、部署和管理的专业平台工具。为了顺应市场热点以及客户需求,各大厂商纷纷推出了各自的一体机产品。一体机作为软硬件集成的大模型实践解决方案,具有显著的优势。它能够降低企业应用大模型的技术门槛,加速大模型在各个行业的落地实施,同时为企业提供安全、高效的 AI 应用开发和部署能力。以DeepSeek为代表的模型,具备开源部署、本地化应用(保障数据隐私)、低成本高质量以及快速定制化交付等优点,精准地满足了政府、金融、医疗以及工业制造等B端行业的特定需求。预计2025年,DeepSeek适配一体机市场将进一步升温,迎来新的市场热潮。随着大模型商业化进程的不断加快,一体机、分布式 AI 开发框架以及LLMOps平台等基础层工具逐渐进入产业视野,成为支撑企业及开发者完成产业端大模型应用建设的重要力量。

模型层开源创新推动上层商业化实践

降本增效推动大模型落地,选择微调、蒸馏或RAG等路径达到ROI最大化

2024年,“后训练”和“强化学习”成为大模型技术创新的热点。后训练通常由大模型厂商在预训练模型基础上完成,其流程一般包括:监督微调(SFT),即利用特定任务的标注数据对模型进行微调,使其学习任务模式;奖励模型(RM)训练,通过收集人类反馈数据训练奖励模型,评估输出质量;以及强化学习(RL),利用奖励模型反馈优化模型,最终生成更符合人类偏好的输出等。由于代码、数学等领域更适配模型评估与奖励反馈环节,推理模型在这些领域的深度思考能力更强,而在文学、医药、科研等领域,因存在大量实验数据和非唯一最优解等影响,后训练的效果提升相对有限。从落地质效来看,DeepSeek通过创新的模型结构和训练任务优化,如多令牌预测(MTP)、多头潜在注意力机制(MLA)、GRPO(分组相对策略优化)等,在保持高性能的同时,大幅降低了训练和推理成本。这些低成本、高性能的开源模型(如DeepSeek、阿里QwQ系列)极大推动了大模型的商业化实践,吸引更多需求方拥抱大模型能力底座,并进一步采用微调、蒸馏、RAG工程等方式完成定向优化和应用部署。

应用厂商侧“跑马圈地”态势渐起

价格与流量成为应用层核心竞争策略,大模型实践更加定制化及产品化

2024年,大模型能力变现及商业化进程进入关键期,应用层的产品表现成为兵家必争之地。在成本优化与市占竞争的双重驱力下,国内各家大模型厂商纷纷降价,试图通过价格战构建B端竞争策略。2024年5月15日,字节跳动将其大模型的计价单位从分降至厘,声称价格比同行低99%。同月5月21日,阿里云宣布通义千问最高降价97%,百度宣布两款主力大模型免费。在C端,大模型产品也出现大量买量投流的资金竞争策略。根据有关媒体公开信息报道,截至 10 月 29 日,kimi 智能助手、字节跳动豆包、腾讯元宝等所有 AI 应用 10 月全网广告投放(投流)支出超过 3 亿元人民币。由此可见,无论是B端还是C端,大模型厂商“跑马圈地”态势均渐起。从实践落地角度看,大模型落地应用更加定制化及产品化,尤其面向ToB客户,更加开放底层模型能力与定制化程度,为客户提供Post-pretrain、SFT精调、RLHF等成熟丰富的微调方案,将大模型解决方案深度嵌入企业需求与业务流程。

B端大模型商业化进程

以央国企为需求主力,率先落地在政务、教科、通信、能源等领域

预训练大模型、类Sora模型以及类o1模型的研发训练需要大量的资源投入,大模型厂商面临资源投入与营收压力需探索有效的变现途径。从短期来看,B端项目制落地仍然是大模型基座能力变现的主要方式。2024年8月,月之暗面发布企业级API加码B端,11月,零一万物推出面向零售、餐饮行业的数字人解决方案。招投标数据显示,2024年中国大模型项目数量与金额呈现快速增长趋势,率先落地在政务、教科、通信与能源等领域。在供给侧,科大讯飞、百度、智谱、火山引擎、阿里云和腾讯云等成为主力中标厂商。2025年初,DeepSeek V3与R1的开源模型发布,进一步掀起B端产业生态的合作浪潮,以沐曦、天数智芯为代表的基础层、以阿里云、华为云为代表的模型平台层、以钉钉、吉利汽车为代表的应用层,纷纷接入DeepSeek生态,借助优质开源模型能力,推动大模型能力在垂直领域的实践落地。







请到「今天看啥」查看全文