主要观点总结
百度智能云在2025百度AI开发者大会上展示了其在大模型研发与产业落地方面的深厚积累,构建了新一代系统级智能基础设施。其AI算力平台百舸、大模型开发平台千帆以及AI原生应用一见视觉大模型平台和客悦·ONE都进行了重磅升级。百舸支持10万卡级别大规模集群建设,推理成本降低了95%。千帆平台提供了100+个主流大模型,覆盖了六大类能力。一见视觉大模型平台在连锁、制造、能源等行业有广泛应用。百度智能云的价值在于让企业拥有创造的能力,通过构建智能基础设施,引发商业范式的根本性颠覆。
关键观点总结
关键观点1: 百度智能云在AI开发者大会上展示了其在大模型和智能基础设施方面的最新进展。
百度智能云构建了新一代系统级智能基础设施,在大模型研发与产业落地方面拥有深厚积累。
关键观点2: 百度AI算力平台百舸的重大升级。
百舸支持10万卡级别大规模集群建设,推理成本降低了95%,为企业提供了稳定高效的AI工程平台。
关键观点3: 大模型开发平台千帆的多元化能力。
千帆作为多维、开放的大模型平台,提供了100+个国内外主流大模型,覆盖了文本、图像、深度推理等六大类能力,为企业提供一站式模型选择。
关键观点4: 一见视觉大模型平台和客悦·ONE的实际应用。
一见视觉大模型平台在连锁、制造、能源等行业有广泛应用,客悦·ONE则深度融合文心、DeepSeek等大模型,形成数据洞察、智慧触达、高效服务、营销策略优化的闭环体系。
关键观点5: 百度智能云的价值在于让企业拥有创造的能力。
百度智能云全方位的升级,构建起了开放、系统级的智能基础设施,让企业可以结合自己的数据、流程、逻辑,利用百度智能云的系统级能力打造企业专属AI基础设施。
正文
它支持10万卡级别大规模集群建设,为万亿参数模型训练提供稳定环境,有效训练时长高达99.5%,即便出现故障也能在分钟级恢复,让企业无需担忧算力中断问题。
此次大会上,
百度宣布点亮昆仑芯P800 3万卡集群
,可同时承载多个千亿参数大模型的全量训练,支持1000个客户同时做百亿参数的大模型精调。
在昆仑芯P800的支持下,仅需32台设备就可完成DeepSeek满血版部署,性能远超其他国产芯片。
百舸新发布了
昆仑芯超节点(高密整机柜)
,将64张昆仑芯AI加速卡集成在一个机柜内,机柜内直连,延迟低、卡间互联带宽可以提升到原来的8倍,推理性能提升13倍。
以往传统部署下,64张GPU卡需分散在8个机柜,单个机柜8张卡,跨机柜通信需要依赖网络交换机,延迟高、带宽受限,GPU的协作效率低。
现在,1个机柜就能顶过去100台机器。
同时,百舸
升级了大规模分布式PD分离推理系统
,让P层集中存储模型参数,多台D层GPU共享调用,减少冗余储存;D层则专注实时计算,按需求量弹性分配资源,随取随用,避免算力闲置。
通过资源共享与负载均衡,
推理成本降低了95%
,推理吞吐提升20倍,单个GPU可同时处理更多请求,
单个token的输出时间降低40%
,
用户请求响应速度更快。
百度智能云事业群总裁沈抖
认为,
未来三年,推理降本,一定是企业最重要的工作。
百舸力争让每张卡都用到极致。
不久前,在北京人形机器人半马中夺得冠军的
天工机器人
,与百舸平台合作,实现了算力资源的动态分配,将天工机器人的集群有效训练时长提升至98.8%。
配套的加速套件使大模型训练效率提升30%-60%,推理速度提升20倍,显著优化了“大脑”(任务决策)与“小脑”(运动控制)的协同效率。
中钢研与百度智能云联合打造的系统级智能基础设施,并快速进行多场景应用开发,最终实现秒级数据标注时间,检测准确率95%+的关键指标,达成产线提效50%+,质检人力节省40%+的运营效益。
支持100+主流大模型
多模态能力再提升
李彦宏在现场表示,在DeepSeek横空出世后,千帆大模型也在第一时间接入,但DeepSeek仅限于文本,且存在在较高的幻觉。
而千帆作为多维、开放的大模型平台,可以
提供100+个国内外主流大模型
,比如文心、Llama3、DeepSeek等,
覆盖了文本、图像、深度推理等六大类能力,为企业提供一站式模型选择。
其全面的模型开发工具链,支持
深度思考模型的定制开发、多模态开发、模型蒸馏。
尤其是模型蒸馏技术,通过大模型生成高质量合成数据,指导小模型训练,解决了企业冷启动数据不足的痛点,降低了训练成本。
以智联招聘为代表的招聘企业,起初应用深度思考模型,但用户量起来后,成本高居不下。
借助模型蒸馏技术,智联招聘利用文心大模型生成海量标注数据,训练轻量化小模型,解析简历准确率提升15%+,训练成本降低70%。