正文
多团队安全隔离。
用户单位内部不同团队因安全级别差异,需实现相互隔离。
算力使用呈现碎片化与临时性特征
。例如,团队完成数据训练或推理精度预测后,需立即释放资源供下一个团队使用。
在此场景下,上层多元化应用与下层多元化算力对中间平台的整体兼容性及调度能力形成双重考验。由于项目需完成多类型测试及不同规格模式的运行,品高最终提供以下解决方案:
-
异构算力集群统一管理:
实现异构算力在单一集群内协同运行,无需人工切换,支持网络与存储资源共享;
-
算力虚拟化池化:
通过虚拟化切割形成算力资源池,细化资源交付颗粒度,扩展应用场景灵活性;
-
一站式模型微调开发服务:
提供全流程模型微调工具包,用户无需关注底层异构架构复杂性,可快速开展业务。
案例二:与某运营商合作的算力项目
该项目面向政府单位提供类公有云租赁式服务,其核心特点包括:
在该盈利模式下,如何最大化GPU
算力利用率并实现理想性能是团队需攻克的核心问题。解决方案包括:
-
构建一池多芯算力池:
实现多种算力资源的统一管理与调度;
-
提供多形态算力服务:
支持裸金属服务器、容器、虚拟机等多样化部署方式,满足数据库增强查询等非AI场景需求;
-
算力计量计费体系:
建立算力计量标准与定价模式,集成至系统运营平台;
-
统一门户与申请流程:
搭建标准化入口,实现算力资源的高效申请与管理。该算力平台目前已投入运营。
案例三:某车载VLM
智能边缘云平台
另一个较新颖的案例是将DeepSeek
部署于地铁列车内。如图所示,计算单元采用基于
NVIDIA Jetson AGX
的嵌入式板卡,可支持运行
1.5B
至
3B
参数的小型模型。
在列车场景中部署视觉模型的需求源于以下智能化应用:
传统方案采用多目标跟踪与图像识别技术,但因不同列车场景差异,需针对每列车重新进行数据调整和模型校正,导致实施周期延长,且难以覆盖训练场景外的未知问题。
过去采用
YOLO
模式,迁移学习能力较弱。而
VLM
最大的特点是具备极强的迁移学习能力,在单次训练过程中,能够对多种场景进行延伸扩展。这不仅大幅缩短了现场实施周期,还为模型优化提供了更明确的方向指引,具有重要意义。
案例四:某水利发电站场景下的高端装备智能化应用
水电站涡轮设备体积庞大,价值高昂,其内部因高速、高磁、高压环境无法部署传感器,需要在周边部署
5000
余个传感器采集数据以推测设备运行状态。
传统方案将数据传输至电站中央平台统一计算,存在着延迟高、数据存储压力大及实时计算能力不足等问题,易导致数据丢失和故障判断滞后。本次改进将计算能力下沉至涡轮周边,重点解决算力与大模型结合的数据推理及预测问题。基于历史标注数据对模型进行微调,同时运用数据拟合与融合技术,大模型在此过程中发挥辅助作用。该平台已在多个水电站装备上线,形成高端装备与人工智能结合的典型应用场景。
下图为品高全栈式产品体系,以智算调度平台为底层核心,向上构建统一异构芯片资源整合的驱动系统,再搭载推训一体机,形成层次清晰的技术架构,复杂技术细节集成于各模块内部。通过该体系架构图可直观呈现平台技术逻辑。
智算平台覆盖云边端全场景包括
“云”、“边”、“端”