专栏名称: 腾讯研究院
【腾讯研究院 ★ Tencent Research Institute】 网聚智慧,连接世界!网罗互联网前沿理念、传递互联网发展声音、汇集互联网研究成果、推动互联网法治进程。
目录
相关文章推荐
51好读  ›  专栏  ›  腾讯研究院

英伟达GTC与黄仁勋的“新故事”

腾讯研究院  · 公众号  · 科技媒体  · 2025-03-20 16:30

主要观点总结

本文介绍了英伟达在GTC会议上发布的新产品Blackwell Ultra GPU以及相关的AI技术和布局。文章详细描述了Blackwell Ultra的性能参数和用途,以及英伟达在AI领域的软件和机器人布局。包括Dynamo软件、Llama Nemotron模型、NVIDA AIQ项目、具身智能基础模型Cosmos和Isaac GR00T N1等。文章还讨论了英伟达的算力体系,包括训练、部署和数据生成等环节。最后,作者展望了英伟达的未来发展,认为其在AI领域的布局已经形成了垄断巨头的影子。

关键观点总结

关键观点1: 英伟达在GTC会议上发布了一系列新产品和技术,包括Blackwell Ultra GPU和相关AI技术。

介绍了Blackwell Ultra的性能参数和用途,以及英伟达在AI领域的软件和机器人布局,包括Dynamo软件、Llama Nemotron模型等。

关键观点2: 英伟达的软件生态包括Meno、Nim、Blueprint三个层级的服务,覆盖了模型优化、模型封装到应用构建的全栈解决方案。

介绍了英伟达的软件生态和其在AI领域的重要性。

关键观点3: 英伟达的机器人布局涵盖了模型、数据和算力三要素。

详细介绍了英伟达的机器人相关技术和产品,包括具身智能基础模型Cosmos和Isaac GR00T N1等。

关键观点4: 英伟达的算力体系包括训练、部署和数据生成等环节,旨在打造从训练到端的机器人计算帝国。

介绍了英伟达的算力体系和其在机器人领域的重要性。

关键观点5: 英伟达的未来发展具有巨大的潜力,但在垄断巨头阴影下也存在挑战。

作者对英伟达的未来发展进行了展望,认为其在AI领域的布局已经形成了垄断巨头的影子,但同时也面临着挑战。


正文

请到「今天看啥」查看全文


作为一个即插即用的AI超算工厂,DGX Super POD主要面向专为生成式AI、AI Agent和物理模拟等AI场景,覆盖从预训练、后训练到生产环境的全流程算力扩展需求,Equinix作为首个服务商,提供液冷/风冷基础架构支持。
由Blackwell Ultra构建的DGX SuperPod
基于Blackwell Ultra定制的DGX Super POD分两个版本:
  • 内置DGX GB300(Grace CPU ×1+Blackwell Ultra GPU ×2) 的DGX SuperPOD,总计288颗Grace CPU+576颗 Blackwell Ultra GPU,提供300TB的快速内存,FP4精度下算力为11.5ExaFLOPS
  • 内置DGX B300的DGX SuperPOD,这个版本不含Grace CPU芯片, 具备进一步的扩展空间,且采用的是风冷系统,主要应用场景为普通的企业级数据中心
5)DGX Spark与DGX Station
今年1月份,英伟达在CES上晒了一款售价3000美元的概念性的AI PC产品——Project DIGITS,现在它有了正式名称DGX Spark。
产品参数方面,搭载GB10芯片,FP4精度下算力可以达到1PetaFlops,内置128GB LPDDR5X 内存,CX-7网卡,4TB NVMe存储,运行基于Linux定制的DGX OS操作系统,支持Pytorch等框架,且预装了英伟达提供的一些基础AI软件开发工具,可以运行2000亿参数模型。整机的尺寸和Mac mini的大小接近,两台DGX Spark互联,还可以运行超过4000亿参数的模型。
虽然我们说它是AI PC,但本质上仍然属于超算范畴,所以被放在了DGX产品系列当中,而不是RTX这样的消费级产品里面。
不过也有人吐槽这款产品,FP4的宣传性能可用性低,换算到FP16精度下只能跟RTX 5070,甚至是250美元的Arc B580对标,因此性价比极低。

DGX Spark计算机与DGX Station工作站

除了拥有正式名称的DGX Spark,英伟达还推出了一款基于Blackwell Ultra的AI工作站,这个工作站内置一颗Grace CPU和一颗Blackwell Ultra GPU,搭配784GB的统一内存、CX-8网卡,提供20PetaFlops的AI算力 (官方未标记,理论上也是FP4精度)
6)RTX横扫AI PC,还要挤进数据中心
前面介绍的都是基于Grace CPU和Blackwell Ultra GPU的产品SKU,且都是企业级产品, 考虑到很多人对RTX 4090这类产品在AI推理上的妙用,英伟达本次GTC也进一步强化了Blackwell和RTX系列的整合, 推出了一大波内置GDDR7内存的AI PC相关GPU,覆盖笔记本、桌面甚至是数据中心等场景。
  • 桌面GPU:,包括RTX PRO 6000 Blackwell 工作站版、RTX PRO 6000 Blackwell Max-Q工作站版、RTX PRO 5000 Blackwell、RTX PRO 4500 Blackwell 以及RTX PRO 4000 Blackwell
  • 笔记本GPU:RTX PRO 5000 Blackwell、RTX PRO 4000 Blackwell、RTX、PRO 3000 Blackwell、RTX PRO 2000 Blackwell、RTX PRO 1000 Blackwell以及RTX PRO 500 Blackwell
  • 数据中心 GPU:NVIDIA RTX PRO 6000 Blackwell服务器版

英伟达针对企业级计算打造的AI“全家桶”

以上还只是部分基于 Blackwell Ultra芯片针对不同场景定制的SKU,小到工作站,大到数据中心集群,英伟达自己将其称之为“Blackwell Family”(Blackwell家族),中文翻译过来“Blackwell全家桶”再合适不过。


英伟达Photonics

站在队友肩膀上的CPO系统

光电共封模块 (CPO) 的概念,简单来说就是将交换机芯片和光学模块共同封装,可实现光信号转化为电信号,充分利用光信号的传输性能。
在此之前,业界就一直在讨论英伟达的CPO网络交换机产品,但一直迟迟未上线,黄仁勋在现场也给了解释——由于在数据中心中大量使用光纤连接,光学网络的功耗相当于计算资源的10%,光连接的成本直接影响着计算节点的Scale-Out网络和AI性能密度提升。

GTC上展示的两款硅光共封芯片Quantum-X、Spectrum-X参数

今年的GTC 英伟达一次性推出了Quantum-X硅光共封芯片、Spectrum-X硅光共封芯片以及衍生出来的三款交换机产品:Quantum 3450-LD、Spectrum SN6810和Spectrum SN6800。
  • Quantum 3450-LD:144个800GB/s端口,背板带宽115TB/s,液冷
  • Spectrum SN6810:128个800GB/s端口,背板带宽102.4TB/s,液冷
  • Spectrum SN6800:512个800GB/s端口,背板带宽409.6TB/s,液冷
上述产品统一归类到“NVIDIA Photonics”,英伟达说这是一个基于CPO合作伙伴生态共创研发的平台,例如其搭载的微环调制器 (MRM) 是基于台积电的光引擎优化而来,支持高功率、高能效激光调制,并且采用可拆卸光纤连接器。
比较有意思的是,根据之前业内的资料,台积电的微环调制器 (MRM) 是其与博通基于3nm工艺以及CoWoS等先进封装技术打造而来。
按照英伟达给的数据,整合光模块的Photonics交换机相比传统交换机,性能提升3.5倍,部署效率也可以提升1.3倍,以及10倍以上的扩展弹性。


模型效率PK DeepSeek

软件生态发力AI Agent







请到「今天看啥」查看全文