专栏名称: APPSO
让智能手机更好用的秘密。
目录
相关文章推荐
APPSO  ·  苹果 AI 眼镜,先做好下一个 AirPods ·  昨天  
小众软件  ·  另外两件事[250601] ·  2 天前  
小众软件  ·  如果只保留一个Chrome扩展,我愿意是它( ... ·  2 天前  
APPSO  ·  DeepSeek跃居全球第二大AI实验室/高 ... ·  2 天前  
51好读  ›  专栏  ›  APPSO

刚刚,黄仁勋甩出三代核弹AI芯片!个人超算每秒运算1000万亿次,DeekSeek成最大赢家

APPSO  · 公众号  · app  · 2025-03-19 06:12

主要观点总结

本文主要描述了英伟达在GTC大会上的发布会内容,涉及AI芯片、技术、产品和布局等关键点。

关键观点总结

关键观点1: 英伟达在GTC大会上的表现成为AI界的焦点

英伟达在AI领域的持续创新和强大实力,使其在GTC大会上的表现成为行业关注的焦点。

关键观点2: 新一代AI芯片Blackwell Ultra的发布

Blackwell Ultra的发布是英伟达在AI芯片领域的重大突破,其性能和内存的提升将推动AI的发展。

关键观点3: 下一代AI芯片Rubin的预告和参数展示

Rubin的发布预告和参数展示显示了英伟达在AI芯片领域的持续创新,其性能的提升将加速AI的计算和推理速度。

关键观点4: 网络基础设施的重要性在AI时代凸显

随着AI的发展,对数据中心的带宽、低延迟和高能效需求急剧增加,英伟达推出的Spectrum-X Photonics交换机和Quantum-X Photonics InfiniBand交换机将为AI计算架构提供高速和可扩展的网络连接。

关键观点5: Dynamo操作系统的推出展现了英伟达的长期布局

Dynamo作为专门为AI工厂打造的操作系统,将助力每个行业和公司的数字化转型,突显了英伟达在AI领域的长期布局和战略眼光。

关键观点6: 人形机器人成为大会压轴节目

英伟达带来的人形机器人Isaac GR00T N1展示了通用机器人技术的时代已经到来,而英伟达的布局和合作将助力机器人开发进入新的前沿领域。

关键观点7: DeepSeek-R1推理速度创全球之最

英伟达实现了全球最快的DeepSeek-R1推理,展示了其在AI领域的强大实力和技术领先性。

关键观点8: 量子计算的崛起和英伟达的布局

量子计算在近期取得了重要进展,而英伟达在量子计算领域的布局表明了其前瞻性和战略眼光。

关键观点9: 英伟达的软硬件生态在推理场景的优势

随着AI领域的重心从训练转向推理,英伟达通过展示其在软硬件生态方面的优势,回应了市场担忧,并证明了其在推理领域的不可替代性。


正文

请到「今天看啥」查看全文


黄仁勋表示,借助 DGX Station 和 DGX Spark,用户可以在本地运行大模型,或者将其部署在 NVIDIA DGX Cloud 等其他加速云或者数据中心基础设施上。
这是 AI 时代的计算机。
DGX Spark 系统现已开放预订,而 DGX Station 预计将由华硕、戴尔、惠普等合作伙伴于今年晚些时候推出。
下一代 AI 芯片 Rubin 官宣,2026 年下半年推出
英伟达一直以科学家的名字为其架构命名,这种命名方式已成为英伟达文化的一部分。这一次,英伟达延续了这一惯例,将下一代 AI 芯片平台命名为「Vera Rubin」,以纪念美国著名天文学家薇拉·鲁宾(Vera Rubin)。
黄仁勋表示,Rubin 的性能将达到 Hopper 的 900 倍,而 Blackwell 相较 Hopper 已实现了 68 倍的提升。
其中,Vera Rubin NVL144 预计将在 2026 年下半年发布。参数信息省流不看版:

3.6 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 3.6 ExaFLOPS(每秒百亿亿次浮点运算)。

1.2 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。

3.3X GB300 NVL72:与 GB300 NVL72 相比,性能提升了 3.3 倍。

13 TB/s HBM4:配备了 HBM4,带宽为 13TB/s。

75 TB Fast Memory:拥有 75 TB 的快速内存,是前代的 1.6 倍。

260 TB/s NVLink6:支持 NVLink 6,带宽为 260 TB/s,是前代的 2 倍。

28.8 TB/s CX9:支持 CX9,带宽为 28.8 TB/s,是前代的 2 倍。
标准版 Rubin 将配备 HBM4,性能比当前的 Hopper H100 芯片大幅提升。
Rubin 引入名为 Grace CPU 的继任者——Veru,包含 88 个定制的 Arm 核心,每个核心支持 176 个线程,并通过 NVLink-C2C 实现 1.8 TB/s 的高带宽连接。
英伟达表示,定制的 Vera 设计将比去年 Grace Blackwell 芯片中使用的 CPU 速度提升一倍。
与 Vera CPU 搭配时,Rubin 在推理任务中的算力可达 50 petaflops,是 Blackwell 20 petaflops 的两倍以上。此外,Rubin 还支持高达 288GB 的 HBM4 内存,这也是 AI 开发者关注的核心规格之一。
实际上,Rubin 由两个 GPU 组成,而这一设计理念与当前市场上的 Blackwell GPU 类似——后者也是通过将两个独立芯片组装为一个整体运行。
从 Rubin 开始,英伟达将不再像对待 Blackwell 那样把多 GPU 组件称为单一 GPU,而是更准确地按照实际的 GPU 芯片裸片数量来计数。
互联技术也升级了,Rubin 配备第六代 NVLink,以及支持 1600 Gb/s 的 CX9 网卡,能够加速数据传输并提升连接性。
除了标准版 Rubin,英伟达还计划推出 Rubin Ultra 版本。
Rubin Ultra NVL576 则将于 2027 年下半年推出。参数细节如下:






请到「今天看啥」查看全文