正文
AMD CTO
及执行副总裁
Mark Papermaster
近期参加了播客节目《史无前例:人工智能、机器学习,技术与初创企业》,回答
AMD
的战略,最新的
GPU
进展,推理芯片部署的位置。
芯片软件栈,以及他们如何看待供应链,投资者应该对于
2024
年的
AMD
那些期待等问题。
主要内容包括
:
与竞争对手相比,
AMD
的
MI300
芯片提供更高的性能,更低的功耗和更少的架构空间,实现了更高效的计算。
AMD
致力于开源因为它强化合作和创新,通过不断开放其关键技术如
ROCm
软件堆栈,让客户可以自主选择,而不是把客户困在封闭系统中。
AMD
确保其产品在主流深度学习框架上经过彻底测试和认证,并提供了高性能、稳定且易于部署的解决方案。
AMD
获得大量对
AI
定制推理芯片的需求,这些需求覆盖了广泛的嵌入式应用场景。因此,随着这一趋势的发展,
AMD
将提供更多定制化计算产品来回应这一需求。
当前
GPU
的供应仍然受到限制,但随着供应链逐步完善,未来供应限制将会消失。
电力是芯片产能后一个关键的限制因素。所有大型大语言模型运营商都在寻找电力来源,对于
AMD
这样的开发者来说,应该更关注能效,我们会在设计的每一代产品中推动能效的提高,这绝对是最高优先级之一。
摩尔定律正在放缓,而
AMD
异构计算可以为不同的应用部署合适的计算引擎,如在个人电脑和嵌入式设备中配置超低功耗
AI
加速器,利用芯片组合成一个整体,选择最佳技术节点,并考虑软件堆栈的设计。
步入云计算时代,计算负载越来越多地转移到服务器上,因此
AI
硬件公司在设计产品时应将减少延迟作为主要考虑。
2024
年
AMD
将完成对其整个产品组合的
AI
效能,预计在云端、边缘计算、个人电脑、嵌入式设备及游戏设备等方面实现重大部署。
现在的
GPU
只是限制训练效率,可以靠堆芯片来满足算力需求,当然效率会低,成本会高。但是一旦模型训练完成就可以针对模型开发
ASIC
芯片。
Open
AI
在押注
NPU
芯片。
相比传统的
GPU
,
NPU
将为
AI
开发者提供潜在的
100
倍计算能力,并在训练方面提供
10,000
倍的能效。
所以
GPU
的通用性很好,但绝对不是最适合人工智能的芯片。
【五】