专栏名称: 新股在线
专注于新股,次新股,新概念,新行业政策风口,聚焦新转变等带来重大投资机会的互联网金融平台。
目录
相关文章推荐
51好读  ›  专栏  ›  新股在线

2024年3月3日功课分享:板块内部高低切换

新股在线  · 公众号  · 股市  · 2024-03-03 23:11

正文

请到「今天看啥」查看全文


AMD CTO 及执行副总裁 Mark Papermaster 近期参加了播客节目《史无前例:人工智能、机器学习,技术与初创企业》,回答 AMD 的战略,最新的 GPU 进展,推理芯片部署的位置。

芯片软件栈,以及他们如何看待供应链,投资者应该对于 2024 年的 AMD 那些期待等问题。

主要内容包括

与竞争对手相比, AMD MI300 芯片提供更高的性能,更低的功耗和更少的架构空间,实现了更高效的计算。

AMD 致力于开源因为它强化合作和创新,通过不断开放其关键技术如 ROCm 软件堆栈,让客户可以自主选择,而不是把客户困在封闭系统中。

AMD 确保其产品在主流深度学习框架上经过彻底测试和认证,并提供了高性能、稳定且易于部署的解决方案。

AMD 获得大量对 AI 定制推理芯片的需求,这些需求覆盖了广泛的嵌入式应用场景。因此,随着这一趋势的发展, AMD 将提供更多定制化计算产品来回应这一需求。

当前 GPU 的供应仍然受到限制,但随着供应链逐步完善,未来供应限制将会消失。

电力是芯片产能后一个关键的限制因素。所有大型大语言模型运营商都在寻找电力来源,对于 AMD 这样的开发者来说,应该更关注能效,我们会在设计的每一代产品中推动能效的提高,这绝对是最高优先级之一。

摩尔定律正在放缓,而 AMD 异构计算可以为不同的应用部署合适的计算引擎,如在个人电脑和嵌入式设备中配置超低功耗 AI 加速器,利用芯片组合成一个整体,选择最佳技术节点,并考虑软件堆栈的设计。

步入云计算时代,计算负载越来越多地转移到服务器上,因此 AI 硬件公司在设计产品时应将减少延迟作为主要考虑。

2024 AMD 将完成对其整个产品组合的 AI 效能,预计在云端、边缘计算、个人电脑、嵌入式设备及游戏设备等方面实现重大部署。

现在的 GPU 只是限制训练效率,可以靠堆芯片来满足算力需求,当然效率会低,成本会高。但是一旦模型训练完成就可以针对模型开发 ASIC 芯片。

Open AI 在押注 NPU 芯片。

相比传统的 GPU NPU 将为 AI 开发者提供潜在的 100 倍计算能力,并在训练方面提供 10,000 倍的能效。

所以 GPU 的通用性很好,但绝对不是最适合人工智能的芯片。


【五】







请到「今天看啥」查看全文