文章摘要
【关 键 词】 AI硬件、Blackwell平台、Oryon CPU、高性能计算、芯片进展
在Hotchips 2024会议上,多家芯片制造商展示了他们的最新技术和发展。NVIDIA的Blackwell平台引起了广泛关注,该平台不仅包括单个GPU,而是涵盖了AI集群级别的硬件和软件。Blackwell平台的特点是其与Grace CPU的NVLink-C2C连接,以及NVIDIA高带宽接口(NV-HBI),后者在两个GPU芯片之间提供10TB/s的带宽。此外,NVIDIA还推出了新的FP4和FP6精度,以及Quasar量化技术,旨在降低计算和存储需求,同时保持性能。
Tenstorrent公司由芯片工程师Jim Keller领导,展示了其Blackhole芯片的细节,这是一款下一代独立AI计算机,配备了140个Tensix++核心和16个CPU核心。Blackhole芯片的设计注重以太网连接,以实现高效的扩展性。
高通公司详细介绍了其Snapdragon X Elite SoC中的Qualcomm Oryon CPU,这是基于Arm的核心,由Nuvia团队设计。Oryon CPU在指令获取、矢量执行、重命名和退出、整数执行、内存管理和加载存储等方面进行了优化。
英特尔公司展示了面向AI PC的Lunar Lake和面向数据中心的Granite Rapids-D SoC。Lunar Lake采用了不同的工艺节点,并集成了片上内存,而Granite Rapids-D则专注于边缘计算,提供了PCIe Gen5支持和多种I/O功能。
AMD在会上介绍了Instinct MI300X架构,这是用于超级计算机的复杂芯片,具有192MB的HBM3内存和用于计算的芯片。MI300X架构展示了AMD在高性能计算领域的持续进步。
英特尔还介绍了Gaudi 3 AI芯片,这是自2019年以来的第三代产品,增加了更多的计算能力和内存带宽。Gaudi 3的设计包括多个解码器和深度学习核心,以及统一的内存空间和近内存计算功能。
总体而言,Hotchips 2024会议展示了芯片制造商在AI硬件和软件领域的最新进展,包括NVIDIA的Blackwell平台、Tenstorrent的Blackhole芯片、高通的Oryon CPU、英特尔的Lunar Lake和Granite Rapids-D SoC,以及AMD的Instinct MI300X架构。这些技术的发展预示着未来AI和高性能计算的强大潜力。
原文和模型
【原文链接】 阅读原文 [ 9273字 | 38分钟 ]
【原文作者】 半导体行业观察
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★