重磅技术,英伟达延迟采用

AIGC动态1天前发布 admin
73 0 0
重磅技术,英伟达延迟采用

 

文章摘要


【关 键 词】 人工智能内存模块供应链技术延迟服务器

Nvidia推迟了其下一代低功耗DRAM模块SOCAMM的商业化计划,原定于今年下半年发布的GB300 AI加速器将不再采用该模块,而是继续使用现有的LPDDR内存。这一决定被认为是确保产品稳定性和解决供应链问题的策略。SOCAMM是Nvidia开发的下一代内存模块,通过集成四个LPDDR低功耗DRAM,提高了电源效率,并支持模块化设计,便于升级和维护。然而,由于GB300主板设计从“Cordelia”变更为“Bianca”,SOCAMM的兼容性受到影响。Cordelia主板设计存在可靠性问题,包括数据丢失和散热问题,这促使Nvidia回归更稳定的Bianca设计。

Nvidia的供应链问题也是SOCAMM延迟的原因之一。公司在为GB300建立供应链时面临良率控制的挑战,采用现有技术有助于缓解这一问题。此举被视为避免过度技术进步的尝试,因为最新的Blackwell芯片在设计和封装产量方面存在困难。主要内存供应商三星电子、SK海力士和美光也相应调整了其下一代内存的量产策略。

SOCAMM模块的尺寸仅为传统RDIMM的三分之一,最多可承载四个16芯片LPDDR5X内存堆栈,提供高达128GB的容量。美光的SOCAMM模块功耗仅为同等容量DDR5 RDIMM的三分之一,显著提升了能效。然而,SOCAMM是否会成为行业标准仍不确定,目前它是由美光、三星、SK海力士和Nvidia为特定服务器开发的专有解决方案。

Nvidia的Grace CPU基于LPDDR5X内存设计,功耗低于DDR5,但采用了宽内存总线以提供高内存带宽。对于基于GB200 Grace Blackwell的机器,Nvidia不得不使用焊接式LPDDR5X内存封装,因为缺乏满足其容量需求的标准模块。美光的SOCAMM改变了这一现状,提供了一种标准模块化解决方案,简化了服务器的生产和维护,预计将对设备价格产生积极影响。

人工智能正在推动计算领域的范式转变,而内存是这一变革的核心。美光科技对Nvidia Grace Blackwell平台的贡献,为人工智能训练和推理应用带来了显著的性能和节能优势。HBM和LPDDR内存解决方案有助于释放GPU更强大的计算能力。

原文和模型


【原文链接】 阅读原文 [ 1691字 | 7分钟 ]
【原文作者】 半导体行业观察
【摘要模型】 deepseek-v3
【摘要评分】 ★★★★☆

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...