文章摘要
【关 键 词】 AI加速、GPU、CPU转型、Intel挑战、生态建设
随着人工智能技术的飞速发展,GPU和AI加速器已成为AI时代算力的主要来源。在AI模型训练和推理过程中,对算力和存储带宽的需求不断增加。移动GPU和NPU的发展也推动了AI部署从CPU向更高算力和能效的模块转移。与此同时,CPU作为曾经的通用计算王者,现在面临尴尬境地,往往沦为大型AI负载的调度器和数据搬运工具,同时还要承担加速器处理不了的长尾需求。
为了在AI市场中获得机会,CPU厂商开始在自家产品中引入AI加速功能。AI计算遵循二八法则,即大部分计算规模集中在卷积、矩阵乘法等计算密集型操作上。深度学习中的卷积运算可以转换为矩阵乘法模式,通过乘法和加法的基本运算实现。高性能计算和AI中,矩阵乘法的运算次数是衡量算力大小的关键指标。
在AI加速方面,x86架构的CPU厂商如Intel面临生态的挑战。尽管Intel在AI领域的投入巨大,但其产品如Xeon Phi、Nevana Sys等并未取得预期成功。Intel通过在Xeon服务器CPU中加入AVX512指令集等技术,以提高对抗GPU的高性能计算能力。然而,由于算力密度的劣势,CPU厂商更多在推理侧发力。
Intel在AI能力构建上经历了从基本的单精度浮点向量运算到低比特定点运算、半精度指令的发展。近年来,Intel推出了专用的DSA(可定制指令集架构)——Intel AMX,以提高矩阵乘法的计算效率。AMX引入了全新的TILE二维寄存器文件,通过脉动阵列的方式实现高性能计算。在Xeon Sapphire Rapids服务器上,AMX的峰值性能可媲美云端大算力AI加速器。
然而,Intel在生态方面面临挑战。过去在64位处理器的推广上,Intel曾犯下错误,导致其在移动互联网、高性能计算和AI领域的竞争中落后。尽管Intel在技术上不断进步,但在生态建设上仍需加强,以在AI时代获得更多市场份额。
总之,AI时代对算力的需求不断增长,GPU和AI加速器成为主要算力来源。CPU厂商通过引入AI加速功能,努力在AI市场中寻求机会。Intel作为x86架构的代表,虽然在AI能力构建上取得一定进展,但在生态建设方面仍需加强,以应对来自GPU和其他AI加速器的竞争。
原文和模型
【原文链接】 阅读原文 [ 7015字 | 29分钟 ]
【原文作者】 半导体行业观察
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★