文章摘要
【关 键 词】 CRAM技术、人工智能、节能效果、内存计算、深度学习
明尼苏达大学科学与工程学院的研究人员开发了一种名为计算随机存取存储器(CRAM)的新型数据存储模型,该模型通过在内存内部直接进行计算,有望显著降低人工智能应用的能源需求。与传统的冯·诺依曼架构不同,CRAM利用磁隧道结(MTJ)自旋电子器件,不依赖电荷存储数据,而是使用电子自旋,为基于晶体管的芯片提供了更有效的替代方案。CRAM技术在模拟中显示出高达2,500倍的节能效果。
CRAM的灵活性使其能够在内存阵列的任何位置执行计算,无需数据传输,从而减少了能耗。与传统的短期随机存取存储器(RAM)相比,MTJ以极低的能量执行相同的功能,速度更快,并且能适应恶劣环境。CRAM的“内存中计算”方法消除了逻辑和内存之间耗电的数据传输,特别适用于需要大量数据并行处理的应用,如深度学习、图像处理和大数据分析。
研究人员估计,基于CRAM的机器学习推理加速器在能量延迟积方面比最先进的解决方案实现了1000倍的改进。例如,在执行MNIST手写数字分类器任务时,CRAM消耗的能量和时间分别减少了2500倍和1700倍。CRAM以全数字化方式运行,具有数据和操作数的随机访问、大规模并行计算能力和操作的可重构性等独特功能。
CRAM技术对于提高人工智能能源效率至关重要。国际能源署预测,全球用于人工智能训练和应用的电力消耗可能会在2026年增长一倍以上。CRAM的千倍能耗降低能力有助于解决这一问题。
CRAM技术的研究已经进行了二十多年。明尼苏达大学电气与计算机工程系的王建平教授及其团队在MTJ研究基础上开发出了磁性RAM(MRAM),已用于微控制器和智能手表等嵌入式系统。王建平教授是新型磁性材料和自旋电子器件领域的世界知名专家,其研究侧重于信息存储、记忆和计算以及生物医学传感方向。
尽管CRAM技术仍面临一些质疑和挑战,但如果能够从研究走向实际应用,将对人工智能行业产生重大影响。
原文和模型
【原文链接】 阅读原文 [ 2606字 | 11分钟 ]
【原文作者】 AI前线
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★