ChatGPT一年电费高达2亿元,AI 为何如此耗电?| 钛媒体AGI深度

AIGC动态8个月前发布 TMTPOSTAGI
708 0 0
ChatGPT一年电费高达2亿元,AI 为何如此耗电?| 钛媒体AGI深度

 

文章摘要


【关 键 词】 AI能耗问题电力消耗水资源需求硬件优化核聚变

随着ChatGPT等人工智能技术的快速发展,其背后的能源消耗问题也日益凸显。

Arm公司CEO哈斯预测,到2030年,AI数据中心可能会消耗美国20%至25%的电力,远超今天的4%。

ChatGPT每天处理的请求超过2亿次,日耗电量达50万千瓦时,年电费开支高达2亿元人民币。

荷兰咨询机构的Alex de Vries预计,到2027年,AI行业的年电力消耗将达到850亿至1340亿千瓦时,相当于一些欧洲国家的年用电量。这种情况下,AI技术的发展可能会引发全球新一轮的“能源战争”。

AI技术的能源需求不仅限于电力,还包括水资源。数据中心的冷却系统需要大量的水来散热,例如微软的Azure云数据中心在训练GPT-3时,15天内就消耗了近70万升水。到2027年,全球AI可能需要的清洁淡水量将超过一些国家一年的取水总量。

AI模型的算力工作过程分为训练和推理两个阶段,两者都需要大量的能源。训练阶段需要收集和处理大量数据,而推理阶段则需要加载训练好的模型来生成输出。随着AI模型参数规模的增加,其性能提升的同时,能耗也在不断上升。例如,OpenAI在训练一次模型时的电力消耗相当于3000辆特斯拉同时行驶32公里。

解决AI能耗问题的方法之一是硬件优化。英伟达发布的Blackwell GB200 AI芯片性能提升了30倍,但能耗却降低了25倍。此外,核聚变技术的发展也被视为解决能源问题的重要手段。然而,目前关于AI耗电量的数据多为估算,并不一定准确。有专家指出,大模型训练成本中60%是电费,能源开支已经成为制约大模型迭代升级的一个重要因素。

总体来看,AI技术的快速发展带来了巨大的能源需求,这不仅对电力和水资源构成了挑战,也对环境可持续性提出了问题。未来,AI行业需要在提升性能的同时,也要关注能源效率的提高,以实现技术发展与环境保护的平衡。

原文和模型


【原文链接】 阅读原文 [ 2614字 | 11分钟 ]
【原文作者】 钛媒体AGI
【摘要模型】 gpt-4
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...