LLM:GPU,还是ASIC?

AIGC动态22小时前发布 admin
42 0 0
LLM:GPU,还是ASIC?

 

文章摘要


【关 键 词】 人工智能技术发展经济影响市场竞争硬件创新

人工智能的进步正在以指数级的速度发展,其影响将远超大多数人的预期。OpenAI、Anthropic和xAI的首席执行官们一致认为,人工智能将深刻改变人类社会。目前,人工智能的市场价值已经显现,例如GitHub CoPilot可以将开发人员的编码速度提高55%,而GPT-4在LSAT考试中的得分达到了88%,远超普通人的50%。预计到2025年,OpenAI的大模型收入将达到100亿美元,Anthropic的收入也将达到20亿至40亿美元。人工智能的智力水平也在快速提升,从四年前的GPT-2的学龄前儿童水平,到GPT-4的高中生水平,预计到2028年,大模型将具备博士级别的智力,并在2030年代超越人类智商。

人工智能的经济效益也在不断提升,特定模型的成本每年下降4倍到10倍,这得益于计算能力和算法的改进。到2030年,当今模型的运行成本将降至千分之一到十万分之一。目前,有五家以上的公司具备推动人工智能发展的能力和资本,包括亚马逊、谷歌和微软等巨头。OpenAI和Anthropic等初创公司的市值已经达到1000亿美元,如果它们能够实现目标,市值将达到1万亿美元。大模型项目的成功将对半导体、封装、数据中心、冷却和电力领域带来巨大压力,预计到2030年,半导体收入将主要来自人工智能和高性能计算。

在硬件领域,NVIDIA目前占据了数据中心AI加速器市场的90%以上,其余部分由AMD GPU和定制ASIC(主要是亚马逊)占据。NVIDIA提供全套解决方案,包括GPU、NVlink网络、机架、系统和软件,年营收高达1600亿美元。然而,AMD正在追赶NVIDIA,其M350和M400 GPU预计将在2025年和2026年分别与NVIDIA的Blackwell和Rubin架构相匹配。AMD在软件和互连/系统方面也在迎头赶上,希望到2026年实现年收入100亿美元。

超大规模计算厂商正在寻找NVIDIA的强大替代方案,以获取定价优势并提升数据中心的产能。ASIC(专用集成电路)在过去被认为是低利润、低增长的,但现在却受到青睐,因为超大规模企业希望有更多选择。亚马逊、谷歌、Meta和OpenAI都在开发自己的AI加速器,博通和Marvell的AI收入也在三年内飙升,AI已成为它们最大的业务部门。OpenAI首席执行官Sam Altman表示,特定模型的ASIC可以非常高效,尤其是在放弃GPU的部分灵活性的情况下。

市场正在从以训练为主转向以推理为主,仅用于推理的ASIC可以更简单、更便宜。Alchip的首席执行官表示,ASIC的性价比比GPU高40%,并且可以针对客户的特定软件进行优化。当前的AI加速器通常配备3纳米或2纳米计算引擎,NRE成本高达5000万美元,而更复杂的加速器开发成本可能超过1亿美元。超大规模计算厂商将拥有超过100人的架构团队,总成本将在三分之一到五亿美元之间。

超大规模数据中心运营商可能会部署NVIDIA和AMD的GPU来处理最复杂、变化最快的工作负载,而内部变化较慢的工作负载则会使用自家的ASIC。GPU和ASIC的最终组合将取决于相对性能、功耗和可用性,可能是90% GPU和10% ASIC,或者10% GPU和90% ASIC。每年仅花费10亿美元的小型客户将不得不使用GPU。

原文和模型


【原文链接】 阅读原文 [ 1507字 | 7分钟 ]
【原文作者】 半导体行业观察
【摘要模型】 deepseek-v3
【摘要评分】 ★★★☆☆

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...