AI造芯Nature论文遭围攻,谷歌发文硬刚学术抹黑!Jeff Dean怒怼:你们连模型都没训

AIGC动态11小时前发布 AIera
29 0 0
AI造芯Nature论文遭围攻,谷歌发文硬刚学术抹黑!Jeff Dean怒怼:你们连模型都没训

 

文章摘要


【关 键 词】 AlphaChipEDA质疑论文争议预训练缺失计算资源

谷歌首席科学家Jeff Dean针对EDA界对其AlphaChip芯片设计系统的质疑进行了回应。AlphaChip曾登上Nature杂志,但遭到多次质疑,包括实验、论文发表,甚至有一篇作为invited paper发表在ISPD 2023上。Jeff Dean通过撰写论文来回应这些质疑,他认为这些怀疑很大程度上是由一篇存在严重缺陷的未经同行评审的论文引起的。该论文声称复制了谷歌的方法,但未能在主要方面遵循,如未进行预训练和减少了计算量,导致基于学习的方法无法从其他芯片设计中学习。

Jeff Dean等人还回应了Igor Markov在CACM 2024年11月刊上发表的分析文章。Markov是商业EDA软件Synopsys的高级员工,而AlphaChip是开源的。Markov的论文分析中引用了另一篇未发表的匿名PDF,实际上也是Markov写的。Jeff Dean表示,Markov的文章提出了隐晦的指控,这些都是完全没有根据的,而且已经被Nature证明过了。

谷歌在arxiv上发布了回应论文,拉了一个时间表,从2020年4月发布Nature论文的arXiv预印本,到2024年9月MediaTek高级副总裁宣布扩展AlphaChip以加速其最先进芯片的开发,再到2024年11月Markov重新发表他的「meta-analysis」。谷歌强调,AlphaChip已经在自家服役这么长时间了,联发科也用了,Nature也调查过了,无懈可击。

谷歌还逐条回应了错误论文的指控,包括没有预先训练RL方法、使用的计算资源减少了一个数量级、RL方法未训练到收敛、不具代表性、不可重现等。谷歌强调,AlphaChip是一种基于学习的方法,会随着解决更多的芯片放置问题而变得更好、更快,这是通过预训练实现的。而Cheng等人根本没有进行预训练,这意味着模型以前从未见过芯片,必须学习如何从头开始为每个测试用例执行布局。此外,Cheng等人的论文中,RL方法提供的RL体验收集器减少了20倍,GPU数量减少了一半,使用较少的计算可能会损害性能,或者需要运行相当长的时间才能实现相同的性能。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 1917字 | 8分钟 ]
【原文作者】 新智元
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★☆☆

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...