DeepSeek-R1自写CUDA内核跑分屠榜!斯坦福学霸狂飙GPU编程自动化挑战人类

AIGC动态14小时前发布 AIera
143 0 0
DeepSeek-R1自写CUDA内核跑分屠榜!斯坦福学霸狂飙GPU编程自动化挑战人类

 

文章摘要


【关 键 词】 AI编程CUDA生成GPU优化模型评估自动加速

斯坦福和普林斯顿研究团队开发的KernelBench框架揭示了大型语言模型在生成优化CUDA内核方面的潜力与局限。DeepSeek-R1在自动生成GPU内核任务中超越OpenAI o1和Claude 3.5 Sonnet,但仅在不足20%的任务上优于PyTorch基线。该框架通过250个涵盖单操作、操作序列和完整架构的任务,系统评估了LLM生成内核的功能正确性、执行效率和硬件适配性。

研究显示,当前模型生成的内核面临显著挑战:约55%的解决方案存在执行错误或功能正确性问题,主要源于编译器错误、内存违规和数值偏差。在性能层面,即使功能正确的内核也仅有15%能实现p≥1的加速阈值。硬件适配性方面,DeepSeek-R1生成的内核在L40S和A10G GPU上的加速差异达11%,暴露跨平台优化能力的不足。

反馈机制展现出关键作用。通过迭代优化结合编译器错误、执行统计和性能分析反馈,DeepSeek-R1在Level 2任务中的正确率从36%提升至72%。高温重复采样策略使Level 2任务的fast1指标从4%跃升至37%,证实多样化探索对优化效果的重要性。然而,复杂卷积任务仍存在固有瓶颈,即使百次采样也无法突破。

硬件感知优化实验揭示前沿模型的潜力与局限。OpenAI o1在77%的GEMM变体中成功应用分块技术实现加速,DeepSeek-R1在50%矩阵乘法任务中尝试专用wmma指令。但总体而言,模型对硬件规格信息的利用率不足,仅有少量生成内核能实现2倍以上加速突破。

KernelBench框架的动态演进特性为其持续价值提供保障:fast_p指标可随技术发展调整阈值,任务库支持新硬件和工作负载的扩展。研究团队指出未来应聚焦高质量数据开源、编程抽象优化和多硬件适配。值得关注的是,迭代优化过程中模型展现的自我修正能力为自动编程系统开发提供了关键路径,而硬件特定指令的尝试失败则凸显低层次编程知识嵌入的必要性。

原文和模型


【原文链接】 阅读原文 [ 4658字 | 19分钟 ]
【原文作者】 新智元
【摘要模型】 deepseek-r1
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...