Scaling Law,撞墙了吗?| 直播预告

AIGC动态1个月前发布 ai-front
196 0 0
Scaling Law,撞墙了吗?| 直播预告

 

文章摘要


【关 键 词】 大模型性能瓶颈资源限制经济价值直播讨论

近期,大语言模型(LLM)在性能提升上的瓶颈成为热议话题。OpenAI新一代模型在编程任务中性能提升有限,引发了关于大模型是否已进入收益递减阶段的讨论。在模型规模不断扩大的背景下,高质量训练数据的稀缺性和计算资源的限制对模型突破的影响也成为关注焦点。此外,大模型项目的成功定义也因视角不同而各异,如何在有限资源下平衡成本与收益,最大化模型的经济价值,是一个重要议题。

为探讨这些问题,11月20日晚20:00将举行一场主题为”Scaling Law,撞墙了吗?”的直播。嘉宾包括百度主任架构师颜林、京东集团算法总监张泽华和中国科学技术大学特任副研究员王皓。他们将就Scaling Law是否遇到瓶颈、LLM性能提升是否已进入收益递减阶段、大模型从量变到质变的关键因素、如何最大化模型经济价值等核心话题展开讨论。

直播亮点包括对大语言模型在Scaling Law方面是否真的遇到瓶颈的热点讨论,以及在资源有限情况下如何最大化模型经济价值、平衡成本与收益。观众可以通过预约InfoQ视频号直播观看,也可以在文末留言提问,讲师将在直播中解答。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 894字 | 4分钟 ]
【原文作者】 AI前线
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★☆☆☆☆

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...