标签:资源限制
Scaling Law,撞墙了吗?| 直播预告
近期,大语言模型(LLM)在性能提升上的瓶颈成为热议话题。OpenAI新一代模型在编程任务中性能提升有限,引发了关于大模型是否已进入收益递减阶段的讨论。在模...
对话Hugging Face王铁震和零一林旅强:中国开源如何更好地被“看见”
在硅星人首届AI创造者大会上,Hugging Face工程师王铁震和零一万物开源负责人林旅强就中国开源工作者关心的话题进行了深入讨论。王铁震介绍了Hugging Face作...
Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存
在近期的研究中,加拿大皇家银行 AI 研究所 Borealis AI 与蒙特利尔大学的研究者提出了一种新型序列建模方法,该方法旨在解决 Transformer 模型在推理时内存...