标签:大语言模型
大语言模型的新征程—— ACL 2025顶会见闻前沿论坛实录|GAIR Live
2025 年 ACL 年会中,大语言模型持续主导 NLP 领域,投稿量破 8000,中国作者占比达 51%。雷峰网等邀请三位学者就大模型多方面展开深度对话,探讨 NLP 未来趋...
小扎「梦之队」首批论文上线!LLM自举进化,单步性能狂飙22%
Meta超级实验室「Meta Superintelligence Labs,MSL」的三位成员上传ArXiv论文,探索利用强化学习(RL)高效微调大语言模型(LLM),使LLM在推理时实现迭代自...
扎克伯格的豪赌初见成效?Meta新方法让LLM长上下文处理提速30倍
扎克伯格的投资似乎初见成效,Meta Superintelligence Labs 联合提出 REFRAG 高效解码框架,旨在解决大语言模型(LLM)处理长上下文输入时的效率瓶颈。在当前...
科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生
大语言模型的发展迅速,后训练的强化学习算法不断演进。从 PPO 到 GRPO 再到后续改进算法,都在不断提升模型性能与稳定性。后训练与强化学习的重要性:大语言...
奖励模型也能Scaling!上海AI Lab突破强化学习短板,提出策略判别学习新范式
强化学习已成为推动人工智能向通用人工智能(AGI)发展的关键技术节点,但奖励模型的设计与训练一直是制约模型能力提升的瓶颈。当前,大语言模型通过Next Tok...
搜索领域的下一个重大转变:从产品到基础设施
随着AI技术的广泛应用,搜索功能正在经历一场根本性的转变,从人类直接使用的产品演变为支撑AI运转的数字基础设施。搜索将成为AI时代的信息供给系统,为数百...
Hugging Face开源顶级模型:双模式推理+128K上下文,最强3B
全球著名大模型开放平台Hugging Face近日开源了顶级小参数模型SmolLM3,该模型仅有30亿参数,但其性能显著超越了Llama-3.2-3B和Qwen2.5-3B等同类开源模型。Sm...
彻底戳穿AI「失忆症」!超越OpenAI全局记忆,中国队开源LLM记忆操作系统
大语言模型在长期知识管理与个性化演进方面存在本质缺陷,主要表现为难以平衡效率、可追溯性与长期适应性。记忆张量团队联合多家顶尖机构研发的MemOS框架,通...
人机协同筛出2600万条数据,七项基准全部SOTA,昆仑万维开源奖励模型再迎新突破
大语言模型(LLM)的生成能力虽然强大,但其输出是否符合人类偏好需要依赖奖励模型(Reward Model, RM)的精准评判。奖励模型在大模型训练中扮演着关键角色,...
LLM进入「拖拽时代」!只靠Prompt,几秒定制一个大模型,效率飙升12000倍
最近,来自新加坡国立大学、得克萨斯大学奥斯汀分校等机构的研究人员提出了一种名为「拖拽式大语言模型」(DnD)的创新方法,能够基于提示词快速生成模型参数...