标签:语言模型

北京邮电大学最新研究:使用提示工程解决大模型记忆问题

北京邮电大学的研究者开发了一种免训练的提示技巧,显著提升了大型语言模型在多轮对话中的表现。该方法通过状态更新策略,使推理时间减少73.1%,令牌消耗降低...

RLHF与RLVR全都要,陈丹琦团队最新力作将推理能力拓展到通用智能

普林斯顿大学陈丹琦团队最新研究提出基于模型奖励思维的强化学习(RLMT)方法,旨在弥合专门推理能力与通用对话能力之间的差距。该方法通过将显式的思维链推...

LLM也具有身份认同?当LLM发现博弈对手是自己时,行为变化了

哥伦比亚大学与蒙特利尔理工学院的研究者 Olivia Long 和 Carter Teplica 通过研究项目,揭示了大型语言模型(LLM)在不同环境下的身份认知对其合作倾向的影...

五倍推理加速,激发自回归潜能,苹果新工作让LLM预测未来

近年来,语言模型的显著进展主要得益于大规模文本数据的可获得性以及自回归训练方法的有效性。自回归模型在训练阶段具有明显优势,但在推理阶段存在顺序执行...

香港科技大学、Manycor开源空间大模型,超3000颗星

香港科技大学与Manycore联合开源了一种名为SpatialLM的空间大模型,专注于处理3D点云数据并生成结构化的三维场景理解输出。这一模型的目标是让机器能够像人类...

新鲜出炉!斯坦福2025 CS336课程全公开:从零开始搓大模型

斯坦福大学2025年春季的CS336课程「从头开始创造语言模型」现已全面发布,课程视频和材料均可在线获取。该课程由斯坦福大学计算机科学系助理教授Tatsunori Ha...

全球首次,Transformer「混血」速度狂飙65倍!英伟达已下注

扩散建模与自回归方法的融合在语言模型领域取得突破性进展。康奈尔大学、CMU等机构的研究团队提出新型混合框架Eso-LM,首次实现并行生成与KV缓存机制的兼容,...

“多模态方法无法实现AGI”

生成式人工智能模型的成功让一些人相信人工通用智能(AGI)即将到来,但这些模型并未真正捕捉到人类智能的本质。它们之所以出现,主要是因为它们能够有效地扩...

LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?

近期,关于AI自我演进的研究和讨论逐渐增多,多个机构提出了不同的自我改进框架。例如,Sakana AI与不列颠哥伦比亚大学合作的「达尔文-哥德尔机(DGM)」、CM...

「Next-Token」范式改变!刚刚,强化学习预训练来了

在人工智能领域,强化学习(RL)长期以来被视为提升模型能力的辅助工具,而非核心方法。然而,近年来,强化学习在提升大语言模型(LLMs)能力方面的作用逐渐...
1 2 3 12