标签:语言模型
香港科技大学、Manycor开源空间大模型,超3000颗星
香港科技大学与Manycore联合开源了一种名为SpatialLM的空间大模型,专注于处理3D点云数据并生成结构化的三维场景理解输出。这一模型的目标是让机器能够像人类...
新鲜出炉!斯坦福2025 CS336课程全公开:从零开始搓大模型
斯坦福大学2025年春季的CS336课程「从头开始创造语言模型」现已全面发布,课程视频和材料均可在线获取。该课程由斯坦福大学计算机科学系助理教授Tatsunori Ha...
全球首次,Transformer「混血」速度狂飙65倍!英伟达已下注
扩散建模与自回归方法的融合在语言模型领域取得突破性进展。康奈尔大学、CMU等机构的研究团队提出新型混合框架Eso-LM,首次实现并行生成与KV缓存机制的兼容,...
“多模态方法无法实现AGI”
生成式人工智能模型的成功让一些人相信人工通用智能(AGI)即将到来,但这些模型并未真正捕捉到人类智能的本质。它们之所以出现,主要是因为它们能够有效地扩...
LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?
近期,关于AI自我演进的研究和讨论逐渐增多,多个机构提出了不同的自我改进框架。例如,Sakana AI与不列颠哥伦比亚大学合作的「达尔文-哥德尔机(DGM)」、CM...
「Next-Token」范式改变!刚刚,强化学习预训练来了
在人工智能领域,强化学习(RL)长期以来被视为提升模型能力的辅助工具,而非核心方法。然而,近年来,强化学习在提升大语言模型(LLMs)能力方面的作用逐渐...
大模型是「躲在洞穴里」观察世界? 强化学习大佬「吹哨」提醒LLM致命缺点
加州大学伯克利分校副教授Sergey Levine近期提出一个核心疑问:为何语言模型通过预测下一个token能获得强大认知能力,而视频模型通过下一帧预测却收效甚微。...
为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维
语言模型对强化学习中的奖励噪音表现出显著的鲁棒性,即使奖励信号被部分翻转,模型在下游任务中的表现也不会显著下降。研究者发现,强化学习对下游任务的提...
印度国家级大模型上线两天仅 300 余次下载,投资人直呼“尴尬”:韩国大学生模型都有20万!
Sarvam AI作为印度“IndiaAI Mission”国家级项目的首批入选公司,近期发布了名为Sarvam-M的240亿参数混合语言模型,被视为印度本土AI研究的一项突破。该模型基...
强迫模型自我争论,递归思考版CoT热度飙升!网友:这不就是大多数推理模型的套路吗?
CoRT(Chain-of-Recursive-Thoughts)是一种在语言模型中引入递归思考和自我批判机制的新方法,旨在提升模型的推理能力。与传统的CoT(Chain-of-Thought)相...