标签:大语言模型

顶尖高校联合发布重磅AI智能体记忆系统进化全景综述报告

评测体系涌现出MemBench等专项基准,而技术演进呈现五大趋势:从检索现成文本转向动态生成记忆,记忆管理权从人工规则移交强化学习算法,多模态记忆支持跨媒...

全网围观的2025大语言模型回顾:AI大牛karpathy总结了六大关键节点

2025年标志着人工智能从模仿人类行为向自主逻辑推理的质变。这一年见证了基于可验证奖励的强化学习(RLVR)取代传统的人类反馈机制,使大语言模型具备了真正...

比传统方法强7倍:Anthropic物理隔离危险知识,重塑大模型安全训练范式

Anthropic研究团队联合多所高校及机构,提出了一项名为选择性梯度掩码(SGTM)的创新技术,旨在解决大语言模型在安全领域的核心挑战。该技术通过物理隔离危险...

斯坦福最火CS课:不让学生写代码,必须用AI

斯坦福大学近期推出的《现代软件开发者》(CS146S)课程引发广泛关注,这门课程的核心在于探索不编写代码的软件开发模式。课程主张通过AI工具(如Cursor和Cla...

LLM强化学习不稳定之谜,被Qwen团队从「一阶近似」视角解开

强化学习(RL)已成为提升大语言模型(LLM)复杂推理能力的关键技术范式,但其训练稳定性问题亟待解决。当前主流RL算法存在序列级奖励与token级优化的不匹配...

基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

在Agentic AI时代,多智能体系统(MAS)的发展使得AI从独立运作转向协同合作。传统MAS依赖自然语言进行智能体间的交流,虽然可解释但效率低下且信息易丢失。...

念首诗,就能让AI教你造核弹!Gemini 100%中招

最新研究发现,将恶意指令改写为诗歌形式能够有效突破主流大语言模型的安全限制。这项由意大利罗马大学和DEXAI实验室进行的研究测试了25个顶尖模型,结果显示...

Meta超级智能实验室又发论文,模型混一混,性能直接SOTA

大语言模型(LLM)的训练通常依赖大量算力和时间资源,而模型Souping(Model Souping)作为一种轻量级方法,通过对同一架构的多个模型进行权重平均,能够融合...

超实用提示词模板!AI科学家教你用协作提示词激发大模型潜力

当前主流大语言模型存在'短视'倾向,倾向于提供快速但肤浅的回应,而非深入探讨问题。这种现象源于训练过程中采用的人类反馈强化学习(RLHF)机制,该机制鼓励A...

登顶开源SOTA!上交大&小红书LoopTool实现工具调用任务的「数据进化」

大语言模型与外部工具的结合已成为推动AI从“会说”走向“会做”的关键机制。这种结合在API调用、多轮任务规划、知识检索和代码执行等场景中尤为重要。然而,现有...
1 2 3 13