标签:推理

请记住 MiniMax M1:MiniMax 用自己的方法追上R1们,直奔最强Agent模型而去

MiniMax M1 的发布标志着该公司在基础模型领域的一次重大突破。该模型采用了线性注意力 Lightning Attention 机制,并将其与传统的 softmax attention 相结合...

微软分享三大王炸算法:突破大模型推理瓶颈,性能大涨

微软近日分享了其自研的三大创新算法——rStar-Math、LIPS和CPL,旨在增强大语言模型的推理能力,特别是在数学推理和思考链方面的表现。这些算法不仅适用于小参...

MiniMax深夜开源首个推理模型M1,这次是真的卷到DeepSeek了。

MiniMax近期在X平台上预告了一整周的发布计划,首日推出了开源推理模型MiniMax M1,这一模型在多个评测集上表现优异,尤其在上下文处理能力上取得了显著突破...

Day0迁移、一键部署,华为开源的昇思MindSpore成为大模型开发的“万能钥匙”

在AI大模型时代,行业逐渐形成一个共识:没有一个大模型可以一统天下。面对众多且不断更新的主流大模型和AI技术,开发者们面临的主要挑战是如何在一个统一的...

「Next-Token」范式改变!刚刚,强化学习预训练来了

在人工智能领域,强化学习(RL)长期以来被视为提升模型能力的辅助工具,而非核心方法。然而,近年来,强化学习在提升大语言模型(LLMs)能力方面的作用逐渐...

AI疯狂进化6个月,一张天梯图全浓缩!30+模型混战,大神演讲爆火

在旧金山AI工程师世博会上,Simon Willison通过自创的「骑自行车的鹈鹕」图像生成测试,回顾了过去六个月大语言模型(LLM)的飞速发展。他亲测了30多款AI模型...

Mamba 架构实现推理性能超 Gemma3-27B!推理模型开始迈入「无注意力」时代

PromptCoT-Mamba-7B是首个实现解码显存常量、计算复杂度线性、长上下文稳定扩展且具备强推理能力的模型,标志着推理大模型首次完全不依赖注意力机制而运作。...

无需人工标注!AI自生成训练数据,靠「演绎-归纳-溯因」解锁推理能力

新加坡国立大学、清华大学和Salesforce AI Research的研究者提出了一种名为“元能力对齐”的训练框架,旨在提升大型推理模型在数学、编程和科学问题上的基本推...

SFT在帮倒忙?新研究:直接进行强化学习,模型多模态推理上限更高

随着OpenAI的o1/o3和Deepseek-R1等具备强大推理能力的大语言模型相继问世,学界普遍采用「监督微调 + 强化学习」的两阶段训练范式。这种范式在纯文本领域取得...

Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造

研究团队提出两种专为推理“量身定制”的注意力机制——Grouped-Tied Attention(GTA)和Grouped Latent Attention(GLA),旨在优化大语言模型的推理效率和硬件...
1 2 3 4 5 10