标签:性能提升
英伟达 RTX 5090、5080 和 5070 Ti 最新基测:不支持 DLSS 的游戏将拥有更多 AI 能力
英伟达近期公布了GeForce RTX 5090、GeForce RTX 5080、GeForce RTX 5070 Ti和GeForce RTX 5070等新一代GPU的技术和功能细节。这些新GPU在性能基准测试中不仅...
澜起科技推出PCIe® 6.x/CXL® 3.x Retimer并向客户送样
澜起科技近日宣布推出其最新研发的PCIe® 6.x/CXL® 3.x Retimer芯片,并已向客户成功送样。该芯片旨在为人工智能和云计算等应用场景提供性能更卓越的PCIe互连...
选择/杂交/突变,DeepMind将自然选择引入LLM思维,实现心智进化
最近,DeepSeek 和 Kimi 的推理模型更新引起了广泛关注。同时,谷歌 DeepMind、加州大学圣地亚哥分校和阿尔伯塔大学的研究者发表了一篇题为《Evolving Deeper...
谢赛宁新作爆火,扩散模型新赛道诞生!测试时计算带飞,性能飙到天花板
来自纽约大学(NYU)、麻省理工学院(MIT)和谷歌的研究团队提出了一种创新方法,旨在通过测试时计算提升扩散模型(DM)的性能。该研究的核心在于设计一个通...
Transformer继任者「Titans」来了,上下文记忆瓶颈被打破
谷歌推出了一种新的AI架构——Titans,旨在解决现有注意力机制无法扩展到长上下文的问题。Titans结合了注意力机制和元上下文记忆,能够处理长达200万tokens的上...
阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增
近期,阶跃星辰与清华大学等机构合作的论文《Multi-matrix Factorization Attention》提出了一种新型注意力机制架构——多矩阵分解注意力(MFA)及其变体MFA-Ke...
英伟达,更新路线图!台积电中枪?
Nvidia近期更新了其Blackwell架构路线图,优先采用CoWoS-L封装的双芯片设计,以应对市场对高端双芯片设计需求的增长。从2024年第一季度起,Nvidia将专注于200...
GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型
布朗大学和康奈尔大学的研究者提出了一种新型GAN架构——R3GAN(Re-GAN),这一突破性架构引入了正则化相对性损失函数,不仅在理论上证明了局部收敛性,而且在...
让7B千问模型超越o1,微软rStar-Math惊艳登场,网友盛赞
微软亚洲研究院的研究团队提出了一种名为rStar-Math的小型语言模型(SLM),在数学推理能力上表现出色,能够媲美甚至超越OpenAI的o1模型。rStar-Math通过自我...
陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减
陈丹琦团队提出了一种新的预训练方法,名为元数据调节然后冷却(MeCo),旨在提高大模型的性能并降低训练数据的需求。该方法通过在预训练阶段引入元数据,如...