标签:性能提升

英伟达 RTX 5090、5080 和 5070 Ti 最新基测:不支持 DLSS 的游戏将拥有更多 AI 能力

英伟达近期公布了GeForce RTX 5090、GeForce RTX 5080、GeForce RTX 5070 Ti和GeForce RTX 5070等新一代GPU的技术和功能细节。这些新GPU在性能基准测试中不仅...

澜起科技推出PCIe® 6.x/CXL® 3.x Retimer并向客户送样

澜起科技近日宣布推出其最新研发的PCIe® 6.x/CXL® 3.x Retimer芯片,并已向客户成功送样。该芯片旨在为人工智能和云计算等应用场景提供性能更卓越的PCIe互连...

选择/杂交/突变,DeepMind将自然选择引入LLM思维,实现心智进化

最近,DeepSeek 和 Kimi 的推理模型更新引起了广泛关注。同时,谷歌 DeepMind、加州大学圣地亚哥分校和阿尔伯塔大学的研究者发表了一篇题为《Evolving Deeper...

谢赛宁新作爆火,扩散模型新赛道诞生!测试时计算带飞,性能飙到天花板

来自纽约大学(NYU)、麻省理工学院(MIT)和谷歌的研究团队提出了一种创新方法,旨在通过测试时计算提升扩散模型(DM)的性能。该研究的核心在于设计一个通...

Transformer继任者「Titans」来了,上下文记忆瓶颈被打破

谷歌推出了一种新的AI架构——Titans,旨在解决现有注意力机制无法扩展到长上下文的问题。Titans结合了注意力机制和元上下文记忆,能够处理长达200万tokens的上...

阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

近期,阶跃星辰与清华大学等机构合作的论文《Multi-matrix Factorization Attention》提出了一种新型注意力机制架构——多矩阵分解注意力(MFA)及其变体MFA-Ke...

英伟达,更新路线图!台积电中枪?

Nvidia近期更新了其Blackwell架构路线图,优先采用CoWoS-L封装的双芯片设计,以应对市场对高端双芯片设计需求的增长。从2024年第一季度起,Nvidia将专注于200...

GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型

布朗大学和康奈尔大学的研究者提出了一种新型GAN架构——R3GAN(Re-GAN),这一突破性架构引入了正则化相对性损失函数,不仅在理论上证明了局部收敛性,而且在...

让7B千问模型超越o1,微软rStar-Math惊艳登场,网友盛赞

微软亚洲研究院的研究团队提出了一种名为rStar-Math的小型语言模型(SLM),在数学推理能力上表现出色,能够媲美甚至超越OpenAI的o1模型。rStar-Math通过自我...

陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减

陈丹琦团队提出了一种新的预训练方法,名为元数据调节然后冷却(MeCo),旨在提高大模型的性能并降低训练数据的需求。该方法通过在预训练阶段引入元数据,如...
1 2 3 4 14