标签:性能提升

o1突发内幕曝光?谷歌8月论文已揭示原理,大模型光有软件不存在护城河

谷歌DeepMind的一篇论文揭示了一种新的计算策略,该策略与OpenAI的o1模型的工作方式几乎一致。这项研究指出,在测试时增加计算比扩展模型参数更有效,这使得...

微软用AI Agent生成2500万对高质量数据,极大提升大模型性能!

在AIGC领域,随着生成式AI产品如ChatGPT和Copilot的快速发展,对训练数据的需求急剧增加,这对提升大型语言模型(LLM)的性能至关重要。为了应对训练数据短缺...

大战打响!高通发布全新AI PC芯片骁龙X Plus 8,性能暴涨超61%,对抗英特尔和AMD|钛媒体AGI

在德国柏林的IFA大会上,高通公司推出了全新的AI PC芯片Snapdragon X Plus 8核处理器,这是其骁龙X系列产品线的新成员,旨在挑战英特尔和AMD在PC处理器市场的...

英伟达Blackwell称霸MLPerf!推理性能暴涨30倍,新一代「AI怪兽」诞生

MLCommons发布了MLPerf Inference v4.1的最新测试结果,其中英伟达的Blackwell架构芯片在大语言模型(LLM)推理任务中表现出色,刷新了部分任务的测试纪录。M...

GPU推理时代终结?世界最大芯片加持推理狂飙20倍,英伟达H100也被干趴!

Cerebras公司最近推出了全球最快的AI推理架构——Cerebras Inference,其推理速度远超当前最先进的GPU。在运行Llama3.1 8B模型时,Cerebras Inference能够以180...

全球最大芯片,进军推理:1800 token/秒,全球最快

Cerebras Systems,一家以挑战英伟达在AI芯片市场地位为目标的公司,于今年年初推出了WSE-3 AI芯片,专为训练大型AI模型而设计。这款基于5nm工艺、拥有4万亿...

Anthropic API新增提示缓存功能:成本降低90%,延迟降低85%

Anthropic公司为其大模型平台API引入了一项新功能——提示缓存(Prompt Caching),旨在帮助开发者优化API调用的效率和成本。这一功能特别适用于需要处理大量上...

英伟达开源新大模型:训练数据减少40倍,算力节省1.8倍

全球人工智能领域的领军企业英伟达(Nvidia)近期开源了两款基于Meta公司Llama-3.1 8B模型的大模型:Nemotron-4-Minitron-4B和Nemotron-4-Minitron-8B。这两...

这颗芯片,又又又又延期了

Tachyum公司宣布,其Prodigy FPGA仿真系统的最终版本已经完成,这是该公司通用192核Prodigy处理器开发过程中的一个重要里程碑。尽管生产计划从2024年推迟到20...

谷歌发布大模型数据筛选方法:效率提升13倍,算力降低10倍

在AIGC领域,大语言模型(LLM)的发展和应用落地对训练数据的需求日益增长。然而,现有的数据处理流程依赖人工筛选,成本高昂且效率低下。谷歌Deepmind的研究...
1 4 5 6 7 8 12