标签:性能提升

OpenAI 突然推送推送高级语音模式「Her」,又抢了谷歌风头

9月25日,Google宣布了两款新模型Gemini-1.5-Pro-002和Gemini-1.5-Flash-002的发布。Gemini Pro是Google系列模型中的中等规模模型,对付费用户开放,而Gemini...

o1带火的CoT到底行不行?新论文引发了论战

近期,德克萨斯大学奥斯汀分校、约翰·霍普金斯大学和普林斯顿大学的研究人员提出了一个关键问题:在大型语言模型(LLM)中,是否应该使用思维链(Chain-of-Th...

o1突发内幕曝光?谷歌8月论文已揭示原理,大模型光有软件不存在护城河

谷歌DeepMind的一篇论文揭示了一种新的计算策略,该策略与OpenAI的o1模型的工作方式几乎一致。这项研究指出,在测试时增加计算比扩展模型参数更有效,这使得...

微软用AI Agent生成2500万对高质量数据,极大提升大模型性能!

在AIGC领域,随着生成式AI产品如ChatGPT和Copilot的快速发展,对训练数据的需求急剧增加,这对提升大型语言模型(LLM)的性能至关重要。为了应对训练数据短缺...

大战打响!高通发布全新AI PC芯片骁龙X Plus 8,性能暴涨超61%,对抗英特尔和AMD|钛媒体AGI

在德国柏林的IFA大会上,高通公司推出了全新的AI PC芯片Snapdragon X Plus 8核处理器,这是其骁龙X系列产品线的新成员,旨在挑战英特尔和AMD在PC处理器市场的...

英伟达Blackwell称霸MLPerf!推理性能暴涨30倍,新一代「AI怪兽」诞生

MLCommons发布了MLPerf Inference v4.1的最新测试结果,其中英伟达的Blackwell架构芯片在大语言模型(LLM)推理任务中表现出色,刷新了部分任务的测试纪录。M...

GPU推理时代终结?世界最大芯片加持推理狂飙20倍,英伟达H100也被干趴!

Cerebras公司最近推出了全球最快的AI推理架构——Cerebras Inference,其推理速度远超当前最先进的GPU。在运行Llama3.1 8B模型时,Cerebras Inference能够以180...

全球最大芯片,进军推理:1800 token/秒,全球最快

Cerebras Systems,一家以挑战英伟达在AI芯片市场地位为目标的公司,于今年年初推出了WSE-3 AI芯片,专为训练大型AI模型而设计。这款基于5nm工艺、拥有4万亿...

Anthropic API新增提示缓存功能:成本降低90%,延迟降低85%

Anthropic公司为其大模型平台API引入了一项新功能——提示缓存(Prompt Caching),旨在帮助开发者优化API调用的效率和成本。这一功能特别适用于需要处理大量上...

英伟达开源新大模型:训练数据减少40倍,算力节省1.8倍

全球人工智能领域的领军企业英伟达(Nvidia)近期开源了两款基于Meta公司Llama-3.1 8B模型的大模型:Nemotron-4-Minitron-4B和Nemotron-4-Minitron-8B。这两...
1 2 3 8