标签:性能提升

这颗芯片,又又又又延期了

Tachyum公司宣布,其Prodigy FPGA仿真系统的最终版本已经完成,这是该公司通用192核Prodigy处理器开发过程中的一个重要里程碑。尽管生产计划从2024年推迟到20...

谷歌发布大模型数据筛选方法:效率提升13倍,算力降低10倍

在AIGC领域,大语言模型(LLM)的发展和应用落地对训练数据的需求日益增长。然而,现有的数据处理流程依赖人工筛选,成本高昂且效率低下。谷歌Deepmind的研究...

Stability.ai开源3D模型,仅需0.5秒就能快速生成

开源大模型平台Stability.ai推出了一款名为Stable Fast 3D(SF3D)的3D生成模型,该模型能够以极快的速度从图片生成高质量的3D模型。用户仅需0.5秒即可完成生...

iPhone可跑2B小钢炮!谷歌Gemma 2来袭,最强显微镜剖解LLM大脑

谷歌DeepMind发布了Gemma 2家族的三个新成员,包括Gemma 2 2B轻量级模型、ShieldGemma安全内容分类器和Gemma Scope可解释性工具。Gemma 2 2B虽然只有2.6B参数...

OpenAI掀桌子!免费提供GPT-4o mini微调,每天200万tokens

AIGC领域的专业社区关注了微软、OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地。OpenAI宣布在特定时间内为4级、5级用户提供GPT-4o min...

Redis鸟枪换炮了

Redis,一款备受青睐的内存数据结构存储系统,最近宣布对其查询引擎进行重大改进,引入了多线程技术,以提高查询吞吐量并保持低延迟。这一进步对于处理数亿文...

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

Llama 3.1,一个多语言大型语言模型(LLM)集合,最近在Reddit上泄露,引起了广泛关注。这个集合包含8B、70B和405B三种不同参数规模的模型,且在多项基准测试...

仅微调0.02%参数,性能接近全量微调!上交大推出高效微调统一新范式

随着大模型应用的扩展,基础模型的参数数量不断增加,给训练带来了巨大负担。为了解决这一问题,研究者们开始关注高效微调(Parameter Efficient Fine-Tuning...

AWS Graviton 4,水平如何?

Graviton4相较于前代Graviton3在性能上实现了显著提升,其R8g实例据称比R7g实例性能高出30%。Graviton4配备了96个基于Armv9.0 ISA的Neoverse-V2内核,每个内...

奥特曼深夜发动价格战,GPT-4o mini暴跌99%!清华同济校友立功,GPT-3.5退役

OpenAI最近推出了GPT-4o mini,这是一款更小、性能更强、成本更低的人工智能模型。相较于GPT-3.5,GPT-4o mini在性能上有所提升,同时价格降低了60%以上。这...
1 2 3 4 8