标签:性能提升
英伟达开源新大模型:训练数据减少40倍,算力节省1.8倍
全球人工智能领域的领军企业英伟达(Nvidia)近期开源了两款基于Meta公司Llama-3.1 8B模型的大模型:Nemotron-4-Minitron-4B和Nemotron-4-Minitron-8B。这两...
这颗芯片,又又又又延期了
Tachyum公司宣布,其Prodigy FPGA仿真系统的最终版本已经完成,这是该公司通用192核Prodigy处理器开发过程中的一个重要里程碑。尽管生产计划从2024年推迟到20...
谷歌发布大模型数据筛选方法:效率提升13倍,算力降低10倍
在AIGC领域,大语言模型(LLM)的发展和应用落地对训练数据的需求日益增长。然而,现有的数据处理流程依赖人工筛选,成本高昂且效率低下。谷歌Deepmind的研究...
Stability.ai开源3D模型,仅需0.5秒就能快速生成
开源大模型平台Stability.ai推出了一款名为Stable Fast 3D(SF3D)的3D生成模型,该模型能够以极快的速度从图片生成高质量的3D模型。用户仅需0.5秒即可完成生...
iPhone可跑2B小钢炮!谷歌Gemma 2来袭,最强显微镜剖解LLM大脑
谷歌DeepMind发布了Gemma 2家族的三个新成员,包括Gemma 2 2B轻量级模型、ShieldGemma安全内容分类器和Gemma Scope可解释性工具。Gemma 2 2B虽然只有2.6B参数...
OpenAI掀桌子!免费提供GPT-4o mini微调,每天200万tokens
AIGC领域的专业社区关注了微软、OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地。OpenAI宣布在特定时间内为4级、5级用户提供GPT-4o min...
Redis鸟枪换炮了
Redis,一款备受青睐的内存数据结构存储系统,最近宣布对其查询引擎进行重大改进,引入了多线程技术,以提高查询吞吐量并保持低延迟。这一进步对于处理数亿文...
首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了
Llama 3.1,一个多语言大型语言模型(LLM)集合,最近在Reddit上泄露,引起了广泛关注。这个集合包含8B、70B和405B三种不同参数规模的模型,且在多项基准测试...
仅微调0.02%参数,性能接近全量微调!上交大推出高效微调统一新范式
随着大模型应用的扩展,基础模型的参数数量不断增加,给训练带来了巨大负担。为了解决这一问题,研究者们开始关注高效微调(Parameter Efficient Fine-Tuning...
AWS Graviton 4,水平如何?
Graviton4相较于前代Graviton3在性能上实现了显著提升,其R8g实例据称比R7g实例性能高出30%。Graviton4配备了96个基于Armv9.0 ISA的Neoverse-V2内核,每个内...