标签:性能优化

Mamba-2新架构出世一统江湖!普林斯顿CMU华人再出神作,性能狂飙8倍

Mamba-2架构在AI界再次引发关注,其在统一状态空间模型(SSM)和注意力机制(Attention)的基础上,成功将Transformer模型与SSM结合,形成了一种新的高效序列...

清华接手,YOLOv10问世:性能大幅提升,登上GitHub热榜

YOLO(You Only Look Once)系列作为实时目标检测领域的主要范式,近日迎来了YOLOv10这一重大升级。该新版本由清华大学的研究团队推出,通过后处理和模型架构...

12年前上手深度学习,Karpathy掀起一波AlexNet时代回忆杀,LeCun、Goodfellow等都下场

自2012年AlexNet在ImageNet竞赛中取得突破性成绩,标志着深度学习革命的开始,至今已过去12年。AI研究科学家Andrej Karpathy的一条帖子引发了AI界多位知名人...

开源模型越来越落后?Llama 3 说李总你真幽默

Llama 3 正式发布,被 Meta 宣称为迄今为止最强大的开源大模型。这一版本推出了两种规模的预训练语言模型,分别拥有 80 亿和 700 亿参数,以支持更广泛的应用...

Google:如何为AI和分析工作负载定义存储架构

本文讨论了构建大规模AI/ML数据管道的方法,并探讨了如何选择适合的存储方案来优化各类AI/ML工作负载。文章中,来自Google和Toyota的专家分享了他们的经验和...

谷歌重磅发布Gemini 1.5 Pro:能自动写影评,理解视频!

随着人工智能技术的不断进步,AIGC(人工智能生成内容)领域正迎来新的发展高潮。谷歌最新发布的Gemini 1.5 Pro模型,标志着大型语言模型(LLM)在多模态理解...

如何从头开始编写LoRA代码,这有一份教程

本文介绍了一种名为 LoRA(Low-Rank Adaptation) 的微调技术,用于微调大语言模型(LLM)。LoRA 是一种流行的技术,通过仅更新一小部分低秩矩阵而不是整个神...

苹果大模型MM1杀入场:300亿参数、多模态、MoE架构,超半数作者是华人

苹果公司近期在生成式人工智能(GenAI)领域取得了显著进展,特别是在多模态大型语言模型(MLLM)的研究上。苹果CEO蒂姆·库克在2024年苹果股东大会上表示,公...

国内复现Sora并开源:成本降低46%,序列扩充近百万!

本文介绍了专注于AIGC领域的专业社区,关注微软 & OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地的情况。文章首先提到了OpenAI展示了...

揭开Groq LPU神秘面纱:世界最快硬件加速器的底层架构设计!

Groq, 一家创业公司,因其自研的硬件加速器LPU(Language Processing Unit)一夜爆火,实现了500个token/s的推理速度,秒杀了ChatGPT。这种性能的飞跃归功于...