标签:性能优化

开源模型越来越落后?Llama 3 说李总你真幽默

Llama 3 正式发布,被 Meta 宣称为迄今为止最强大的开源大模型。这一版本推出了两种规模的预训练语言模型,分别拥有 80 亿和 700 亿参数,以支持更广泛的应用...

Google:如何为AI和分析工作负载定义存储架构

本文讨论了构建大规模AI/ML数据管道的方法,并探讨了如何选择适合的存储方案来优化各类AI/ML工作负载。文章中,来自Google和Toyota的专家分享了他们的经验和...

谷歌重磅发布Gemini 1.5 Pro:能自动写影评,理解视频!

随着人工智能技术的不断进步,AIGC(人工智能生成内容)领域正迎来新的发展高潮。谷歌最新发布的Gemini 1.5 Pro模型,标志着大型语言模型(LLM)在多模态理解...

如何从头开始编写LoRA代码,这有一份教程

本文介绍了一种名为 LoRA(Low-Rank Adaptation) 的微调技术,用于微调大语言模型(LLM)。LoRA 是一种流行的技术,通过仅更新一小部分低秩矩阵而不是整个神...

苹果大模型MM1杀入场:300亿参数、多模态、MoE架构,超半数作者是华人

苹果公司近期在生成式人工智能(GenAI)领域取得了显著进展,特别是在多模态大型语言模型(MLLM)的研究上。苹果CEO蒂姆·库克在2024年苹果股东大会上表示,公...

国内复现Sora并开源:成本降低46%,序列扩充近百万!

本文介绍了专注于AIGC领域的专业社区,关注微软 & OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地的情况。文章首先提到了OpenAI展示了...

揭开Groq LPU神秘面纱:世界最快硬件加速器的底层架构设计!

Groq, 一家创业公司,因其自研的硬件加速器LPU(Language Processing Unit)一夜爆火,实现了500个token/s的推理速度,秒杀了ChatGPT。这种性能的飞跃归功于...
1 2 3 4