标签:性能优化

如何从头开始编写LoRA代码,这有一份教程

本文介绍了一种名为 LoRA(Low-Rank Adaptation) 的微调技术,用于微调大语言模型(LLM)。LoRA 是一种流行的技术,通过仅更新一小部分低秩矩阵而不是整个神...

苹果大模型MM1杀入场:300亿参数、多模态、MoE架构,超半数作者是华人

苹果公司近期在生成式人工智能(GenAI)领域取得了显著进展,特别是在多模态大型语言模型(MLLM)的研究上。苹果CEO蒂姆·库克在2024年苹果股东大会上表示,公...

国内复现Sora并开源:成本降低46%,序列扩充近百万!

本文介绍了专注于AIGC领域的专业社区,关注微软 & OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地的情况。文章首先提到了OpenAI展示了...

揭开Groq LPU神秘面纱:世界最快硬件加速器的底层架构设计!

Groq, 一家创业公司,因其自研的硬件加速器LPU(Language Processing Unit)一夜爆火,实现了500个token/s的推理速度,秒杀了ChatGPT。这种性能的飞跃归功于...
1 4 5 6