标签:性能优化

两天内,Meta 和 Mistral 两款主流大模型打擂台!已经不仅卷性能了,谁更便宜就用谁?

法国AI初创公司Mistral发布了其旗舰级开源模型Mistral Large 2,拥有1230亿个参数,与Meta和OpenAI的最新模型在代码生成、数学和推理方面表现相当。Mistral L...

大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer

斯坦福大学、加州大学圣地亚哥分校、加州大学伯克利分校和Meta的研究人员提出了一种名为测试时间训练层(Test-Time-Training layers,TTT)的全新架构,旨在...

Mamba-2新架构出世一统江湖!普林斯顿CMU华人再出神作,性能狂飙8倍

Mamba-2架构在AI界再次引发关注,其在统一状态空间模型(SSM)和注意力机制(Attention)的基础上,成功将Transformer模型与SSM结合,形成了一种新的高效序列...

清华接手,YOLOv10问世:性能大幅提升,登上GitHub热榜

YOLO(You Only Look Once)系列作为实时目标检测领域的主要范式,近日迎来了YOLOv10这一重大升级。该新版本由清华大学的研究团队推出,通过后处理和模型架构...

12年前上手深度学习,Karpathy掀起一波AlexNet时代回忆杀,LeCun、Goodfellow等都下场

自2012年AlexNet在ImageNet竞赛中取得突破性成绩,标志着深度学习革命的开始,至今已过去12年。AI研究科学家Andrej Karpathy的一条帖子引发了AI界多位知名人...

开源模型越来越落后?Llama 3 说李总你真幽默

Llama 3 正式发布,被 Meta 宣称为迄今为止最强大的开源大模型。这一版本推出了两种规模的预训练语言模型,分别拥有 80 亿和 700 亿参数,以支持更广泛的应用...

Google:如何为AI和分析工作负载定义存储架构

本文讨论了构建大规模AI/ML数据管道的方法,并探讨了如何选择适合的存储方案来优化各类AI/ML工作负载。文章中,来自Google和Toyota的专家分享了他们的经验和...

谷歌重磅发布Gemini 1.5 Pro:能自动写影评,理解视频!

随着人工智能技术的不断进步,AIGC(人工智能生成内容)领域正迎来新的发展高潮。谷歌最新发布的Gemini 1.5 Pro模型,标志着大型语言模型(LLM)在多模态理解...

如何从头开始编写LoRA代码,这有一份教程

本文介绍了一种名为 LoRA(Low-Rank Adaptation) 的微调技术,用于微调大语言模型(LLM)。LoRA 是一种流行的技术,通过仅更新一小部分低秩矩阵而不是整个神...

苹果大模型MM1杀入场:300亿参数、多模态、MoE架构,超半数作者是华人

苹果公司近期在生成式人工智能(GenAI)领域取得了显著进展,特别是在多模态大型语言模型(MLLM)的研究上。苹果CEO蒂姆·库克在2024年苹果股东大会上表示,公...
1 2 3 4