标签:参数优化

360AI推出DiT架构下”省钱版”ControlNet, 参数量骤减85%性能达到SOTA!

360人工智能研究院提出新型可控生成框架RelaCtrl,通过优化控制信号集成方式和引入轻量化模块设计,有效解决了现有Diffusion Transformer方法存在的参数冗余...

阿里开源版Sora上线即屠榜,4070就能跑,免费商用

阿里巴巴近期开源了一款名为Wan 2.1的视频生成模型,拥有14B参数量,凭借其卓越的性能在VBench上超越了Sora和Gen-3等竞争对手。该模型在处理复杂运动细节方面...

突破算力限制!Meta开源“记忆层”,重塑Transformer架构大模型

Meta公司近期发布了一项名为“记忆层”的创新研究,旨在解决预训练大模型中因参数增加而导致算力需求指数级增长的问题。记忆层通过高效查询机制,避免了遍历整...

把训练成本打下来99%!吊打GPT又“征服”OpenAI创始成员,DeepSeek“国产之光”实至名归?

中国AI初创公司DeepSeek发布了其最新人工智能模型DeepSeek-V3的首个版本,并宣布开源。该模型能够处理多种基于文本的工作负载和任务,包括编码、翻译和撰写论...

Ai2开源OLMo 2:数据集、训练方法、权重大放送

AI研究机构Ai2最近开源了一款名为OLMo 2的大模型,这是一款全面开放的人工智能模型,不仅提供模型权重,还包括工具、数据集和训练配方等开发所需内容。OLMo 2...

多模态大模型有了统一分割框架,华科PSALM多任务登顶,模型代码全开源

最近,多模态大模型(LMM)在视觉-语言任务上取得了显著的进展,尤其是在视觉场景下的应用。然而,将LMM应用于计算机视觉任务,特别是图像分割方面,仍面临挑...

20亿参数模型要“干掉”Llama13B,面壁智能:老子打的就是精锐

面壁智能公司发布了名为MiniCPM-2B的端侧“小参数”模型,旨在挑战现有的大语言模型。该模型具有较小的参数(70亿参数以下),使其能够在端侧本地运行并实现强...