标签:机器之心
拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造
这篇文章介绍了一系列关于图像编辑的研究成果,其中包括了 DragGAN、DragDiffusion 和 StableDrag 三个项目。首先介绍了 DragGAN 项目,该项目通过拖拽鼠标实...
ICLR 2024 | 无需训练,Fast-DetectGPT让文本检测速度提升340倍
以下是使用HTML元素标记的重点词语和句子:近年来大语言模型的快速发展对人类社会产生了深远影响,但其误用也带来了虚假信息、剽窃等问题。现有的机器生成文本...
马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载
马斯克旗下的大模型公司xAI宣布正式开源了3140亿参数的混合专家(MoE)模型「Grok-1」,这是目前参数量最大的开源大语言模型。Grok-1模型从头开始训练,没有...
没等来OpenAI,等来了Open-Sora全面开源
机器之心编辑部近期报道了OpenAI Sora视频生成模型的开源进展。Sora因其出色的视频生成效果而受到全球关注。在成本降低46%的Sora训练推理复现流程发布两周后...
COLING24|自适应剪枝让多模态大模型加速2-3倍,哈工大等推出SmartTrim
本文介绍了哈工大联合度小满推出的针对多模态模型的自适应剪枝算法 SmartTrim,该算法旨在解决基于 Transformer 结构的视觉语言大模型(VLM)在实际环境中部...
首个AI软件工程师Devin完整技术报告出炉,还有人用GPT做出了「复刻版」
Cognition AI 团队最近发布了首个 AI 软件工程师 Devin,这一事件在 AI 社区引起了广泛关注,并引发了对程序员职业未来前景的讨论。Devin 的能力通过 SWE-ben...
如何把大模型压缩到1bit?论文作者这样说
这篇文章讨论了对大模型进行压缩的重要性,尤其是在部署代价高昂的情况下。模型量化是一种压缩方法,通过将大模型的参数转换为低位宽的表示来节省空间占用。...
总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述
机器之心编辑部撰写的这篇文章主要讨论了大语言模型(LLMs)的知识蒸馏技术及其在研究和工业界中的应用。文章首先指出,尽管闭源LLMs如GPT-4、Gemini和Claude...
一句指令就能冲咖啡、倒红酒、锤钉子,清华具身智能CoPa「动」手了
本文介绍了清华大学叉院高阳教授机器人研究团队最新提出的具身智能框架CoPa(Robotic Manipulation through Spatial Constraints of Parts),该框架利用视觉...