标签:大语言模型
英伟达引爆AI PC革命,RTX给1亿打工人送算力!40系卡秒生百张图,「黑神话:悟空」画质爆表玩家颤抖
英伟达近期推出了一系列创新产品和服务,包括新的RTX GPU、AI推理微服务NIM、AI应用和工具等,以推动AI PC时代的到来。这些新产品和服务将为1亿RTX PC用户和...
英伟达推出NIM,可优化推理以实现大规模AI模型部署
本文介绍了专注于AIGC领域的专业社区,关注微软 & OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地的情况。ChatGPT的出现加速了生成式AI...
总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述
机器之心编辑部撰写的这篇文章主要讨论了大语言模型(LLMs)的知识蒸馏技术及其在研究和工业界中的应用。文章首先指出,尽管闭源LLMs如GPT-4、Gemini和Claude...
350亿参数、开放权重,Transformer作者创业后推出新大模型
Cohere公司推出了新的大语言模型Command-R,该模型具有35B的参数量,属于可扩展模型类别,平衡了高效率和高精度,适用于大规模生产工作负载。Command-R针对检...
当prompt策略遇上分治算法,南加大、微软让大模型炼成「火眼金睛」
摘要总结:本文探讨了大语言模型(LLMs)在处理复杂任务时的局限性,并提出了一种新的基于分治算法的提示策略(Divide-and-Conquer, DaC),以提高模型在面对...
国内复现Sora并开源:成本降低46%,序列扩充近百万!
本文介绍了专注于AIGC领域的专业社区,关注微软 & OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地的情况。文章首先提到了OpenAI展示了...
ICLR 2024 Spotlight | 大语言模型权重、激活的全方位低bit可微量化,已集成进商用APP
摘要:本文介绍了一种名为OmniQuant的新型大语言模型(LLM)量化算法。该算法由上海人工智能实验室、香港大学和香港中文大学的研究者共同提出,旨在解决大语...
超越英伟达!字节跳动MegaScale如何实现大规模GPU的高效利用?
在2024年2月,字帖跳动发布了一篇关于大语言模型训练框架的论文《MegaScale: Scaling Large Language Model Training to More Than 10,000 GPUs》。MegaScale...
数量即力量!腾讯揭秘:Agent数量越多,大语言模型效果越好
本文介绍了腾讯研究者们在大语言模型(LLM)的可拓展性(scaling property)方面的新发现。研究者们通过简单的采样投票方法,证明了LLM的性能会随着实例化age...
MATRIX:社会模拟推动大模型价值自对齐,比GPT4更「体贴」
摘要总结:随着大语言模型(LLMs)的快速发展,如何确保它们与人类价值观对齐,避免社会负面影响成为一个重要议题。本文介绍了上海交通大学和上海人工智能实...