标签:性能提升
数量即力量!腾讯揭秘:Agent数量越多,大语言模型效果越好
本文介绍了腾讯研究者们在大语言模型(LLM)的可拓展性(scaling property)方面的新发现。研究者们通过简单的采样投票方法,证明了LLM的性能会随着实例化age...
老黄祭出全新RTX 500 GPU,AIGC性能狂飙14倍!AI应用的门槛彻底被打下来了
在2024年的世界移动大会上,英伟达发布了其移动工作站GPU产品线的最后两款产品:RTX 500 Ada和RTX 1000 Ada。这两款入门级移动工作站GPU的发布,标志着英伟达...
用扩散模型生成神经网络?NUS 尤洋团队:这不是开玩笑
摘要:新加坡国立大学尤洋团队、加州大学伯克利分校和Meta AI Research共同发布了一项名为“Neural Network Diffusion”的研究,该研究利用扩散模型生成神经网...
RAG开发中常见的12个痛点及解决方案
本文主要探讨了在开发检索增强生成(RAG)系统时可能遇到的九大难题,以及相应的解决策略。这些问题包括内容缺失、遗漏重要文档、脱离上下文的挑战、信息提取...
行业大模型也不稳了?微软首席科学家撰文:仅利用提示词GPT-4就超越了专业领域模型的水平
微软首席科学家Eric Horvitz发布了一篇名为《The Power of Prompting》的博客文章,探讨了如何通过提示词工程提高GPT-4的性能。研究发现,在相同的基准上,利...
OpenAI出手后,GPT-4真的不懒了?网友不买账:只靠打补丁恐怕无济于事!
用户曾抱怨GPT-4在高峰期表现不佳,给出模糊答案或使用占位符,这些问题被认为是模型“学会偷懒”。社区用户jonathanallengrant和manchkiran等人对此提出了批评...