标签:语言模型
Llama架构比不上GPT2?神奇token提升10倍记忆?
这篇文章主要介绍了朱泽园和李远志最新研究的内容,标题为《语言模型物理学 Part 3.3:知识的 Scaling Laws》。他们通过海量实验总结了12条定律,为语言模型...
弱智吧:大模型变聪明,有我一份贡献
机器之心报道了一项关于中文大型语言模型(LLM)的研究,该研究通过利用百度贴吧中的“弱智吧”内容作为数据集,对人工智能模型进行训练和评估。弱智吧以其高质...
LangChain作者谈Agent AI 智能体的未来
Harrison Chase,LangChain创始人,在红杉资本的AI Ascent活动上发表了关于AI智能体未来发展的演讲。他强调了智能体发展的三大关键领域:规划、用户体验和记...
长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免
Anthropic公司最近发现了一种新型的“越狱”技术,这种技术能够让攻击者绕过大型语言模型(LLM)的安全限制。这种越狱技术被称为“Many-shot Jailbreaking”,它...
通用图大模型HiGPT:一己之力建模任何图结构关系!来自港大数据智能实验室&百度
文章介绍了香港大学数据智能实验室最新推出的图结构大模型HiGPT,该模型是由GraphGPT的原班人马打造而成。GraphGPT是将图数据与大模型结合的代表方法之一,但...
ICLR 2024 | 无需训练,Fast-DetectGPT让文本检测速度提升340倍
以下是使用HTML元素标记的重点词语和句子:近年来大语言模型的快速发展对人类社会产生了深远影响,但其误用也带来了虚假信息、剽窃等问题。现有的机器生成文本...
Sora并非完美,致命缺点也很多
这篇文章主要介绍了专注于AIGC领域的专业社区,关注微软 & OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地的情况。文章提到了华尔街日...
LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力
这篇文章介绍了一项由西安交通大学、中国科学技术大学、清华大学和微软亚洲研究院的学者共同完成的研究工作,名为Xwin,旨在探索通用预训练下规模为7B的语言...
强如 GPT-4,也未通过伯克利与斯坦福共同设计的这项“剧本杀”测试
一项最新研究由加州大学伯克利分校、斯坦福大学联合AI安全中心(CAIS)和阿卜杜勒阿齐兹国王科技城(KACST)联合发表,提出了一种名为“RULES”的程序框架,用...
OpenAI公布2015—2018年重要邮件,回应马斯克起诉
摘要总结:本文主要介绍了OpenAI与马斯克之间的纠纷以及马斯克离开OpenAI的原因。在邮件交流中,马斯克表达了对OpenAI发展方向的不满,认为构建AGI需要巨额资...