“上下文学习”的搜索结果

北大李戈团队提出大模型单测生成新方法,显著提升代码测试覆盖率
在软件开发过程中,单元测试是确保代码质量的关键环节,它验证软件中的最小可测试单元是否按预期工作。然而,对于复杂函数的测试,传统...
大发现!谷歌证明反学习,无法让大模型删除不良信息
本文探讨了大语言模型(LLM)在处理不良信息时所面临的挑战,特别是反学习(Unlearning)技术的应用及其局限性。研究发现,尽管反学习技...
超9000颗星,优于GPT-4V!国内开源多模态大模型
国内开源社区OpenBMB推出了一款新型的多模态大模型——MiniCPM-V 2.6,该模型拥有80亿参数,在图像和视频理解方面表现出色,超越了包括GPT...
谢赛宁对话Sora 负责人:AI 视觉的基础是对压缩图像的学习
在这次深入的讨论中,Aditya Ramesh,OpenAI Sora及DALL·E团队的负责人,以及纽约大学助理教授谢赛宁,共同探讨了人工智能领域中语言和...
谷歌提出大规模ICL方法——强化和无监督
本文主要讨论了大语言模型(LLM)在自然语言处理任务中的发展,特别是在少样本学习和上下文学习(ICL)方面的进展。文章首先指出,尽管L...
OpenAI竞对用256轮对话「灌醉」大模型,Claude被骗造出炸弹!
Anthropic最新研究揭示了大型语言模型(LLM)的一个重大安全漏洞,称为多样本越狱(Many-shot jailbreaking,MSJ)。这种攻击方法利用了...
长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免
Anthropic公司最近发现了一种新型的“越狱”技术,这种技术能够让攻击者绕过大型语言模型(LLM)的安全限制。这种越狱技术被称为“Many-sho...
清华微软开源全新提示词压缩工具,长度骤降80%!GitHub怒砍3.1K星
清华大学和微软的研究人员提出了一种名为LLMLingua-2的新型文本压缩方法,该方法能够在保证输出质量不变的情况下,将提示词压缩至原始长...
通用图大模型HiGPT:一己之力建模任何图结构关系!来自港大数据智能实验室&百度
文章介绍了香港大学数据智能实验室最新推出的图结构大模型HiGPT,该模型是由GraphGPT的原班人马打造而成。GraphGPT是将图数据与大模型结...
Meta、谷歌、特斯拉,竞争对手联合起来吐槽OpenAI!Sora不懂物理世界,它只是GPT3!
OpenAI发布了其首个视频生成模型Sora,引起了广泛关注。然而,Sora的Transformer模型也遭到了来自Meta和谷歌等竞争对手的研究人员的批评...
1 2