标签:安全漏洞

提示词用上“过去式“,秒破GPT4o等六大模型安全限制!中文语境也好使

洛桑联邦理工学院的最新研究揭示了大型语言模型在安全措施上的一个新漏洞。研究发现,通过将请求中的时间设置为过去时态,可以显著提高对GPT-4o模型的攻击成...

多忽悠几次AI全招了!Anthropic警告:长上下文成越狱突破口,GPT羊驼Claude无一幸免

近期,Anthropic公司的研究人员发现,随着大型语言模型上下文窗口长度的增加,模型的安全性问题再次凸显,即所谓的“越狱”现象。这一现象意味着模型可能会生成...