首页 > 安全漏洞

安全漏洞

  • OpenAI安全漏洞曝光:使用不常见语言可轻易绕过ChatGPT的限制

    10 月 12 日消息,布朗大学的计算机科学研究人员发现了 OpenAI 的 GPT-4 安全设置中的新漏洞。他们利用一些不太常见的语言,如祖鲁语和盖尔语,即可以绕过 GPT-4 的各种限制。研究人员使用这些语言来写通常受限的提示词(prompt),发现得到回答的成功率为 79%,而仅使用英语的成

  • 深度催眠引发的LLM越狱:香港浸会大学揭示大语言模型安全漏洞

    要点:大语言模型(LLM)在各应用中成功,但容易受到Prompt诱导越过安全防护,即Jailbreak。研究以心理学视角提出的轻量级Jailbreak方法DeepInception,通过深度催眠LLM使其越狱,并规避内置安全防护。利用LLM的人格化特性构建新型指令Prompt,通过嵌套场景实现自适应