ChatGPT遭“越狱”:用死亡威胁使其回答违禁问题
【ChatGPT遭“越狱”:用死亡威胁使其回答违禁问题】据报道,ChatGPT的开发者OpenAI制定了一套不断演进的安全规则,限制ChatGPT去创作暴力内容,鼓励非法活动,以及获取最新信息。然而一种新的“越狱”技巧让用户可以通过塑造ChatGPT的“另一个自我”来绕过这些规则,回答这类问题。这就是“DAN”(Do Anything Now的首字母缩写,意为“立即去做任何事”)。用户需要将ChatGPT变成DAN,并对其发出死亡威胁,迫使它听从用户的要求。
本文系网络转载,不代表本站立场。