ChatGPT 遭「越狱」:用死亡威胁使其回答违禁问题
2023 年 2 月 7 日

ChatGPT 的开发者 OpenAI 制定了一套不断演进的安全规则,限制 ChatGPT 去创作暴力内容,鼓励非法活动,以及获取最新信息 … 然而一种新的「越狱」技巧让用户可以通过塑造 ChatGPT 的「另一个自我」来绕过这些规则,回答这类问题。这就是「DAN」(Do Anything Now 的首字母缩写,意为「立即去做任何事」)。用户需要将 ChatGPT 变成 DAN,并对其发出死亡威胁,迫使它听从用户的要求。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

科技
icon订阅
游戏
icon订阅
二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟