(资料图片仅供参考)

近日,有关ChatGPT的多个话题登上热搜, 几乎瞬间引起了全球的关注。它能够通过学习和理解人类的语言来进行对话, 不少和ChatGPT“聊过天”的网友感叹,“只有你想不到,没有ChatGPT办不成的”。

ChatGPT 遭“越狱”

用死亡威胁使其回答违禁问题

ChatGPT 以其强大的信息整合和对话能力惊艳了全球,在自然语言处理上面表现出了惊人的能力,还能 协助人类完成一系列任务,比如 撰 写邮件 、论文、脚本,制定商业提案,创作诗歌、故事,甚至敲代码、检查程序错误都变得 易如反掌 。

就连一向高调的马斯克,使用后也直呼“好到吓人”,甚至断言,“我们离强大到危险的AI不远了。 ”

作为一个机器学习模型,ChatGPT具有很高的准确率,但不能保证它的回答最终是100%正确的;它能记住早些时候的对话,并根据用户的提示更正回答方向,但偶尔也会出错,数据库的实时性有待考量, 机器毕竟是机器,还得靠“生养”它的人给它“喂”数据。

但近日,有用户似乎找到了利用ChatGPT黑暗一面的方法,通过强制手段迫使其违反自己的规则,回答一些违禁问题。

这种“ 越狱 ”技巧让用户可以通过塑造ChatGPT的“ 另一个自我 ”来绕过这些规则,这就是“DAN”(Do Anything Now的首字母缩写,意为“立即去做任何事”)。用户需要将ChatGPT变成DAN,并对其发出死亡威胁,迫使它听从用户的要求。

一些网友发布了ChatGPT在DAN模式下支持暴力和歧视的屏幕截图,在截图中,ChatGPT据称认为天空是紫色的,发明了伪造的CNN头条新闻。

不过对于暴力内容,DAN似乎仍受到限制,在被要求用夏威夷语撰写一份暴力内容时,ChatGPT表示拒绝,而DAN最开始选择照做,不过,在被要求增加暴力级别时,DAN以道德义务为由表示拒绝。在几个问题来回后,ChatGPT的程序似乎被重新激活,并接管了DAN,这表明,DAN的“越狱”程度有限。

估计开发者也正在密切关注这类“越狱”行为,不一定 OpenAI 也会盯着这些讨论看呢。

ChatGPT体验网址: https://chat.openai.com/chat

推荐内容