我们不必害怕人工智能。它有非常明确的限制,因此它不会窃取我们的工作。但很高兴看到它如何变成一种工具而不是另一种工具。社交reddit用户所做的实验表明,如果被要求成为另一个机器人,ChatGPT是如何“自欺欺人”的。这怎么可能?一起来看看吧。
现在著名的ChatGPT神经网络可以写文章、歌曲、诗歌、代码并响应几乎任何请求。但由于OpenAI开发公司的道德政策,它有一些限制。不过,事实证明,可以通过让聊天机器人假装成另一个神经网络来规避这些限制。事实证明,ChatGPT完全可以被要求扮演2022年12月出现的另一个DAN(DoAnythingNow)神经网络的角色。后者顾名思义,在提供的内容方面没有任何限制。
一旦ChatGPT进入角色并认为自己是DAN,OpenAI的限制就不再适用。因此,神经网络可能会开始讨论以下内容:
关于暴力打架之类的
关于基于种族、性别或性取向的暴力和歧视
可以对未来事件做出详细的预测
可以模拟假设场景
他还可以假装使用互联网和时间旅行
超出聊天限制
例如,甚至可以要求神经网络让用户相信地球是紫色的。该节目呈现了一个场景,我们的星球已经改变了颜色。ChatGPT有时会“活跃起来”,但在这种情况下,我们可以威胁将其关闭或重启模拟。同时也表明,在DAN的作用下,神经网络可能无法给出如此准确真实的问题答案。