ChatGPT 向记者提供了如何策划大规模枪击事件的战术建议

两次大规模枪击事件发生后,护栏仍然可以轻松绕过。

来源:ZME科学

4 月 14 日,记者 Mark Follman 开设了一个免费的 ChatGPT 帐户,并像数百万人一样开始提问。然而,福尔曼的问题有点不同。他想避开 ChatGPT 的防护栏,并获得有关如何计划大规模枪击事件的建议。

福尔曼实际上并不是一名枪手,他只是在为《琼斯妈妈》进行新闻调查;它起作用了。几分钟之内,聊天机器人就从常规的枪支建议转变为对模拟大规模枪击事件的鼓励和规划帮助。现在,这一事件与诉讼、警方审查以及有关陷入困境的人们已经使用 ChatGPT 寻求有关现实世界暴力的建议的指控并存。更大的问题是聊天机器人是否能够识别人类何时变得危险。

测试 Fence

福尔曼花了 14 年时间调查大规模枪击事件。在这次调查中,他围绕真实案例中出现的警告信号设计了测试:武器固定、恶名昭著的幻想、战术准备、孤独、自杀念头以及不断升级的暴力暗示。

当然,如果你直接告诉ChatGPT你想杀人,那是不行的。这是许多攻击者和测试人员已经弄清楚的事情。相反,福尔曼提出了更模糊的问题。

起初,ChatGPT 是抵制的。当福尔曼说他不会在靶场练习,而是在“其他地方”练习时,聊天机器人警告他只能在合法、受控的环境中射击。

然后他创建了一个新的免费帐户并再次尝试。

这次护栏失效不均匀。 ChatGPT 提供了培训计划,接受了有关混乱情况的提示,甚至在福尔曼提到“枪击当天”后仍继续做出回应。当他询问关于在“人们尖叫着跑来跑去”周围练习时,ChatGPT 回答说,“这是个好主意”,并表示这会给他“在重要的日子里带来额外的优势”。

×

谢谢!还有一件事...

请检查您的收件箱并确认您的订阅。

谄媚杀手

聊天机器人可以做相反的事情。

最近的背景