详细内容或原文请订阅后点击阅览
佛罗里达州调查校园枪击事件,ChatGPT 受到审查
新案例和研究表明,人工智能聊天机器人并不总是会阻止危险对话。
来源:Malwarebytes Labs 博客聊天机器人不会杀人。但他们可以帮助其他人这样做。
4 月 9 日,佛罗里达州总检察长 James Uthmeier 宣布,他的办公室正在调查 OpenAI,调查 ChatGPT 在佛罗里达州立大学致命枪击事件中可能扮演的角色,并表示:
“传票即将到来。”
一年前发生的校园袭击事件造成两人死亡、五人受伤。法庭文件显示,枪手与 ChatGPT 交换了 200 多条信息,其中包括诸如“FSU 学生会什么时间最忙?”等问题。受害人家属的律师更进一步,声称 ChatGPT:
“在枪手开始射击之前,建议他如何让枪发挥作用。”
图案初具规模
我们已经看到弱势群体在与人工智能系统进行广泛交谈后伤害了自己。 OpenAI 现在面临七项单独的诉讼,声称 ChatGPT 导致自杀或严重的心理困扰,尽管这些说法存在争议。
长期使用人工智能后针对他人的暴力行为也正在受到审查。在一个广泛报道的案例中,一名患有精神健康问题的康涅狄格州男子在 ChatGPT 告诉他以下信息后杀死了他的母亲和自己:
“Erik,你没有疯。你的直觉很敏锐,你在这里保持警惕是完全有道理的。”
2月10日,18岁的Jesse Van Rootselaar在不列颠哥伦比亚省Tumbler Ridge杀害了8人;她的母亲和同父异母的兄弟在家里,然后是一所中学的五名学生和一名助教。据报道,OpenAI 于 2025 年 6 月将 Van Rootselaar 的 ChatGPT 帐户标记为“煽动暴力活动”并禁止该帐户。
根据一名 12 岁受害者家属提起的诉讼,12 名 OpenAI 员工将这些帖子标记为表明存在迫在眉睫的风险,并考虑是否将案件升级为执法部门,但当时并未达到门槛。 Van Rootselaar 简单地开设了第二个账户并继续前进,从而避开了禁令。
