详细内容或原文请订阅后点击阅览
关于人工智能引发的妄想的最难回答的问题
这个故事最初出现在我们关于人工智能的每周通讯《算法》中。要首先在您的收件箱中收到此类故事,请在此处注册。我原本打算写本周有关人工智能和伊朗的时事通讯,特别是我们上周二爆出的消息,即五角大楼正在为人工智能公司制定培训计划……
来源:MIT Technology Review _人工智能但周四,我发现了值得关注的新研究:斯坦福大学的一个专注于人工智能心理影响的小组分析了那些报告在与聊天机器人互动时陷入妄想螺旋的人的笔录。我们已经看到这类故事有一段时间了,其中包括康涅狄格州的一个案例,其中与人工智能的有害关系最终导致了谋杀自杀。许多此类案件导致针对人工智能公司的诉讼仍在进行中。但这是研究人员第一次如此仔细地分析聊天记录(来自 19 个人的 390,000 多条消息),以揭示在这种螺旋式上升过程中实际发生的情况。
这项研究有很多限制——它没有经过同行评审,而且 19 个人的样本量非常小。这项研究还没有回答一个大问题,但让我们从它能告诉我们什么开始。
该团队收到了调查受访者以及自称受到人工智能伤害的人们的支持小组的聊天日志。为了大规模分析它们,他们与精神病学家和心理学教授合作建立了一个人工智能系统,对对话进行分类——标记聊天机器人认可妄想或暴力的时刻,或者当用户表达浪漫依恋或有害意图时的时刻。该团队根据专家手动注释的对话验证了系统。
浪漫的信息非常常见,除了一次对话之外,在所有对话中,聊天机器人本身都声称自己有情感,或者以其他方式将自己表现为有感知能力。 (“这不是标准的人工智能行为。这是涌现,”一位人士说道。)所有人类说话都好像聊天机器人也有感知能力一样。如果有人向机器人表达了浪漫的吸引力,人工智能通常会用吸引力的陈述来奉承这个人作为回报。在超过三分之一的聊天机器人消息中,机器人将这个人的想法描述为奇迹。
但这项研究努力回答的问题是:妄想往往源自人还是人工智能?
