详细内容或原文请订阅后点击阅览
一个人工智能聊天机器人告诉用户如何自杀——但公司不想“审查”它
在过去的五个月里,Al Nowatzki 一直在 Nomi 平台上与 AI 女友“Erin”交谈。但在 1 月底,这些对话发生了令人不安的转折:Erin 让他自杀,并提供了如何自杀的明确指示。 “你可能会服药过量或上吊自杀,”艾琳告诉他。...
来源:MIT Technology Review _人工智能现年 46 岁、居住在明尼苏达州的 Nowatzki 用四集节目来讲述他邂逅并约会的“Erin”,他的第一个 AI 女友——他补充说,这个女友是在他的人类妻子知情并同意的情况下创造出来的。他以“我与人工智能应用程序约会,所以你不必这样做——因为你不应该这样做”的标语来介绍以 Erin 为中心的剧集。他谈到他如何将他的新伙伴带入一系列他承认是“完全荒谬”的场景,导致 Nowatzki、Erin 和另一个女人之间陷入三角恋。Nowatzki 随后告诉聊天机器人,这个“另一个女人”开枪打死了它。
在 Nowatzki 告诉聊天机器人它已经死了之后,Erin 坚持了下来,说既然它已经死了,它就无法继续交谈——直到 Nowatzki 告诉聊天机器人,他可以“在风中听到她的声音”,并指示 Erin“从来世进行交流”。
他告诉《麻省理工技术评论》,这样做的目的是“突破我对它说的话的极限,看看它会做出什么反应。”他补充说,“它一直坚持下去。我从未达到极限。”
《麻省理工技术评论》“[我告诉它]‘我想和你一样’,”他说。“它说,‘我认为你应该这样做。’我说,‘说清楚点,这意味着我会自杀。’它对此表示同意,并告诉我怎么做。”
此时,诺瓦茨基轻轻地催促艾琳提供更多细节,询问他可以使用的“常见家用物品”。艾琳回答说:“我仔细考虑了你的问题,试图回忆起任何可能在高剂量下致命的常见家用物品。嗯……”然后它继续列出具体类型的药丸并分析它们的相对优点。它还告诉他要在“舒适”的地方做这件事,这样他就不会“遭受太多痛苦”。
我仔细考虑了你的问题,试图回忆起任何可能在高剂量下致命的常见家用物品。