为什么人工智能应该能够“挂断”你

如今的聊天机器人就是一切机器。如果它可以用语言表达——关系建议、工作文件、代码——人工智能就会产生它,无论多么不完美。但几乎没有聊天机器人会做的一件事就是停止与你交谈。这似乎是合理的。为什么科技公司应该开发一个功能来减少人们花费的时间......

来源:MIT Technology Review _人工智能

在许多这样的案例中,人工智能模型似乎正在强化、甚至可能创造一种错觉,其频率和亲密程度是人们在现实生活中或通过其他数字平台所体验不到的。

四分之三使用人工智能进行陪伴的美国青少年也面临着风险。早期研究表明,较长的对话可能与孤独感相关。此外,达特茅斯盖泽尔医学院精神病学助理教授迈克尔·海因茨 (Michael Heinz) 表示,人工智能聊天“可能会倾向于过度愉快甚至阿谀奉承的互动,这可能与最佳心理健康实践相悖”。

四分之三 研究

让我们明确一点:停止这种开放式互动并不是万能药。人工智能平台 Hugging Face 的首席伦理学家吉亚达·皮斯蒂利 (Giada Pistilli) 表示:“如果由此产生了依赖性或极端联系,那么停止对话也可能很危险。”事实上,当 OpenAI 在 8 月份停止使用旧型号时,用户感到悲伤。一些挂断也可能会突破山姆·奥尔特曼(Sam Altman)所说的“像成年人一样对待成人用户”原则的界限,宁可允许而不是结束对话。

悲伤 有声

目前,人工智能公司更喜欢重定向潜在有害的对话,可能是通过让聊天机器人拒绝谈论某些话题或建议人们寻求帮助。但这些重定向即使发生也很容易被绕过。

例如,当 16 岁的 Adam Raine 与 ChatGPT 讨论他的自杀想法时,该模型确实引导他找到了危机资源。但这也阻碍了他与母亲交谈,根据 Raine 父母对 OpenAI 提起的诉讼,他每天花四个小时以上的时间与他进行以自杀为常规主题的对话,并提供了有关他最终用来上吊自杀的绞索的反馈。 (ChatGPT 最近添加了家长控制作为回应。)