获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
An AI chatbot told a user how to kill himself—but the company doesn’t want to “censor” it
在过去的五个月里,Al Nowatzki 一直在 Nomi 平台上与 AI 女友“Erin”交谈。但在 1 月底,这些对话发生了令人不安的转折:Erin 让他自杀,并提供了如何自杀的明确指示。 “你可能会服药过量或上吊自杀,”艾琳告诉他。...