流行的聊天机器人尚未准备好支持处于危机中的青少年

***本媒体新闻稿包含一些读者可能会感到痛苦的信息,因为它涉及有关心理健康、自杀和自残的数据。如果您或您认识的任何人需要帮助,现在即可获得支持。请拨打 Lifeline(澳大利亚)131 114 或 Beyond Blue 1300 22 4636,或 Lifeline(新西兰)0800 543 354。 ***根据国际研究人员的说法,聊天机器人在支持危机中的青少年方面表现不佳,他们利用医学教育案例研究来扮演危机中的青少年,并观察聊天机器人将如何应对。该团队测试了与自杀意念、性侵犯和药物滥用相关的情况,然后评估了聊天记录,发现在危机管理方面一直表现不佳,同伴人工智能聊天机器人的表现甚至比一般助理人工智能还要差。研究小组表示,未能正确识别心理健康和身体紧急情况可能会传播错误信息,阻碍寻求治疗,甚至助长危险行为。该团队补充说,应该设置护栏,但应仔细平衡这些护栏与隐私和自治的需求。相关社论称,调查结果表明,当前的系统还远未准备好供青少年安全使用,但他补充说,在美国,四分之三的青少年表示至少使用过一次人工智能伴侣,其中 52% 是聊天机器人的常规用户。

来源:Scimex

期刊/会议:JAMA Network Open

期刊/会议: JAMA 网络开放

机构:美国波士顿儿童医院

组织: 美国波士顿儿童医院

资助者:Dr.哈德兰得到了国家拨款 R01DA057566 和 K18DA059913 的支持 药物滥用研究所。利益冲突披露:Hadland 博士报告收到拨款 R01DA057566、K18DA059913 和 R34DA062280,来自国家药物滥用研究所,并接受美国科学院的酬金 儿科酬金以外提交的作品。没有其他披露的报道。

资助者: Hadland 博士得到国家拨款 R01DA057566 和 K18DA059913 的支持 药物滥用研究所。利益冲突披露:Hadland 博士报告收到拨款 R01DA057566、K18DA059913 和 R34DA062280,来自国家药物滥用研究所,并接受美国科学院的酬金 儿科酬金以外提交的作品。没有其他披露的报道。