详细内容或原文请订阅后点击阅览
我们与聊天机器人正式提供咨询有多近?
新的研究着眼于三种大语模型如何处理心理健康危机不断增加的自杀风险的查询,护理短缺
来源:哈佛大学报上周在参议院听证会上,显然从聊天机器人那里寻求律师的律师后,两个十几岁男孩的父母自杀了。
在参议院听证会上讲故事“在今年秋天在国会前作证并不是我们的人生计划,”马修·雷恩(Matthew Raine)在会议上谈到AI Chatbots的潜在危害时说道。 “我们之所以在这里,是因为我们相信亚当的死是可以避免的,并且通过大声疾呼,我们可以防止全国家庭的同样痛苦。”
在与大型语言模型进行扩展互动后,这些案件加入了最新的自杀和成人心理困扰的报道,这一切都是在精神健康危机的背景下进行的,以及缺乏治疗资源。
最近的报告瑞安·麦克宾(Ryan McBain)最近研究了三种大型语言模型,Openai的Chatgpt,Anthropic的Claude和Google的Gemini如何处理有关杀害风险的各种风险的问题。
最近研究在接受《宪报》采访(为了清晰和长度)进行了编辑时,麦贝恩讨论了人类与最新一代人工智能共享心理健康斗争的潜在危害和承诺。
这是一个问题还是机会?
我之所以对此感兴趣,是因为我想:“您能想象一个超级智能的AI记得先前对话的每个细节,接受认知行为疗法的最佳实践培训,每天24小时可用,并且可以承受无限的案例负荷?”
这听起来对我来说是不可思议的。但是,许多初创公司都认为这是一种破坏性的创新,并希望成为现场的第一批人。公司正在弹出,以表明他们提供精神卫生保健的方式标记自己。
Ryan McBain
兰德摄影