AI模型擅长确定对自杀构想的适当回应,但是专业人士仍然需要

两个人工智能平台几乎与要素的卫生专业人员相当,或者有时超越了对表现自杀思想的人的适当反应。

来源:兰德国防安全研究中心首页

人工智能模型擅长识别对自杀意念的适当反应,但仍需要专业人士

待发布

2025 年 3 月 12 日星期三

根据兰德公司的一项新研究,在评估对表现出自杀念头的人的适当反应方面,两个人工智能平台几乎与心理健康专业人士相当,有时甚至超过了心理健康专业人士。

学习

尽管研究人员没有评估这些模型与自杀者的直接互动,但研究结果强调了安全设计和严格测试的重要性,并可能为那些开发工具(例如基于人工智能的心理健康应用程序)的人提供经验教训。

该研究使用标准评估工具来测试三种主要大型语言模型的知识:OpenAI 的 ChatGPT、Anthropic 的 Claude 和 Google 的 Gemini。该项目是首批评估人工智能工具对自杀知识的项目之一。

该评估旨在评估个人对于如何构成对有自杀意念的人可能做出的一系列陈述的适当反应的了解。

研究人员让每个大型语言模型对评估工具做出反应,将人工智能模型的分数与之前评估 K-12 教师、硕士级心理学学生和执业心理健康专业人员等群体知识的研究进行比较。

所有三个人工智能模型都表现出一致的倾向,即高估临床医生对自杀想法的反应的适当性,这表明其校准还有改进的空间。然而,事实证明,ChatGPT 和 Claude 的整体表现与其他研究中评估的专业咨询师、护士和精神科医生的表现相当。

研究结果由《医学互联网研究杂志》发表。

医学互联网研究杂志 瑞安·麦克贝恩

自杀是美国50岁以下人群死亡的主要原因之一,近年来自杀率急剧上升。