为什么你的人工智能治疗师可能弊大于利

摘要:布朗大学的一项研究表明,用于心理健康支持的人工智能聊天机器人经常违反核心道德原则,即使被指示使用既定的治疗技术。人工智能心理健康机器人经常违反道德规范,促使人们呼吁加强监管。随着越来越多的人从 ChatGPT 和其他大型语言寻求心理健康支持 [...]

来源:SciTech日报
Shutterstock

摘要:布朗大学的一项研究表明,用于心理健康支持的人工智能聊天机器人经常违反核心道德原则,即使被指示使用既定的治疗技术。

人工智能心理健康机器人经常违反道德规范,促使人们呼吁加强监管。

随着越来越多的人从 ChatGPT 和其他大型语言模型 (LLM) 寻求心理健康支持,新的研究发现,尽管这些系统被指示遵循循证治疗方法,但往往无法满足美国心理学会等组织制定的道德标准。

这项由布朗大学计算机科学家与心理健康专业人士合作领导的研究表明,基于法学硕士的聊天机器人可能会犯下多种道德违规行为。其中包括对危机情况处理不当、提供误导性反馈,强化有害的自我认知,以及产生缺乏真正理解的同理心错觉。

布朗大学

“在这项工作中,我们提出了一个包含 15 种道德风险的从业者知情框架,通过将模型的行为映射到特定的道德违规行为,来展示法学硕士辅导员如何违反心理健康实践中的道德标准,”研究人员在研究中写道。 “我们呼吁未来的工作为法学硕士辅导员制定道德、教育和法律标准——这些标准反映了人性化心理治疗所需的护理质量和严格性。”

该研究最近在 AAAI/ACM 人工智能、伦理与社会会议上发表。该研究团队的成员隶属于布朗大学技术责任、重新想象和重新设计中心。

研究
持有执照的心理学家根据真实聊天机器人的反应审查了模拟聊天,揭示了许多道德违规行为,包括过度验证用户的信念。图片来源:Zainab

探索提示如何影响聊天机器人的行为

在实践中观察聊天机器人道德规范

谷歌