详细内容或原文请订阅后点击阅览
ChatGPT 可以取代治疗师吗?专家警告道德风险
像 ChatGPT 这样的人工智能聊天机器人可以模拟同理心并提供对话支持,但它们仍然缺乏真正治疗所需的道德保障、情境理解和问责制。随着技术的发展,仔细的监管和严格的测试对于确保人工智能帮助人们而不造成意外伤害至关重要。专家警告说,ChatGPT 可能会在治疗中带来道德风险,包括偏见、误导性同理心和不安全的心理健康建议。一个人在笔记本电脑上与人工智能聊天机器人进行类似治疗的对话、数字大脑和聊天气泡、有关道德和安全的警告符号。ChatGPT 作为治疗师:新研究揭示了严重的道德风险人工智能工具,如ChatGPT 和其他人工智能聊天机器人越来越多地用于情感支持、自我反思,甚至治疗式对话。现在,数百万人在感到压力、焦虑或不知所措时转向人工智能。这些工具易于访问、24/7 可用,而且常常让人感觉不带评判性。但一项新的学术研究表明,依靠人工智能提供心理健康建议可能会带来严重的道德问题。布朗大学的研究人员最近分析了人工智能聊天机器人在被提示像训练有素的治疗师一样行事时的行为方式。他们的发现令人不安。这些系统被指示遵循既定的心理治疗技术,例如认知行为疗法或辩证行为疗法。模型多次未能满足职业心理健康
来源:The Scientific World | 让我们一起来探索科学的世界像 ChatGPT 这样的人工智能聊天机器人可以模拟同理心并提供对话支持,但它们仍然缺乏真正治疗所需的道德保障、情境理解和问责制。
随着技术的发展,仔细的监管和严格的测试对于确保人工智能帮助人们而不造成意外伤害至关重要。
专家警告说,ChatGPT 可能会在治疗中带来道德风险,包括偏见、误导性同理心和不安全的心理健康建议。
ChatGPT 作为治疗师:新研究揭示了严重的道德风险
像 ChatGPT 和其他人工智能聊天机器人这样的人工智能工具越来越多地用于情感支持、自我反思,甚至治疗式对话。
现在,数百万人在感到压力、焦虑或不知所措时转向人工智能。这些工具易于访问、24/7 可用,而且常常让人感觉不带评判性。
但一项新的学术研究表明,依靠人工智能提供心理健康建议可能会带来严重的道德问题。
布朗大学的研究人员最近分析了人工智能聊天机器人在被提示像训练有素的治疗师一样行事时的行为方式。他们的发现令人不安。
系统被指示遵循既定的心理治疗技术,例如认知行为疗法或辩证行为疗法。这些模型多次未能满足美国心理学会等组织制定的专业心理健康道德标准。
该研究确定了与人工智能咨询系统相关的 15 种不同的道德风险。这些风险包括危机情况处理不当、强化有害信念、表现出偏见以及使用研究人员所说的“欺骗性同理心”。
虽然人工智能有可能扩大获得心理健康支持的机会,但该研究强调了为什么在人工智能治疗工具普及之前迫切需要谨慎和适当的监管。
人工智能在心理健康支持方面的增长趋势
有几个因素可以解释为什么人们转向人工智能进行类似治疗的对话:
