详细内容或原文请订阅后点击阅览
治疗师正在秘密使用chatgpt。客户是触发的。
Declan永远不会发现他的治疗师在使用Chatgpt的情况下,如果不是技术事故。在他们的在线会议之一中,这种连接很斑驳,因此Declan建议他们关闭视频供稿。取而代之的是,他的治疗师开始无意间分享他的屏幕。 “突然,我看着他使用Chatgpt,” Declan说,…
来源:MIT Technology Review _人工智能在一家芬兰精神卫生公司的2020年黑客袭击,导致数以万计的客户治疗记录被访问。名单上的人们被勒索,随后整个Trove都被公开发布,揭示了非常敏感的细节,例如人们对虐待儿童和成瘾问题的经历。
2020 Hack哪些治疗师会输掉哪些
除了违反数据隐私外,当心理治疗师代表客户咨询LLMS时,还会涉及其他风险。研究发现,尽管一些专门的疗法机器人可以与人提供的干预措施相匹配,但Chatgpt之类的建议可能造成的弊大于利。
可以竞争最近的一项斯坦福大学的研究发现,聊天机器人可以通过盲目验证用户而不是挑战他们,并遭受偏见并从事粘糊精而促进妄想和精神病。同样的缺陷可能会使治疗师代表客户咨询聊天机器人。例如,他们可以毫无根据地验证治疗师的直觉,也可以将他们带到错误的道路上。
最近的斯坦福大学研究阿奎莱拉(Aguilera)说,他在教授心理健康受训者的同时使用了诸如Chatgpt之类的工具,例如进入假设症状并要求AI聊天机器人进行诊断。他说,该工具将产生很多可能的条件,但分析中的情况很薄。美国咨询协会建议目前不用于心理健康诊断。
推荐一项在2024年发表的关于较早版本的Chatgpt的研究类似地发现,它太模糊和一般而无法在诊断或制定治疗计划中真正有用,并且它对建议人们寻求认知行为疗法而与其他类型的疗法相反,与可能更合适的治疗相反,它具有很大的偏见。
研究“我对使用它为您做思考会持怀疑态度,”他说。他说,思考应该是治疗师的工作。