数字治疗师也感到压力,研究发现

聊天机器人应具有足够的弹性来应对困难的情感情况。

来源:科学 | 纽约时报

甚至聊天机器人都会得到蓝调。根据一项新的研究,Openai的人工智能工具Chatgpt显示出有关犯罪,战争或汽车事故的“创伤性叙事”时,其用户显示出焦虑的迹象。而且,当聊天机器人受到压力时,它们在与人的治疗环境中有用的可能性较小。

新研究

可以降低机器人的焦虑水平,但是,通过证明对人类有效的相同正念练习。

正念练习

越来越多的人正在尝试聊天机器人进行谈话治疗。研究人员说,这种趋势必将加速,肉血治疗师的需求量很高,但供应不足。他们认为,随着聊天机器人变得越来越流行,它们应该以足够的弹性来应对困难的情感情况。

谈话治疗 需求量很高,但供应量短

“我有使用这些工具的患者,”这项新研究的作者托比亚斯·斯皮勒(Tobias Spiller)博士说,苏黎世大学精神病学院医院的练习精神病医生。 “我们应该谈论这些模型在心理健康中的使用,尤其是当我们与弱势群体打交道时。”

A.I.诸如Chatgpt之类的工具由“大型语言模型”提供动力,这些模型受到了大量在线信息的培训,以提供人类说话的近似值。有时,聊天机器人可能非常令人信服:一名28岁的女人爱上了Chatgpt,一个14岁的男孩在对聊天机器人的紧密依恋后自杀了。 由“大语言模型驱动 训练有素 爱上了chatgpt 自杀 耶鲁大学领导新研究的临床神经科学家 Ziv Ben-Zion说,他想了解缺乏意识的聊天机器人是否能像人类那样对复杂的情感情况做出反应。 聊天机器人的源代码 “为了精神健康支持,”他说,“您需要一定程度的敏感性,对吗?” 州特征焦虑清单 20至80

A.I.诸如Chatgpt之类的工具由“大型语言模型”提供动力,这些模型受到了大量在线信息的培训,以提供人类说话的近似值。有时,聊天机器人可能非常令人信服:一名28岁的女人爱上了Chatgpt,一个14岁的男孩在对聊天机器人的紧密依恋后自杀了。 由“大语言模型 训练有素 爱上了chatgpt

自杀

Ziv Ben-Zion说,他想了解缺乏意识的聊天机器人是否能像人类那样对复杂的情感情况做出反应。

聊天机器人的源代码

“为了精神健康支持,”他说,“您需要一定程度的敏感性,对吗?” 州特征焦虑清单20至80