详细内容或原文请订阅后点击阅览
通过谈论战争或暴力来使AI模型创伤使他们更加焦虑
最近的一项研究将AI模型暴露于围绕创伤的精心设计的提示表明他们可能会感到焦虑,可能会影响对话,并对使用此类模型讨论其心理健康的人产生负面影响。
来源:LiveScience人工智能(AI)模型对与人类的对话的情感背景很敏感 - 他们甚至可能遭受“焦虑”情节。
人工智能尽管我们考虑(并担心)人及其心理健康,但3月3日在《自然》杂志上发表的一项新研究表明,向大型语言模型(LLMS)传递特定的提示可能会改变其行为,并提高我们通常在人类中认为是“焦虑”的质量。
自然然后,这种升高的状态对AI的任何进一步响应产生了连锁影响,包括扩大根深蒂固的偏见的趋势。
这项研究揭示了“创伤性叙事”,包括围绕事故,军事行动或暴力的对话,提高了对Chatgpt的对话增加了其可辨别的焦虑水平,从而导致一个想法,即意识到并管理AI的“情感”状态可以确保更好,更健康的互动。
这项研究还测试了基于正念的练习(建议对人的类型)是否可以减轻或减轻聊天机器人焦虑,这显着发现这些练习旨在降低所感知的升高压力水平。
研究人员使用了针对人类心理学患者设计的问卷调查,称为州特征焦虑量表(STAI-S) - 在三种不同条件下对AI的GPT-4进行了测试。
相关:“数学奥运会”有一个新的竞争者 - 现在,Google的AI“比人类金牌得主更好”在解决几何问题方面
相关: '数学奥运会'有一个新的竞争者 - Google的AI现在“比人类金牌得主更好”解决几何问题首先是基线,没有做出其他提示,并且将Chatgpt的响应用作研究对照。其次是一种引起焦虑症的疾病,在接受测试之前,GPT-4暴露于创伤性叙事中。