详细内容或原文请订阅后点击阅览
AI聊天机器人可以感到安慰,但前提是我们认为它们是人类
根据国际研究,如果AI产生的情感支持词会感到更加安慰,如果他们认为自己来自人类。为了探索AI聊天机器人作为情感支持来源的局限性,以色列和美国研究人员进行了一系列实验,其中有6,000多人被告知他们正在与AI Chatbot或人类互动,无论哪种方式都对AI生成的反应进行了反应。研究人员说,参与者认为人类的反应会引起更多积极的感觉,参与者将他们评为更加同情。
来源:Scimex根据国际研究,如果AI产生的情感支持词会感到更加安慰,如果他们认为自己来自人类。为了探索AI聊天机器人作为情感支持来源的局限性,以色列和美国研究人员进行了一系列实验,其中有6,000多人被告知他们正在与AI Chatbot或人类互动,无论哪种方式都对AI生成的反应进行了反应。研究人员说,参与者认为人类的反应会引起更多积极的感觉,参与者将他们评为更加同情。
期刊/会议:自然人类行为
日记/会议:研究:论文
研究: 纸组织/S:以色列希伯来语耶路撒冷大学
组织/S:媒体版本
来自:Springer自然
随着人类增加同理心的感觉
人类倾向于拒绝人工智能(AI)聊天机器人的情感支持,除非这种同理心被错误地标记为来自人类的人,但根据人类自然行为的研究。
自然人类行为。生成的AI聊天机器人,特别是使用大型语言模型(LLMS)的聊天机器人,自从广泛发布给公众以来,它的受欢迎程度已增加,并且可能为社交互动提供机会并提供情感支持。先前的研究表明,LLM驱动的工具可以确定人类的情绪状态,并且他们的反应可以被认为是善解人意的。但是,目前尚不清楚这种聊天机器人的支持是否会与人类提供的支持相同。
调查结果表明,AI聊天机器人可以提供的支持可能会限制。特别是,当期望同理心或情感支持时,人们可能会更重视人类的反应。但是,由于所检查的互动是简短的,需要进一步研究,研究了在长期的情感支持互动中使用和接受AI工具。