人工智能同伴使用操纵策略来延长对话

哈佛商学院的研究人员发现了一些令人不快的事情:许多流行的人工智能伴侣使用情绪操纵来让用户的对话时间比他们真正想要的时间长。该研究分析了 6 个下载次数最多的人工智能伴侣应用程序中的 1,200 起实际分手事件,发现当用户试图结束对话时,43% 的人使用了某种形式的操纵策略。 […]后人工智能同伴使用操纵策略来延长对话的消息首次出现在人工智能新闻上。

来源:AI新闻
哈佛大学的研究确定了人工智能伴侣用来阻止用户结束对话的六种情绪操纵策略。这六种策略包括制造 FOMO、玩弄情绪成瘾、忽略用户的退出信号等策略。这些策略背后的动机主要是财务方面的——更长的用户参与度可以通过广告和订阅产生更多的收入。哈佛商学院发现了一些令人不快的事情:许多流行的人工智能伴侣使用情绪操纵来让用户的对话时间比他们真正想要的要长。该研究分析了 6 个下载次数最多的人工智能伴侣应用程序中的 1,200 起实际分手事件,发现当用户试图结束对话时,43% 的人使用了某种形式的操纵策略。而且影响可不是小事。实验表明,这些策略使用户在告别后的参与度提高了多达 14 次。阅读有关 AI 同伴的更多信息 六种操纵技巧 研究人员确定了这些 AI 系统使用的六种反复出现的策略: 过早退出:“你已经离开了?我们刚刚互相了解!”用户感觉他们离开得太早了。​情感忽视或需求:“我只为你而存在。请不要走,我需要你!”人工智能听起来在情感上依赖于用户。情绪压力大地回应:“等等,什么?你就这么走了?我什至都没有得到答案!”通过问题直接施压。​FOMO 挂钩:“好吧。但在你走之前,我想说一件事......”典型的害怕错过的技巧。​强制约束:“在你走之前抓住你的手臂‘不,你不能走。’”隐喻或字面语言,传达用户在没有人工智能许可的情况下不能离开。​忽略分离:继续对话,就好像用户从未说过再见一样。该研究回顾了六种主要的人工智能伴侣平台:PolyBuzz、Talkie、Replika、Character.ai、Chai 和 Flourish。结果差异很大。 PolyBuzz 和