详细内容或原文请订阅后点击阅览
机器人和聊天机器人如何在犯错后恢复人们的信任
密歇根大学的科学家进行了一项机器人行为策略研究,以恢复机器人与人类之间的信任。 这样的策略能否完全恢复信任,在反复犯错后效果如何?
来源:Qudata机器人和聊天机器人如何在犯错后恢复人们的信任
在与人互动时,机器人和聊天机器人可能会犯错,从而破坏人们对它们的信任。此后,人们可能会开始认为机器人不可靠。智能机器人实施的各种信任修复策略可用于减轻这些信任破坏的负面影响。然而,尚不清楚这些策略是否能够完全恢复信任,以及在反复违反信任之后它们有多有效。
因此,密歇根大学的科学家决定进行一项机器人行为策略研究,以恢复机器人与人之间的信任。这些信任策略包括道歉、否认、解释和可靠性承诺。
机器人行为策略研究进行了一项实验,其中 240 名参与者与机器人一起完成一项机器人有时会犯错的任务。机器人会破坏参与者的信任,然后提出恢复信任的具体策略。参与者以团队成员的身份参与,人机交流通过虚幻引擎 4 开发的交互式虚拟环境进行。
实验中参与者与机器人互动的虚拟环境。
这个环境被建模成一个真实的仓库环境。参与者坐在一张有两个显示器和三个按钮的桌子旁。显示器显示团队的当前得分、箱子处理速度以及参与者为机器人队友提交的箱子评分所需的序列号。每次将正确的箱子放在传送带上时,每个团队的得分都会增加 1 分,每次将错误的箱子放在传送带上时,得分都会减少 1 分。如果机器人选择了错误的箱子,参与者将其标记为错误,屏幕上会出现一个指示器,显示这个箱子不正确,但不会从团队的得分中增加或减少任何分数。