人机协作的安全性和效率通常取决于人类如何适当地校准对人工智能代理的信任。过度信任自主系统有时会导致严重的安全问题。尽管许多研究都关注系统透明度在保持适当信任校准方面的重要性,但在检测和缓解不当信任校准方面的研究仍然非常有限。为了填补这些研究空白,我们提出了一种自适应信任校准方法,该方法包括一个通过监控用户的依赖行为来检测不适当校准状态的框架和称为“信任校准线索”的认知线索,以提示用户重新启动信任校准。我们使用无人机模拟器在在线实验中评估了我们的框架和四种类型的信任校准线索。共有 116 名参与者使用无人机的自动检查功能执行了坑洼检查任务,其可靠性可能因天气条件而波动。参与者需要决定是依靠自动检查还是手动进行检查。结果表明,自适应地呈现简单提示可以显著促进过度信任期间的信任校准。
主要关键词