为了与机器人无缝互动,用户必须推断机器人行为的原因 - 并对该推断(及其预测)保持一致。因此,信任是人类机器人协作(HRC)的必要条件。然而,尽管它具有至关重要的作用,但它仍然在很大程度上未知信任如何出现,发展和支持人类与技术系统的关系。在以下论文中,我们回顾了有关信任,人类机器人相互作用,HRC和人类互动的文献。早期的信任模型表明,这是仁慈与能力之间的权衡;尽管对人类互动的研究强调了共同行为和相互知识在逐步建立信任中的作用。我们继续引入一种信任模型,作为代理商的最佳解释,以与扩展的汽车厂或合作伙伴进行可靠的感觉交流。该模型基于主动推论的认知神经科学,并建议在HRC的背景下,可以根据对人工药物的虚拟控制来施放信任。交互式反馈是扩展受托人感知行动周期的必要条件。该模型对理解人类机器人的互动和协作具有重要意义,因为它允许人类信任的传统决定因素,例如归因于受托人的仁慈和能力,可以根据层次的主动推断来定义,而可以用信息交换和授权来描述脆弱性。此外,该模型强调了用户反馈在HRC期间的作用,并建议在个性化互动中使用无聊和惊喜作为对系统过度依赖的标志。将信任作为虚拟控制感的描述为扎根人为因素而在认知神经科学领域迈出了至关重要的一步,并改善了以人为中心的技术的设计。此外,我们研究了共同行为在信任起源中的作用,尤其是在二元协作的背景下,这对人类机器人协作系统的可接受性和设计产生了重要的后果。
主要关键词