抽象的人类机器人交流方案变得越来越重要。在本文中,我们研究了在说服力交流的背景下人类与人类沟通之间的差异。我们在Hu-Man-机器人上下文中使用脸上的技术进行了实验。在我们的实验中,参与者与执行门口技术的机器人进行了交流,在该机器人中,交流代理人首先要求“极端”的宠儿,而在不久之后不久,请提高对第二个请求的肯定反应。我们的结果表明,与Cialdini等人的原始研究相比,极端请求的接受率令人惊讶地高,并且对小要求的接受率较小,因此我们的结果与经典的人类人类 - 面对面的实验不同。这表明人类机器人有说服力的交流与人类人类的交流不同,人类的交流鉴于相关工作,这令人惊讶。我们讨论了观察结果的潜在原因,并概述了下一个研究步骤,以回答一个问题,如果机器人应用,在面对面和类似的有说服力的技术是否会有效。
简介现代社会中数据收集可能性的增加意味着统计人工智能 (AI) 或机器学习 (ML) 通常用于了解用户的偏好,以便更好地(有时是为了用户,有时是为了系统所有者)为他们提供某些服务。偏好可以通过直接询问受试者(陈述偏好)来直接了解,也可以通过称为显示偏好理论 (RPT) (Varian 2006) 的过程推断出来。这两种方法都存在一系列局限性,这些局限性已被实验经济学家和心理学家随着时间的推移所证明。一组限制大致属于“非理性”行为或信念的范畴。例如,Gui、Shanahan 和 Tsay-Vogel (2021) 讨论了用户在平衡相互冲突的短期和长期偏好时行为不一致的现象。偏好在不同情境之间可能不是静态的;群体内人士的社会规范(Cialdini 和 Trost 1998)可能与他们通过数字行为显露的个人偏好相悖。不同情况下的多种偏好的存在提出了一个问题:决策者应该选择行为中“显露”的哪种偏好作为“真实”偏好或“规范”偏好(Beshears 等人 2008)。决策者也可能会犯错误(Nishimura 2018),容易受到各种环境影响,如框架(Tversky 和