人类会接受会撒谎的机器人吗?科学家发现这取决于谎言

作者:Angharad Brewer Gillham 人类撒谎不只是为了欺骗:有时我们撒谎是为了避免伤害他人,打破一种社会规范以维护另一种社会规范。随着机器人开始从工具转变为与人类并肩工作的团队成员,科学家需要找出这些关于欺骗的规范如何适用于机器人。为了调查这一点,研究人员询问了 […]

来源:ΑΙhub

Angharad Brewer Gillham

人类不仅撒谎欺骗:有时我们撒谎是为了避免伤害他人,打破一个社会规范以维护另一个规范。随着机器人开始从工具到与人类一起工作的团队成员过渡时,科学家需要找出这些有关欺骗规范如何适用于机器人。为了调查这一点,研究人员要求人们对机器人具有欺骗性的三种情况发表意见。他们发现,撒谎外部世界的机器人可以缓解某人的痛苦是可以接受的,但是一个关于其自身能力的机器人并不是 - 人们通常将像开发商这样的第三方归咎于不可接受的欺骗。

研究人员问人

诚实是最好的政策……大多数时候。社会规范可以帮助人类了解我们何时需要说出真相,何时我们不应该说出某人的感受或避免伤害。但是,这些规范如何适用于越来越多地与人类合作的机器人?为了了解人类是否可以接受机器人讲谎言,科学家要求将近500名参与者对不同类型的机器人欺骗进行评分和合理。

“我想探索机器人伦理学的一个研究不足的方面,为我们对新兴技术及其开发人员的不信任做出了贡献,”乔治·梅森大学(George Mason University)的博士学位候选人安德烈斯·罗斯罗(Andres Rosero)说,也是《机器人和AI》中《 Frontiers》文章的首席作者。 “随着Generative AI的出现,我觉得重要的是要开始检查可能使用拟人化设计和行为集来操纵用户的情况。”

文章 机器人技术和AI

三种谎言

我们编织了什么纠结的网络

参与者批准了大多数外部状态欺骗,机器人向患者撒谎。他们说,它可以保护患者免受不必要的痛苦,从而证明了机器人的行为是合理的 - 优先考虑将某人的感受超过诚实的规范。

机器中的幽灵

完整阅读研究

边境科学新闻