普通人如何评估在道德上做出重要决定的机器人?以前的工作发现了相等和不同的评估,并且在任一方向上都有不同的评估。在13项研究(n = 7670)中,我们要求人们评估人类和机器人在规范冲突中做出决定的机器人(经典手推车困境的变体)。我们检查了几种可能影响人类和机器人代理人的道德评估是相同或不同的条件:道德判断的类型(规范与责备);困境的结构(副作用与均值末端);特定信息的显着性(受害者,结果);文化(日本与我们);并鼓励同理心。人类和机器人的规范广为人知,但是责备判断在一种情况下表现出强大的不对称性:人类被指责为专门针对无行为决策的机器人 - 在这里,避免为许多人牺牲一个人而牺牲一个人。这种不对称性可能会出现,因为人们对人类面临的决定是不可能的决定,因此应该减轻责备。在评估机器人时,这种欣赏似乎缺乏。但是,我们的这种解释证据混合在一起。我们讨论了其他解释,并为人们对机器人和人类的道德判断提供方法论指导。