机器人学习如何正确拒绝命令(+视频)

塔夫茨大学人机交互实验室的研究人员正在开发一种机器人人机交互系统,该系统将允许机器人在有充分理由的情况下拒绝执行某些命令。

来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)

塔夫茨大学人机交互实验室的研究人员正在开发一种机器人人机交互系统,该系统将允许机器人在有充分理由的情况下拒绝执行某些命令。

如您所知,机器人三定律如下:

    机器人不得通过其行为对人类造成伤害,也不得允许其因不作为而受到伤害,除非此类命令违反机器人必须保卫的第一定律。其本身并不违背机器人第一定律和第二定律。
  • 机器人不能通过其行动对人造成伤害,也不能允许其不作为对人造成伤害。
  • 机器人必须服从人类发出的指令,除非这些指令与第一定律相冲突。
  • 机器人必须保护自己,前提是不违反机器人第一定律和第二定律。
  • 很明显,对吧?确实,对人的服从是第二位的。问题是人们常常表现得不够充分。有时第二定律规定的毫无疑问的处决对于机器人来说确实不是最好的选择。塔夫茨大学人机交互实验室的戈登·布里格斯和马蒂亚斯·舒茨正在试图弄清楚如何设计机器人在有理由时拒绝命令。

      数据库:我知道如何做 X 吗?真正的机会:我现在真的能够做 X 吗?我通常可以做 X 吗? 优先任务和截止日期:我现在可以做 X 吗? 社会角色和责任:根据我的社会角色,我应该做 X 吗? 规范可接受性:做 X 不违反任何规范原则吗?