摘要 多年来,研究复杂机器人类操作员的工业心理学家和工程师已经认识到,人类操作员将责任转移给机器,而无法发现机器故障的情况,这种危险是存在的。我们称之为“控制问题”,理解为人机控制回路中的人在面对可靠自主系统的输出时,容易变得自满、过度依赖或过度缺乏自信。虽然控制问题已经研究了一段时间,但到目前为止,它在机器学习环境中的表现还没有受到重视。本文旨在填补这一空白。我们认为,除某些特殊情况外,算法决策工具不应用于高风险或安全关键决策,除非相关系统在相关决策领域或子领域明显“优于人类”。更具体地说,我们推荐三种策略来解决控制问题,其中最有希望的策略涉及高效算法工具与人类代理之间的互补(且可能动态)耦合。我们还确定了所有此类人机系统在设计中都应反映的六个关键原则。这些可以作为评估任何此类人机系统可行性的框架,也可以作为指导此类系统的设计和实施的框架。