本文将“有意义的人为控制”作为一个例外概念提出,其中例外意味着理解 LAWS 方面的定性附加值。例外性通过大量关于 LAWS 的文献中发现的四个关键主题进行阐述。首先,按下按钮作为有意义的人为控制是不够的,因为任何类型的控制都不能满足有意义的控制。第二个主题是黑箱系统和有意义的人为控制,因为具有多层算法的高级 AI 系统不透明且不可解释。第三个关键主题涉及高风险系统,由于结果更糟,这些系统需要额外的有意义的人为控制。高风险 AI 系统也与民用 AI 领域的现有规范相关,而低风险系统则需要有意义的人为控制。最后一个专题章节围绕最后手段论点展开。虽然该论点不是 LAWS 文献的重点,但最近在与 AI 发展有关的监管文本中找到了用武之地。它需要引起注意,因为它暗示了在没有任何人为控制的情况下允许什么样的使用。
主要关键词