计算技术的最新进展引发了人们对权力从人类转移到机器决策者的担忧。从监禁到贷款审批再到大学申请,企业和国家行为者越来越依赖机器学习工具(人工智能的一个子集)来分配商品和执行强制措施。人们认为机器学习工具正在以牺牲重要个人利益的方式取代甚至消灭人类机构。对这种担忧的一种新兴法律回应是人类决策权。欧洲法律已经在《通用数据保护条例》中采纳了这一想法。美国法律,特别是在刑事司法领域,已经朝着同一方向发展。但没有一个司法管辖区准确定义这项权利的含义,也没有为其创建提供明确的理由。本文探讨了人类决策权的法律可能性。我首先定义了该权利应用于国家行动的技术可行性条件。为了理解其技术谓词,我指定了机器决策与人类决策不同的边界。这种技术背景化使我们能够细致入微地探索人类和机器决策之间的差距是否具有规范意义。基于这种技术核算,我随后分析了人类决策权的规范性利害关系。我考虑了三个潜在的规范性理由:(a)呼吁个人利益参与和给出理由;(b)担心国家行动的推理不足或个性化;(c)基于负面外部性的论点。仔细分析这三个理由表明,国家采用人类决策权没有普遍的理由。对于缺乏充分理由或不准确的决定的规范性担忧,对法律想象力有着特别强大的影响力,最好通过其他方式来解决。同样,对于算法工具造成社会权力不对称的担忧,也不能通过人类决策权来抵消。事实上,现有证据并没有坚定地支持人类决策权,而是暂时指向一种与之相反的“经过良好校准的机器决策权”,认为它最终在规范上更有依据。