本文探讨了机器学习在多大程度上可用于检测管理错误。本文集中讨论了失业保险 (UI) 决策中的行政错误,这些错误导致了效率和效力之间的公共价值观冲突。首先在美国 UI 制度的历史中描述了这种冲突,然后强调了这种冲突。机器学习不仅可以缓解这种冲突,而且还可以帮助打击欺诈并减少与 COVID-19 大流行等经济危机相关的索赔积压。本文使用了 2002 年至 2018 年美国各地不当 UI 支付的数据来分析随机森林和深度学习模型的准确性。我们发现,使用梯度下降增强的随机森林模型在几个方面比测试的每个深度学习模型都更准确。这一发现可以通过机器学习方法与可用数据之间的拟合优度来解释。或者,对公开可访问的索赔数据的必要限制可能会削弱深度学习的性能。
4,尽管我们尚未直接就这个问题发言,但我们的姊妹巡回赛认为,对于附带命令学说允许审查拒绝合格免疫力的命令,上诉人实际上必须提高拒绝合格的免疫力作为上诉问题。请参阅Himmelreich诉Fed。监狱局,5 F.4th 653,661(6th Cir。2021)(“如果被告没有对拒绝合格的免疫力提出上诉,上诉法院没有根据附带命令学说的管辖权来解决基本索赔。”);另请参见Graberv。DoeII,59 F. 4th 603,610(3d Cir。2023),证书。拒绝了sub nom。Boreskyv。Graber,144 S. Ct。 681(2024)(采用Himmelreich)。 很明显,迈尔斯先生已经提高了合格的免疫力作为优点问题,请参见开放式豁免权。 在3时,但我们不必考虑这种可能的缺陷。 在任何情况下都缺乏管辖权,因为正如我们所解释的那样,地方法院的命令并未否认合格的豁免权或事实上是对合格豁免的事实,通过使迈尔斯先生履行诉讼的负担。Boreskyv。Graber,144 S. Ct。 681(2024)(采用Himmelreich)。很明显,迈尔斯先生已经提高了合格的免疫力作为优点问题,请参见开放式豁免权。在3时,但我们不必考虑这种可能的缺陷。在任何情况下都缺乏管辖权,因为正如我们所解释的那样,地方法院的命令并未否认合格的豁免权或事实上是对合格豁免的事实,通过使迈尔斯先生履行诉讼的负担。
Christian List 提出了一个基于责任差距的论点,即“监管机构应允许在高风险环境中使用自主人工智能 [AI],前提是它们被设计为道德……代理人和/或存在某种责任转移协议”(2021:1213)。以下内容认为,对“道德”人工智能的要求过于繁重,责任转移协议无法提供与其在群体环境中使用平行的合理“后盾”(1215)。协议只有通过应用独立合理的群体责任归因规范才能合理地填补责任差距,这样人工智能就不会面临独特的监管规范。激发 List 的条件 List 对其条件的论证主要基于避免责任差距的需要。简而言之,需要确保有人对通常归因于人类行为的伤害负责。私法通过要求某些团体问责机制来填补团体代理案件中的责任空白。List 的条件是作为推论提供的。根据 List,团体和人工智能都表现出不同的有意代理。这是它们之间的“主要相似之处”(1221)。像国家、公司或企业这样的团体和真正自主的人工智能满足代理的基本条件,即表征(例如,信念)和动机(例如,愿望)状态的结合以及采取行动的能力(1219)。他们可以采取我们通常认为是人类故意采取的行动,但这些行动不能合理地归因于特定的人类决定。“美国”可以参与与“俄罗斯”的战略互动,而这些互动并非完全归因于他们的高管(1215-1216)。同样,例如,自适应机器学习医疗工具可以执行无法归因于任何人的操作。它们可以通过根据现实世界数据改变性能,以开发人员无法预测的方式提供更准确的医疗状况诊断。List 认为,如果群体和人工智能的行为不能完全归因于个人,则存在责任差距的风险。继 Johannes Himmelreich (2019) 之后,List 认为,如果一个实体(例如,公司、人工智能)执行的行为如果由人类执行则会触发责任(例如,漏油、误诊治疗),但没有人可以对该行为承担全部责任(例如,公司/人工智能不能承担责任,个人也不对其行为承担全部责任),则会出现差距。这样的个人只对他们发挥规范性重要作用(例如,制定、授权或设计)的相关行为负责,并且只在他们的角色有助于做出行动决定的范围内负责。即使运营商、所有者、监管者、制造商等都勤勉行事,人工智能也可能造成危害。让任何人对所有危害负责是不公平的(1223、1225-1226)。就像在团体代理案件中一样,这似乎是不可避免的:拥有不完全归因于人类的代理权就是拥有团体代理权的含义,类似的东西应该告诉我们如何理解不同于其用户/创造者的“完全自主”人工智能。1 高风险案件中的责任差距(“根据社会标准定义”,但包括许多军事、医疗和金融案件(1228-1230))允许“不负责任的”决策,并可能导致受害者无法找到适当的补救措施(1239)。List 主张对“道德”人工智能进行法律要求,使其适合“承担责任”(1239),以避免此类结果。