摘要 — 影响人类生活的决策越来越多地由自动决策算法做出或协助。这些算法中的许多处理个人数据以预测累犯、信用风险分析、使用人脸识别识别个人等。虽然这些算法可能提高效率和效力,但它们本质上并非没有偏见、不透明、缺乏可解释性、恶意等。鉴于这些算法的结果对个人和社会有重大影响,并且在部署后容易受到分析和争论,因此必须在部署前考虑这些问题。正式审计是确保算法符合适当问责标准的一种方式。这项工作基于对文献的广泛分析和专家焦点小组研究,提出了一个统一的系统问责基准框架,用于对基于人工智能的决策辅助系统进行正式审计。本研究还提出了系统卡作为呈现此类审计结果的记分卡。它由 56 项标准组成,组织在一个四乘四矩阵中,行侧重于 (i) 数据、(ii) 模型、(iii) 代码、(iv) 系统,列侧重于 (a) 开发、(b) 评估、(c) 缓解和 (d) 保证。提出的系统问责基准反映了问责系统的最新发展,可作为算法审计的清单,并为未来研究的后续工作铺平道路。索引词 — 算法问责、自动决策系统、人工智能、系统卡
基于人工智能的决策系统在许多高风险领域的广泛应用引发了人们对这些系统公平性的担忧。由于这些系统将对受其决策影响的人产生现实后果,因此了解这些决策主体认为系统是公平的还是不公平的至关重要。在本文中,我们通过重复交互的视角扩展了之前在这方面的研究——我们提出,当决策主体与基于人工智能的决策系统反复交互,并能够通过决定是否留在系统中来战略性地响应系统时,哪些因素会影响决策主体对系统的公平感知和保留,以及如何影响。为了回答这些问题,我们在基于人工智能的贷款系统中进行了两次随机人类受试者实验。我们的结果表明,在与基于人工智能的决策系统的反复交互中,总体而言,决策主体对系统的公平感知和保留受到系统是否偏向主体自己所属群体的显著影响,而不是系统是否以公正的方式对待不同的群体。然而,不同资质水平的决策主体对人工智能系统在不同群体之间产生的偏见或人工智能系统偏袒/歧视自己群体的倾向有不同的反应。最后,我们还发现,虽然主体在基于人工智能的决策系统中的保留很大程度上取决于他们自己从系统获得有利决策的前景,但他们对系统的公平性感知却受到系统对其他群体的人的待遇的复杂影响。
“投资新兴技术一直是公司的首要任务。作为一家以客户为中心的组织,我们实施了混合运营模式,该模式结合了传统贷方和新时代金融科技参与者的最佳实践,以提供最高水平的客户体验。此次合作将使我们能够实现人工智能驱动方法和适当人工干预的完美结合,以准确分析信用。我们将继续探索为利益相关者生态系统创造持续价值的创新方式,并坚定不移地履行我们的使命,即让每一位值得帮助的印度学生都能获得无缝且负担得起的教育融资”,Avanse Financial Services 首席执行官 Amit Gainda 说道。
摘要 近年来,机器智能方法的进步使人工智能系统的准确性和可信度达到了普通人类操作员的水平,在许多情况下甚至超过了它,为决策系统的质量、性能和成本效率的提高提供了机会。为了解决人工智能系统在关键决策领域应用中的问题和挑战,提出了人机协作决策系统的概念,旨在利用人和机器智能方法的优势,在具有成本效益的过程中最大限度地提高性能。结果表明,多通道人机系统与传统系统相比具有许多优势,并且在准确性和性能方面都有显著提高。定义并讨论了单阶段和多阶段决策系统的适用性标准。结果表明,人机协作决策系统在提高许多应用领域的决策质量和有效性方面具有巨大潜力。关键词 人工智能、决策系统、多渠道DMS
自动化决策正在成为社会各界的常态,当人类对技术系统的控制变得越来越有限时,这带来了有趣的责任挑战。本文将“准自动化”定义为在完全自动化的决策系统中,将人类作为基本的盖章机制。本文研究了三种准自动化案例,其中人类在决策中的行动目前存在争议:自动驾驶汽车、基于乘客姓名记录的边境搜查以及社交媒体上的内容审核。虽然有针对纯自动化决策的特定监管机制,但如果人类是(盖章)自动化决策,这些监管机制就不适用。更广泛地说,大多数监管机制遵循二元责任模式,试图监管人类或机器行动,而不是寻求监管两者。这导致了监管机制不适用的监管灰色地带,通过阻止对社会技术决策的有意义的责任来损害人权。文章最后提出了确保人类纳入自动决策系统时有意义的代理的标准,并将其与正在进行的关于在互联网基础设施中实现人权的辩论联系起来。