最近,要求行政紧缩的呼声包括要求机构在做出有关福利资格的决定时,用更少的资源做更多的事情。1 这种经济逻辑与自动审议纠纷的商业案例相吻合。计算法律研究领域提出了部署自然语言处理来分类案件申请,或以其他方式在过去的裁决中寻找模式,以便为解决纠纷提供信息(甚至完成)。2 例如,过去,某种医疗记录组合可能总是导致获得残疾福利。行政人员可能会决定快速处理此类索赔,甚至可能决定根据这些医疗记录授予福利。相反,看起来与过去成功的索赔太不一样的索赔可能会在一开始就被拒绝,理想情况下会给出一些如何改进的指示。从长远来看,更雄心勃勃的监控计划可能会为行政裁决提供信息。例如,美国有人呼吁通过证据审查福利接受者的资格,这些证据可能包括监视他们的社交媒体信息。3 然而,使用黑盒人工智能来拒绝
摘要。组织越来越多地将人工智能 (AI) 用于业务流程。基于 AI 的建议旨在支持用户进行决策,例如通过预过滤选项。但是,用户通常很难理解这些建议是如何制定的。这个问题被称为“黑箱问题”。在人力资源管理的背景下,这引发了有关在招聘过程中接受基于 AI 的建议的新问题。因此,我们开发了一个基于计划行为理论的模型,该模型解释了用户对黑箱问题的感知与对基于 AI 的建议的态度之间的关系,区分了强制和自愿使用环境。我们对招聘和 AI 领域的专家进行了 21 次采访。我们的结果表明,由意识和评估的相关性概念化的对黑箱问题的感知与用户对基于 AI 的建议的态度有关。此外,我们表明使用环境对这种关系有调节作用。
本文建立了一个框架,用于理解和应对人工智能在金融领域日益增强的作用。本文将人类的责任作为解决人工智能“黑箱”问题的核心——黑箱问题是指由于人们难以理解人工智能的内部工作原理,或由于人工智能在人类监督或参与之外独立运行,而导致人工智能产生无法识别或无法预料的不良后果的风险。在概述人工智能在金融领域的各种用例并解释其快速发展之后,我们重点介绍了金融服务人工智能的一系列潜在问题和监管挑战,以及可用的解决这些问题的工具。我们认为,解决人工智能在金融领域作用的最有效的监管方法是通过个人责任制度将人类纳入其中,从而消除黑箱论证作为人工智能运营和决策责任和法律义务的辩护理由。
两项新提出的指令影响了欧盟的人工智能责任:产品责任指令(PLD)和人工智能责任指令(AILD)。虽然这些拟议的指令为人工智能造成的伤害提供了一些统一的责任规则,但它们未能完全实现欧盟的目标,即为人工智能驱动的商品和服务造成的伤害的责任提供明确性和统一性。相反,这些指令为一些黑箱医疗人工智能系统造成的伤害留下了潜在的责任空白,这些系统使用不透明和复杂的推理来提供医疗决策和/或建议。无论是根据欧盟成员国的严格责任法还是基于过错的责任法,患者可能无法成功起诉制造商或医疗保健提供者因这些黑箱医疗人工智能系统造成的某些伤害。由于拟议的指令未能解决这些潜在的责任空白,制造商和医疗保健提供者可能难以预测与创建和/或使用一些潜在有益的黑箱医疗人工智能系统相关的责任风险。
摘要 — 人工智能 (AI) 模型的黑箱性质不允许用户理解甚至信任此类模型创建的输出。在 AI 应用中,不仅结果而且结果的决策路径都至关重要,这种黑箱 AI 模型是不够的。可解释人工智能 (XAI) 解决了这个问题,并定义了一组可由用户解释的 AI 模型。最近,许多 XAI 模型已经解决了医疗、军事、能源、金融和工业等各个应用领域中黑箱模型缺乏可解释性和可解释性的问题。虽然 XAI 的概念最近引起了广泛关注,但它与物联网领域的集成尚未完全定义。在本文中,我们对最近在物联网领域使用 XAI 模型的研究进行了深入而系统的回顾。我们根据方法论和应用领域对研究进行分类。此外,我们旨在关注具有挑战性的问题和未解决问题,并给出未来的方向,以指导开发人员和研究人员进行未来的调查。
SAMMANFATTNING(最多 200 人):深度学习是一种新兴的机器学习技术,可以在大量数据中找到复杂的模式。这使得它可用于智能电网中的多种应用,这些应用通常涉及处理大量数据。然而,有理由怀疑它的适用性,因为深度学习的黑箱性质可能是一个问题,因为电网是重要的基础设施,包含致命的电流。智能电网的专业人士接受了采访,以了解与机器学习可解释性有关的八个问题的重要性。调查结果显示,对于一些与控制电网相关的用途,信任至关重要,不太可能使用黑箱算法。对于提供建议和预测等其他用途,研究发现,信任或信息量是结果有用的必要条件,尽管信任可以通过强大的记录来实现,而不是通过解释系统的能力。其他问题的重要性各不相同,但都不是关键问题。
摘要。最近出现的可解释人工智能 (XAI) 领域试图以人类可以理解的术语阐明“黑箱”机器学习 (ML) 模型。随着多种解释方法的开发以及黑箱模型的不同应用,需要专家级评估来检查其有效性变得不可避免。这对于敏感领域(例如医疗应用)非常重要,因为专家的评估对于更好地了解复杂 ML 的结果的准确性以及在必要时调试模型至关重要。本研究的目的是通过实验展示如何利用医疗应用中的专家级 XAI 方法评估并将其与临床医生生成的实际解释保持一致。为此,我们从配备眼动仪的专家受试者那里收集注释,同时他们对医学图像进行分类,并设计一种方法将结果与从 XAI 方法获得的结果进行比较。我们通过多个实验证明了我们方法的有效性。
摘要 本文研究的是有关 GPT 智能的最详尽的文章之一,该研究由微软的工程师进行。虽然他们的工作有很大的价值,但我认为,出于熟悉的哲学原因,他们的方法论“黑箱可解释性”是错误的。但还有更好的方法。有一门令人兴奋的新兴学科“内部可解释性”(特别是机械可解释性),旨在揭示模型的内部激活和权重,以了解它们所代表的内容以及它们实现的算法。黑箱可解释性未能认识到,当涉及到智能和理解时,流程的执行方式很重要。我不能假装有一个完整的故事来提供智能的必要和充分条件,但我确实认为内部可解释性与关于智能需要什么的合理哲学观点完美契合。因此,结论是温和的,但我认为重点在于如何让研究走上正轨。在本文的最后,我将展示如何使用一些哲学概念来进一步完善内部可解释性的方法。