摘要 — 在法医图像分析的许多应用中,如今最先进的结果都是通过机器学习方法实现的。然而,对其可靠性和不透明性的担忧引发了人们对此类方法是否可以用于刑事调查的疑问。到目前为止,这个法律合规性问题几乎没有被讨论过,这也是因为对机器学习方法的法律规定没有明确定义。为此,欧盟委员会最近提出了人工智能 (AI) 法案,这是一个值得信赖的人工智能使用的监管框架。根据人工智能法案草案,允许在执法中使用高风险人工智能系统,但必须遵守强制性要求。在本文中,我们回顾了为什么将机器学习在法医图像分析中的使用归类为高风险。然后,我们总结了高风险人工智能系统的强制性要求,并根据两个法医应用(车牌识别和深度伪造检测)讨论了这些要求。本文的目的是提高人们对即将到来的法律要求的认识,并指出未来研究的途径。索引术语——法医图像分析、人工智能法案
随着人工智能系统的快速扩展,其可靠性和解决问题的成本效益,当前接受基于人工智能(AI)系统的证词的趋势仅可能增长。在这种情况下,我们必须询问当今法官应使用与此类证据有关的证据规则。要回答这个问题,我们对专家系统,机器学习系统和神经网络进行了深入的评论。基于该分析,我们认为仅来自某些类型的AI系统的证据符合对允许的要求,而其他系统则不符合要求。可接受/不可接受的AI证据的中断是AI系统的基本计算方法的不透明性以及法院评估该方法的能力的函数。接受AI证据的承认也要求我们在陷阱中导航,包括解释AI系统的方法论和面对证人权利的问题的困难。根据我们的分析,我们提供了一些政策建议,这些建议将解决当前系统中的弱点或缺乏明确性。首先,鉴于长期以来的关注,陪审员将允许他们克服自己对证据的评估,并盲目地同意高级计算AI的“无误”结果,我们建议陪审团
由于计算能力的显著进步和优化算法(尤其是机器学习 (ML))的改进,人工智能 (AI) 的自动决策得到了广泛采用。复杂的 ML 模型提供了良好的预测准确性;然而,ML 模型的不透明性并不能为它们在贷款决策自动化中的应用提供足够的保证。本文提出了一个可解释的人工智能决策支持系统,通过信念规则库 (BRB) 实现贷款承保流程的自动化。该系统可以容纳人类知识,也可以通过监督学习从历史数据中学习。BRB 的层次结构可以容纳事实规则和启发式规则。该系统可以通过激活规则的重要性和规则中先行属性的贡献来解释导致贷款申请决策的事件链。抵押贷款承保自动化的商业案例研究表明,BRB 系统可以在准确性和可解释性之间提供良好的权衡。规则激活产生的文本解释可以作为拒绝贷款的理由。申请的决策过程可以通过规则在提供决策中的重要性及其先行属性的贡献来理解。
摘要 人工智能 (AI) 在教育测量中的整合改变了评估方法,允许通过机器学习和自然语言处理实现自动评分、快速内容分析和个性化反馈。这些进步为学生表现提供了宝贵的见解,同时也增强了整体评估体验。然而,人工智能在教育中的实施也引发了有关有效性、可靠性、透明度、公平性和公正性的重大伦理问题。算法偏见和人工智能决策过程的不透明性等问题有可能加剧不平等并影响评估结果。作为回应,包括教育工作者、政策制定者和测试组织在内的各种利益相关者已经制定了指导方针,以确保人工智能在教育中的合乎道德的使用。美国国家教育测量委员会的人工智能测量和教育特别兴趣小组 (AIME) 致力于建立道德标准并推进该领域的研究。在本文中,来自不同领域的 AIME 成员研究了人工智能工具在教育测量中的伦理影响,探讨了自动化偏见和环境影响等重大挑战,并提出了确保人工智能在教育中负责任和有效使用的解决方案。
摘要 尽管神经网络有望促进新的科学发现,但它的不透明性给解释其发现背后的逻辑带来了挑战。在这里,我们使用一种名为 inception 或 deep dreaming 的可解释人工智能技术,该技术是在计算机视觉机器学习中发明的。我们使用这种技术来探索神经网络对量子光学实验的了解。我们的故事始于对深度神经网络进行量子系统属性的训练。训练完成后,我们会“反转”神经网络——实际上是询问它如何想象具有特定属性的量子系统,以及它将如何不断修改量子系统以改变属性。我们发现网络可以改变量子系统属性的初始分布,我们可以概念化神经网络的学习策略。有趣的是,我们发现,在第一层,神经网络可以识别简单属性,而在更深的层,它可以识别复杂的量子结构甚至量子纠缠。这让人想起计算机视觉中已知的长期理解的属性,我们现在在复杂的自然科学任务中识别这些属性。我们的方法可以以更易于解释的方式用于开发量子物理学中新的基于人工智能的先进科学发现技术。
尽管神经网络有望促进新的科学发现,但它的不透明性给解释其发现背后的逻辑带来了挑战。在这里,我们使用一种名为 inception 或 deep dreaming 的可解释人工智能 (XAI) 技术,该技术是在计算机视觉机器学习中发明的。我们使用这种技术来探索神经网络对量子光学实验的了解。我们的故事始于对量子系统属性进行深度神经网络训练。训练完成后,我们会“反转”神经网络——有效地询问它如何想象具有特定属性的量子系统,以及它将如何不断修改量子系统以改变属性。我们发现网络可以改变量子系统属性的初始分布,我们可以概念化神经网络的学习策略。有趣的是,我们发现,在第一层,神经网络识别简单属性,而在更深的层,它可以识别复杂的量子结构甚至量子纠缠。这让人想起计算机视觉中已知的长期理解的属性,我们现在在复杂的自然科学任务中识别这些属性。我们的方法可以以更易于解释的方式用于开发量子物理学中新的基于人工智能的先进科学发现技术。
各国政府都在研究可解释人工智能 (XAI) 的潜力,以应对人们对人工智能算法决策不透明性的批评。尽管 XAI 作为自动化决策的解决方案很有吸引力,但政府面临的挑战的棘手性使 XAI 的使用变得复杂。棘手性意味着定义问题的事实是模棱两可的,并且对解决此问题的规范标准没有达成共识。在这种情况下,使用算法可能会导致不信任。尽管有许多研究推动 XAI 技术的发展,但本文的重点是可解释性的策略。使用三个说明性案例来表明,公众通常不认为可解释的数据驱动决策是客观的。这种背景可能会引起强烈的动机去质疑和不信任人工智能的解释,结果遭到了社会的强烈抵制。为了克服 XAI 固有的问题,提出了针对决策的策略,以使社会接受基于人工智能的决策。我们建议采取可解释的决策和流程、与社会参与者共同制定决策、从工具性方法转向制度性方法、使用竞争性和价值敏感算法,并调动专业人士的隐性知识
有益所有权(BO)透明度是全球反洗钱(AML)辩论中的核心问题。在过去的15年中,已经采取了各种措施来最大程度地减少公司所有权的不透明性,最后是在各个司法管辖区建立BO登记册。,尽管有所有重点,但支持这种关注的证据仅限于案例研究,并且缺乏实证研究。本文是由欧盟资助的项目数据流的研究活动造成的,它解决了这一差距。它实现了一种机器学习方法,首先是开发新的指标,以衡量公司所有权不透明的各个方面,其次,验证了它们,以防止非法活动的证据。这是通过对在九个欧洲国家注册的300万公司的实证分析以及对这些公司和/或其所有者的制裁和执法措施的证据进行的。结果表明,公司所有权不透明是一个相关因素,该因素解释了公司(或其所有者)可能参与非法活动的可能性。因此,拟议的风险指标在识别与负面证据相关的公司中具有强大的预测能力,这些证据可用于AML/CTF风险评估活动。包括地理位置和商业领域等宏观信息的包含,进一步改善了对现象的理解。
摘要:已经有好几年了,医生在其专业实践中使用基于人工智能(AI)的医疗设备。使用这些工具使卫生服务更具个性化,适合患者的个人特征和需求。AI系统也有可能为患者提供有关其健康状况和治疗方法的信息。使用配备了AI危险的医疗设备,包括算法错误的风险,网络攻击的风险以及算法不匹配的风险(假阳性或假阴性结果)。大多数患者不知道这些工具,因此并不是每个人都会信任它们。从患者那里获得知情同意是任何医疗干预的必要条件。这项研究试图回答以下问题:(1)是否有法定可能性为AI提供能力告知患者的健康状况和拟议的治疗方法?; (2)AI行为的不可预测性和不透明性是否会影响医疗干预前应向患者提供的信息范围?; (3)Physician应该向患者提供哪些信息,以便将其视为知情?; (4)是否应始终告知患者参与诊断或治疗过程?预先提到的研究使用了比较法方法。美国,比利时和德国法律进行了分析。
迅速变化的全球能源供应形势,加上能源消费国面临的一系列社会、政治和经济挑战,对美国整体和美国军队有着重大影响。为了在地理和技术上应对这些重大的“新现实”并探讨相关的军事影响,美国陆军战争学院于 2013 年 11 月 19 日至 20 日在华盛顿特区预备役军官协会召集了来自决策界、学术界、智库、私营部门和军事部门的专家。这本编辑卷基于该会议上的发言,该会议由美国陆军战争学院基金会慷慨资助。本卷首先概述了能源方程式生产方面最重要的变化,其中 Theresa Sabonis-Helf 博士讨论了俄罗斯面临的诸多挑战。缺乏足够的西方知识和资本、长期的生产效率低下、石油和天然气部门的不透明性、对外国投资的限制以及彻头彻尾的腐败,都导致俄罗斯与其最重要的市场欧洲之间的能源关系恶化。约翰·卡拉布雷斯博士认为,阿拉伯之春对该地区能源部门的影响因国家而异。阿拉伯之春的不同影响意味着一些中东和北非 (MENA) 国家将继续填补利比亚、叙利亚和伊拉克等其他国家产量下降造成的缺口。因此,阿拉伯之春对 MENA 的影响