此外,并非所有对AI透明度的担忧都是如此之高。有些担忧也更加脚踏实地。认为AI威胁要加剧当前歧视的人。担心,不透明的AI产生了促进种族主义,性别歧视和其他形式歧视的新方法,以及隐藏这种歧视的新方法。人类将继续以可预测的方式成为种族主义。这将部分归因于不透明的过程,这些过程指导了人类如何做出决定。,但是AI将创造新的种族主义方式。,它将创造新的方式来掩盖种族主义。这将是由于指导AI做出决定的不透明过程。AI可能与人类一样透明,理由是作出决定的原因。,但它的不透明性隐藏了支持和维持人类不透明度不存在的偏见的新方法。解决不透明人工智能中种族偏见的担忧,ZKMG(2019年,第673页)说:
设计挑战 为了有意义地挑战一项决策,决策主体需要某种形式的信息来理解该决策,决定是否提出异议,并用作异议的理由。许多用于决策的人工智能系统实际上都是“黑匣子” [17];它们的决策过程由于使用复杂的算法或技术(如深度学习)而被隐藏,或者公司为了保护商业机密而故意这样做 [5]。这种不透明性使得人们很难理解为什么做出一项决策,因此也很难以任何有意义的方式对其进行质疑。相比之下,在人类决策中,人们通常可以向决策者寻求决策原因的解释。通常,在高风险决策中,必须在决策过程中记录原因,以减轻事后解释不准确的问题。令人鼓舞的是,可解释人工智能(XAI)领域正在向可解释性方面迈进 [19]。到目前为止,XAI 还没有专注于专门为质疑提供解释,这为研究提供了一条新的途径。
作为全球体系的重要组成部分,金融部门在我们共同向更可持续的未来转型过程中发挥了更积极的作用,更好地管理我们的自然资源。可持续金融在将环境因素纳入投资和决策过程方面取得了重大进展。可持续发展目标 (SDG)、2015 年《巴黎协定》的通过以及大量专门提供数据、方法和分析工具的组织都为这一努力提供了助力。然而,金融部门往往不是缺乏做出正确气候和环境决策的意愿。更常见的情况是,他们不清楚什么是正确的决策。过去十年,企业和主权 ESG 数据的发展是为了回答这些问题。虽然 ESG 领域为减少环境问题的不透明性做出了重大贡献,但世界银行最近的研究表明,环境因素仍然是金融部门最难纳入的因素。为了及时应对自然和气候危机,我们需要进一步提高透明度和问责制。
摘要:本文研究了规范自主武器的适当原则,其中一些原则已纳入国际人道主义法 (IHL),其他一些原则仍仅停留在理论上。区分平民和非平民、解决责任空白和比例原则是规范人工智能 (AI) 战争使用的基本原则,但必须将人类对战争人工智能的重大控制纳入其中。通过假设演绎程序,采用定性方法和文献综述,得出结论:实现区分标准、价值敏感设计、消除问责空白、重大人类控制和国际人道法必须支持对自主武器系统使用的规范——然而,区分平民和非平民和比例原则在技术上尚不可行,这使得遵守国际人道法仍然依赖于重大人类控制;而战争人工智能算法的不透明性将使其使用的法律责任变得困难。
摘要:人工智能 (AI) 在公共行政领域的不断扩大使用为政府创造了无数机会。西班牙现行法规已建立电子行政并支持这项新技术的扩展和实施,但它们可能不适应人工智能引起的法律需求。因此,本研究旨在确定人工智能在西班牙公共行政中的使用所带来的风险以及法律机制是否可以解决这些风险。我们采用定性研究方法回答了这些问题,对几位该领域的专家进行了半结构化访谈。尽管这项技术可能带来好处,但在整个研究过程中,我们可以确认,人工智能的使用会产生一些问题,例如不透明性、法律不确定性、偏见或违反个人数据保护。西班牙法律已经提供的机制不足以避免这些风险,因为它们并非为应对人工智能在公共行政中的使用而设计的。此外,需要建立人工智能的统一法律定义。
全球税务管理部门越来越依赖人工智能 (AI) 系统实现自动化。然而,自动化对接受算法评估的纳税人的权利具有巨大的潜在影响,而复杂的人工智能系统的不透明性又加剧了这种影响。本文认为,充分保护纳税人的权利需要使用可解释的人工智能 (XAI) 技术,使纳税人、行政上诉机构和法院能够理解税务人工智能系统的运作和决策。这一要求源于指导税收的宪法原则。然而,人工智能的软硬法律手段并没有充分解决这个问题,它们没有解决税收领域的特定信息需求。为了解决这一差距,作者在文章的最后总结了正确应用解释技术到税务人工智能的技术和法律挑战,以确保自动化不会以牺牲纳税人的权利为代价。
调整保证框架以涵盖学习过程并解决 AI/ML 组成部分中的开发错误; 创建数据管理框架,以解决用于 ML 项目训练及其验证的数据集的正确性(偏差缓解)和完整性/代表性问题; 解决 ML 过程各个步骤中的模型偏差和方差权衡问题; 详细说明 ML/DL 应用中稳健性和不存在“非预期功能”的相关保证; 应对人类对 ML 应用行为理解的局限性,考虑到它们的 随机起源和 ML 模型复杂性; 管理“AI 黑匣子”中剩余风险的缓解(“黑匣子”这一表达是对 AI/ML 技术的典型批评,因为 AI/ML 模型的复杂性和性质带来了一定程度的不透明性,使它们看起来像无法验证的黑匣子(与基于规则的软件不同); 获得最终用户的信任。
近年来,人工智能 (AI) 的潜力呈指数级增长,它不仅创造价值,也带来风险。人工智能系统的特点是其复杂性、不透明性和运行自主性。现在和可预见的未来,人工智能系统将以非完全自主的方式运行。这意味着,为相关人类当事方提供适当的激励对于减少与人工智能相关的危害仍然至关重要。因此,应调整责任规则,为相关方提供激励措施,以有效降低潜在事故的社会成本。依靠法经济学的方法,我们解决了应将何种责任规则应用于与人工智能相关的价值链上的不同当事方的理论问题。此外,我们批判性地分析了欧盟正在进行的政策辩论,讨论了欧洲政策制定者无法针对不同利益相关者确定有效责任规则的风险。
人工智能技术的发展已经使人类的感知能力和感知能力得到极大的提升,已经渗透到我们日常生活和工业制造的各个方面,为提供智能服务做出了巨大贡献[2]。许多研究关注人工智能技术带来的突破。例如,Rashidi和Cook[3]指出人工智能算法可以使生活环境更加智能,生活质量更高。Parapugna等[4]阐述了人工智能在智能交通系统中的重要意义,如智能车路系统、高速公路事件检测、城市轨道交通走廊控制和短期交通流量预测。Yu等[5]概述了人工智能技术在医疗健康领域带来的最新进展,如自动诊断、临床实践和基础生物医学研究。然而,随着人工智能技术的快速发展和在日常生活中的应用,一些科学家开始担心人工智能发展带来的挑战,特别是人工智能与人类智能的未来关系。从技术方面来看,由于工程上的局限性和人工智能技术不透明性,人工智能的发展面临着巨大的挑战。
Emily Sullivan (2019) 在最近的一篇评论中研究了 ML 模型在科学研究中的使用。尽管她否认不透明性会对这些模型的科学效用产生负面影响,但 Sullivan 认为它们的链接不确定性会。Sullivan 将链接不确定性定义为“缺乏支持将模型与目标现象联系起来的科学和经验证据”(Sullivan 2019: 1)。换句话说,当不清楚模型是什么模型时,就会出现链接不确定性。作为一个说明性示例,Sullivan 考虑了 Deep Patient:一种学习将患者特征映射到可能疾病上的 DNN(Miotto 等人,2016)。她的观点是,尽管网络发布了可靠的诊断预测,但医学科学家可以从该模型中获得的理解是有限的。这是因为不清楚该模型是否追踪了患者特征与可能疾病之间的真正因果关系,或者它是否仅仅是利用了虚假的相关性,例如,具有某些特征的患者比其他特征接受更频繁的测试。