Loading...
机构名称:
¥ 3.0

对公平公正的人工智能的需求通常与理解人工智能本身的可能性有关,换句话说,将不透明的盒子变成尽可能可检查的玻璃盒子。然而,透明度和可解释性属于技术领域和科学哲学,因此与人工智能的伦理和认识论基本上脱节。为了解决这个问题,我们提出了一种综合方法,其前提是玻璃盒子认识论应该明确考虑如何在从设计和实施到使用和评估的整个过程的关键阶段纳入价值观和其他规范性考虑因素,例如跨部门脆弱性。为了将人工智能的伦理和认识论联系起来,我们进行了双重关注点转移。首先,我们从信任人工智能系统的输出转向信任导致结果的过程。其次,我们从专家评估转向更具包容性的评估策略,旨在促进专家和非专家的评估。这两个举措共同产生了一个可供专家和非专家在探究人工智能系统的相关认识论和伦理方面时使用的框架。我们将我们的框架称为认识论兼伦理学,以表明这两个方面同等重要。我们从设计者的角度来开发它:如何创造条件将价值观内化到人工智能系统的整个设计、实施、使用和评估过程中,在这个过程中,价值观(认识论和非认识论)在每个阶段都得到明确考虑,并可供每个参与其中的重要参与者随时检查。1.认识论还是伦理学?当前人工智能(AI)认识论和伦理学的争论集中在两个基本上不相干的问题上:[1.] 人工智能的透明度和不透明性问题,即人工智能是一个玻璃或不透明的盒子[人工智能认识论];[2.] 关于让人工智能符合伦理道德的问题,确保算法尽可能公平和不偏不倚[人工智能伦理学]。我们说“基本上”不相干,因为存在将这两个问题联系起来的尝试,但与我们进入辩论的切入点有很大不同。例如,Colaner (2022) 讨论了可解释人工智能(以下简称“XAI”)是否具有内在(伦理)价值的问题,并提供了各种论据来给出肯定的答案。该领域的默认立场仍然是将伦理学与认识论分开。在本文中,我们建立了这两个问题的直接联系。在建立伦理学与认识论之间的联系时,我们展示了讨论的两个维度是如何相交的。我们称其中一个轴为“认识论—伦理学”

连接人工智能的伦理学和认识论 - PhilSci-Archive

连接人工智能的伦理学和认识论 - PhilSci-ArchivePDF文件第1页

连接人工智能的伦理学和认识论 - PhilSci-ArchivePDF文件第2页

连接人工智能的伦理学和认识论 - PhilSci-ArchivePDF文件第3页

连接人工智能的伦理学和认识论 - PhilSci-ArchivePDF文件第4页

连接人工智能的伦理学和认识论 - PhilSci-ArchivePDF文件第5页