Loading...
机构名称:
¥ 3.0

设计和部署人工智能 (AI) 系统的组织越来越多地致力于高层次的道德原则。然而,人工智能伦理的原则和实践之间仍然存在差距。组织在尝试实施人工智能伦理时面临的一个主要障碍是缺乏明确定义的物质范围。换句话说,人工智能伦理原则应该适用于哪些系统和流程的问题仍未得到解答。当然,人工智能并没有普遍接受的定义,不同的系统带来不同的道德挑战。然而,务实的解决问题要求对事物进行分类,以便它们的分组能够促进某些特定目的的成功行动。在本文中,我们回顾并比较了以前为在实践中实施人工智能治理而对人工智能系统进行分类的尝试。我们发现,以前文献中对人工智能系统进行分类的尝试使用了以下三种心智模型之一:转换模型,即一种二元方法,根据系统的特征将系统视为或不视为人工智能系统;阶梯模型,即一种基于风险的方法,根据系统所带来的道德风险对其进行分类;矩阵,即多维系统分类,考虑了各种方面,例如上下文、数据输入和决策模型。这些用于对人工智能系统进行分类的模型各有优缺点。通过将对人工智能系统进行分类的不同方式概念化为简单的心理模型,我们希望为设计、部署或监管人工智能系统的组织提供在实践中实施人工智能治理所需的概念工具。

人工智能系统分类模型

人工智能系统分类模型PDF文件第1页

人工智能系统分类模型PDF文件第2页

人工智能系统分类模型PDF文件第3页

人工智能系统分类模型PDF文件第4页

人工智能系统分类模型PDF文件第5页