Loading...
机构名称:
¥ 1.0

摘要 随着人工智能(AI),特别是机器学习(ML)的潜在用途范围不断扩大,人们对相关伦理问题的认识也不断提高。这种认识的提高使人们认识到现有的立法和法规不足以保护个人、团体、社会和环境免受人工智能危害。为了应对这一认识,出现了大量基于原则的道德准则、指导方针和框架。然而,越来越明显的是,人工智能伦理原则理论与人工智能系统的实际设计之间存在着巨大的差距。在之前的工作中,我们分析了是否有可能通过使用旨在帮助人工智能开发人员、工程师和设计师将原则转化为实践的工具和方法来缩小人工智能伦理的“是什么”和“如何”之间的差距。我们得出结论,这种结束方法目前是无效的,因为几乎所有现有的转化工具和方法要么过于灵活(因此容易受到道德洗礼),要么过于严格(对背景没有反应)。这就提出了一个问题:如果即使在技术指导下,人工智能伦理也难以融入算法设计过程,那么整个支持伦理的设计努力是否都变得徒劳无功?如果不是,那么如何让人工智能伦理对人工智能从业者有用?这是我们试图通过探索为什么即使原则和技术转化工具受到限制,仍然需要它们来解决的问题,以及如何通过为被称为“道德即服务”的概念提供理论基础来潜在地克服这些限制。

人工智能伦理的务实操作化

人工智能伦理的务实操作化PDF文件第1页

人工智能伦理的务实操作化PDF文件第2页

人工智能伦理的务实操作化PDF文件第3页

人工智能伦理的务实操作化PDF文件第4页

人工智能伦理的务实操作化PDF文件第5页