与此同时,很明显,人工智能领域已发布的人工智能伦理原则和技术工具对日常生活中销售、购买和使用的人工智能产品的影响微乎其微(Schiff 等人,2020 年;Vakkuri 等人,2020 年)。作为一名通过杜克大学道德人工智能实验室创建技术人工智能伦理方法的研究人员,以及作为一名竭尽全力培养下一代数据科学家负责任地使用人工智能的教育工作者,我一直在努力解决这种有记录的脱节。这种脱节是由于许多相互依存的因素造成的,这些因素并不总是显而易见的。其中一些因素,比如当前优先考虑股东而不是公民的金融生态系统,或由于弱势群体在人工智能技术行业代表性不足而导致的权力动态,已经在其他地方得到了广泛讨论(Washington 和 Kuo,2020 年;Kalluri,2020 年;Battersby,2021 年)。我写这篇评论的动机是,有一个同样重要的因素受到的关注相对较少。与前面提到的需要人工智能从业者投入和行动但可能最好通过社会科学和伦理学进行分析的问题的解决方案不同,我旨在提出的解决方案需要与社会科学家和伦理学家合作,但必须由那些负责日常创造和扩展人工智能技术的人主导。我想在这里关注的问题是,有助于缓解人工智能相关伦理挑战的技术工具并没有被创造人工智能产品并将这些产品交到消费者手中的人使用或获得(Schiff 等人,2020 年;Vakkuri 等人,2020 年;Rakova 等人,2021 年)。在继续之前,让我先明确一点:技术工具不足以缩小人工智能道德出版物与实践之间的差距,因为它们不会解决导致不道德使用人工智能的所有经济、社会和心理现象。然而,我确实认为它们是任何全球伦理人工智能解决方案的必要组成部分。它们也是缩小伦理人工智能出版与实践差距最具可扩展性和实用性的机制之一,特别是考虑到人工智能产品的快速生产速度与公共政策机制实施速度缓慢之间的巨大差距。那些已经将大部分工作投入到人工智能和人工智能应用的系统研究的人处于特权地位,可以制定流程和激励措施,使技术伦理人工智能工具更易于获取和有效。因此,我的目标是让这个人工智能研究界意识到阻碍已发布的伦理人工智能技术工具“转化”为实践的一些障碍,提供具体步骤
主要关键词