摘要 — 虽然我们目睹了旨在指导人工智能 (AI) 发展的伦理文件的快速增长,但人工智能伦理的推广却很少得到人工智能从业者的投入。鉴于人工智能造福社会的举措不断增多,这是一个需要解决的新差距,以便制定更有意义的人工智能使用和发展伦理方法。本文提供了一种方法——“共享公平”方法——旨在确定人工智能从业者在面对和解决伦理挑战时的需求,并找到第三个空间,让他们的操作语言与目前仍处于工作经验边缘的更抽象的原则相结合。我们提供了一种基于对话和共同责任的运营伦理草根方法:这种方法以对话为中心,旨在引出从业者对关键价值观运营决策的道德归因和分配,确定这些决策何时出现以及他们面临的伦理挑战,并参与一种伦理和责任语言,使从业者能够内化伦理责任。该方法通过从个人、促进对话开始,将伦理话语交还给那些旨在赋予其意义的生态系统最前沿的人,弥补了结构性决策权和精英技术知识中存在的责任不平衡。我们的主要贡献是补充最近的文献,寻求通过提供一种方法来理解伦理如何在他们的工作中体现为一种关系和相互依存的社会技术实践,从而将人工智能从业者的经验推向前台。索引术语——道德人工智能、数字伦理、负责任的人工智能
主要关键词