摘要 — 随着人工智能 (AI) 的部署正在改变许多领域和行业,人们担心人工智能系统在做出决策和建议时没有充分考虑各种道德方面,例如问责制、可靠性、透明度、可解释性、可争议性、隐私和公平性。虽然最近提出了许多套人工智能伦理原则来承认这些问题,但这些原则是高层的,并没有就如何开发合乎道德和负责任的人工智能系统提供切实的建议。为了深入了解这些原则的可能实施,我们进行了一项实证调查,包括对一群人工智能从业者进行半结构化访谈。突出的发现涵盖了人工智能系统设计和开发的四个方面,调整了软件工程中使用的过程:(i)高级视图,(ii)需求工程,(iii)设计和实施,(iv)部署和操作。
主要关键词