摘要 近年来,技术系统的伦理问题已成为学术研究和国际政策关注的领域。一些组织因此发布了符合这一趋势的道德人工智能 (AI) 原则。这些文件确定了 AI 开发和部署的原则、价值观和其他抽象要求。批评者对这些文件是否具有建设性,或者它们是否是作为更高形式的美德信号而产生的担忧。在有关这些文件的学术文献中,一个开始显现的主题是,缺乏产生道德 AI 的有效和实用的方法和流程。本文试图从公司、组织、政府和学术角度等一系列背景出发,对道德 AI 文件进行批判性分析。我们探索和分析了人工智能指南的理论和实践部分,从而揭示了在这些文件中引入可衡量部分的必要性,以确保基于道德原则部署人工智能系统取得积极成果。我们为利益相关者提出了一个最低限度的框架,以道德和以人为本的方式开发人工智能。