基于人工智能(AI)的技术已经取得了许多伟大的成就,例如人脸识别、医疗诊断和自动驾驶汽车。人工智能为经济增长、社会发展以及人类福祉和安全改善带来了巨大利益。然而,基于人工智能的技术的低可解释性、数据偏见、数据安全、数据隐私和道德问题对用户、开发者、人类和社会构成了重大风险。随着人工智能的进步,一个关键的问题是如何应对与人工智能相关的伦理和道德挑战。尽管“机器伦理”的概念是在2006年左右提出的,但人工智能伦理仍处于起步阶段。人工智能伦理是研究人工智能伦理问题相关的领域。要解决人工智能伦理问题,人们需要考虑人工智能的伦理以及如何构建合乎道德的人工智能。人工智能伦理研究与人工智能相关的伦理原则、规则、指南、政策和法规。道德人工智能是性能和行为符合道德的人工智能。 人们必须认识并理解人工智能可能引起的潜在伦理和道德问题,以制定人工智能必要的道德原则、规则、指南、政策和法规(即人工智能的道德规范)。有了适当的人工智能道德规范,人们就可以构建表现出道德行为的人工智能(即道德人工智能)。本文将通过研究人工智能的道德规范和道德人工智能来讨论人工智能道德规范。人工智能存在哪些已知的伦理和道德问题?一般和常见的道德问题是什么?哪些原则、规则、指南、政策和法规可以解决或至少减轻这些与人工智能有关的伦理和道德问题?合乎道德的人工智能需要具备哪些特征和特性?如何遵守人工智能的伦理道德来构建合乎道德的人工智能?