基于人工智能(AI)的技术已经取得了许多伟大的成就,例如面部识别、医疗诊断和自动驾驶汽车。人工智能有望为经济增长、社会发展以及人类福祉和安全改善带来巨大好处。然而,基于人工智能的技术的低可解释性、数据偏见、数据安全、数据隐私和道德问题对用户、开发者、人类和社会构成了重大风险。随着人工智能的发展,一个关键问题是如何应对与人工智能相关的伦理和道德挑战。尽管“机器伦理”的概念在 2006 年左右提出,但人工智能伦理仍处于起步阶段。人工智能伦理是与人工智能伦理问题研究相关的领域。要解决人工智能伦理问题,需要考虑人工智能的伦理以及如何构建合乎道德的人工智能。人工智能伦理学研究与人工智能相关的伦理原则、规则、指导方针、政策和法规。合乎道德的人工智能是一种行为和行为合乎道德的人工智能。必须认识和理解人工智能可能引起的潜在伦理和道德问题,才能制定必要的人工智能伦理原则、规则、指导方针、政策和法规(即人工智能伦理)。有了适当的人工智能伦理,就可以构建表现出道德行为的人工智能(即合乎道德的人工智能)。本文将通过研究人工智能伦理和合乎道德的人工智能来讨论人工智能伦理。人们认为人工智能存在哪些伦理和道德问题?哪些一般和常见的伦理原则、规则、指导方针、政策和法规可以解决或至少减轻人工智能的这些伦理和道德问题?道德人工智能需要具备哪些特征和特点?如何坚守人工智能伦理,打造道德人工智能?