人工智能 (AI) 系统在日常生活中的重要性日益凸显,这些系统在无需人工输入的情况下处理数据和采取行动的能力也不断提高,这引发了重要的法律和道德问题。本文确定了价值链中的三个主要 AI 参与者(创新者、提供商和用户)和三种主要的 AI 类型(自动化、增强和自主性)。然后,本文从两个角度考虑了 AI 创新中的责任:(i) 因开发、商业化和使用具有内置 AI 功能的产品(本文中称为“AI 工件”)而产生的严格责任索赔;(ii) 关于创建 AI 系统和 AI 工件的开发人员和管理人员的道德实践的原创研究。道德视角很重要,因为目前,法律很可能落后于技术现实——如果还没有的话。将责任问题与道德视角结合起来考虑,可以对 AI 创新的可能后果和不利影响进行更细致的评估。公司应该考虑法律和道德策略,思考自己的责任和限制责任的方法,政策制定者也应该考虑事前 AI 监管。