摘要尽管最近人们致力于使人工智能系统更加透明,但人们对此类系统普遍缺乏信任,这仍然阻碍了人们和组织使用或采用它们。在本文中,我们首先从最终用户可解释性和规范伦理的角度介绍评估人工智能解决方案可信度的方法。然后,我们通过一个涉及实际商业环境中使用的人工智能推荐系统的案例研究说明了它的采用情况。结果表明,我们提出的方法可以识别与人工智能系统相关的广泛实际问题,并进一步支持制定改进机会和通用设计原则。通过将这些发现的机会与道德考虑联系起来,总体结果表明,我们的方法可以支持可信人工智能解决方案的设计和开发以及符合道德的业务改进。