机器学习被从业者广泛用于解决复杂挑战。然而,尽管受到 76% 公众的信任,科学家们仍难以解释基于机器学习的决策背后的原理。这令人担忧,因为研究表明,即使系统不可靠或他们有先验知识,人们也经常依赖不准确的机器学习建议。为了解决这些问题,迫切需要提高机器学习决策的透明度和教育水平。在这项工作中,我们提出了一套指导方针和设计含义,以便向普通受众传达可解释的人工智能模型。我们通过对最新的可解释人工智能方法进行文献综述来做到这一点,并通过一项涵盖参与者对可解释人工智能解决方案的解释的用户研究来验证这些见解。结合这项混合方法研究的见解,我们确定了七条主要的沟通准则,以提高对机器学习模型的理解。这项研究有助于更广泛地讨论决策中不透明的机器学习模型的伦理影响。通过制定指南,我们希望弥合机器学习专家和公众之间的差距,从而更好地共同理解它在我们生活中日益增长的重要性。
主要关键词