摘要 先进的机器学习模型因其出色的性能而被广泛应用于各个领域。然而,它们的复杂性往往使它们难以解释,这可能是高风险决策场景中的一个重大限制,因为可解释性至关重要。在本研究中,我们提出了可解释随机森林 (XRF),它是随机森林模型的一个扩展,它在训练过程中考虑了用户对问题及其特征空间的看法所产生的可解释性约束。虽然已经提出了许多方法来解释机器学习模型,但这些方法通常仅适用于模型训练后。此外,这些方法提供的解释可能包括人类无法理解的特征,这反过来可能会妨碍用户理解模型的推理。我们提出的方法解决了这两个限制。我们系统地将我们提出的方法应用于六个公共基准数据集,并证明 XRF 模型能够平衡模型性能和用户的可解释性约束之间的权衡。