通过关联焦距损失、温度缩放和适当性来改进校准

在机器学习分类任务中,实现高精度只是目标的一部分;同样重要的是,模型要表达它们对预测的信心程度——这一概念称为模型校准。经过良好校准的模型提供的概率估计可以密切反映结果的真实可能性,这在医疗保健等领域至关重要,[…]

来源:ΑΙhub

在机器学习分类任务中,实现高精度只是目标的一部分;同样重要的是,模型要表达它们对预测的信心——这一概念称为模型校准。经过良好校准的模型提供的概率估计可以密切反映结果的真实可能性,这在医疗保健、金融和自主系统等领域至关重要,因为决策依赖于可靠的预测。影响模型精度和校准的一个关键因素是在训练过程中对损失函数的选择。损失函数通过以某种方式惩罚预测中的错误来指导模型如何从数据中学习。在这篇博文中,我们将探讨如何选择损失函数来实现良好的校准,重点关注最近提出的焦点损失,并试图理解为什么它会导致相当好的校准性能。

对于多类分类问题,常用的损失包括交叉熵(对数损失)和均方误差(Brier 分数)。这些损失函数是严格正确的,这意味着当预测概率与基本事实概率完全匹配时,它们会被唯一地最小化。为了说明正确性,请考虑一个训练集,其中 10 个实例具有相同的特征值,其中 8 个为实际正值,2 个为负值。当预测具有相同特征的新实例的正结果概率时,预测 0.8 是合乎逻辑的,而这正是适当损失激励模型进行预测的结果。

训练集

减少模型对测试集的预测过度自信的一种常见方法是应用事后校准。这涉及学习验证集上的转换,该转换调整模型的预测概率以更好地与真实概率保持一致,而无需改变模型本身。

事后校准

焦点损失包含一个非负超参数,其表达式如下:

(1)

(1)

(2)

(2)