Loss Function with Cross Entropy made simple
我在 Google 的 Udacity 深度学习课程上找到了这个。 我将详细说明这些笔记,以帮助您更好地理解这个概念。 符号:D(S,L)是交叉熵L是用于训练的标签S(Y)是多项逻辑分类的每个类的概率的 softmax 输出。 为什么叫多项逻辑分类? 让我们看下面的图,有一个输入向量 X,我们用它来训练线性模型,也称为逻辑回归模型 - Wx + b。 这会产生 logit,也就是分数 Y,它进一步输入到 softmax 激活中以获得概率输出。 线性二元分类称为二项式逻辑分类。多项式表示有超过 2 个类(与二项式或二元分类相比)。-------------让我们帮助您理解交叉熵的数学。 它基本上