详细内容或原文请订阅后点击阅览
机器学习“降临节日历”第 18 天:Excel 中的神经网络分类器
通过显式公式理解前向传播和反向传播机器学习“降临日历”第 18 天:Excel 中的神经网络分类器一文首先出现在《走向数据科学》上。
来源:走向数据科学神经网络回归器,我们现在转向分类器版本。
从数学角度来看,这两个模型非常相似。事实上,它们的不同主要在于输出的解释和损失函数的选择。
然而,这个分类器版本的直觉通常变得更强。
在实践中,神经网络更多地用于分类而不是回归。从概率、决策边界和类别的角度进行思考使得神经元和层的作用更容易理解。
在本文中,您将看到:
此时,一个自然的问题就出现了:
如果一个隐藏层就足够了,为什么我们要谈论这么多深度学习呢?
答案很重要。
深度学习不仅仅是将许多隐藏层堆叠在一起。深度有所帮助,但这并不是故事的全部。真正重要的是如何构建、重用和约束表示,以及为什么更深层次的架构在实践中训练和泛化更有效。
我们稍后会回到这个区别。目前,我们刻意保持网络较小,以便每个计算都可以手动理解、编写和检查。
这是真正理解神经网络分类器如何工作的最佳方式。
与我们昨天构建的神经网络回归器一样,我们将把工作分为两部分。
首先,我们研究前向传播,并将神经网络定义为将输入映射到预测概率的固定数学函数。
然后,我们转向反向传播,通过使用梯度下降最小化对数损失来训练该函数。
原理和之前一模一样。只有输出和损失函数的解释发生了变化。
1. 前向传播
在本节中,我们只关注一件事:模型本身。还没有训练。只是功能。
