详细内容或原文请订阅后点击阅览
简化神经网络的非线性激活函数
激活函数是形成神经元输出的函数。它为预测添加了非线性,并使基于神经网络的预测器比线性模型好得多。我们通常会问自己应该使用哪种激活函数?答案是,这个问题没有一个万能的答案。这取决于具体情况。让我带您了解最常用的激活函数及其优缺点,以帮助您做出更好的决定。我们可以定义自己的激活函数以最好地满足我们的需求,最常用的激活函数是:1. S 型激活函数 2. Tan 双曲激活函数 3. ReLU(整流线性单元) 4. Leaky ReLU 它们每个的样子如下:图片来源:DeepLearning.ai 专业化 1. S 型激活函数 S 型激活函数的范围在 0 到 1 之间。它看起来像我们在不同研究领域中看到的常见“S 形”曲线。优点:简单 - 逻辑和算术方面提供良好的非线性自然概率输出 - 对于分类问题,介于 0 和 1 之间。缺点:当你将值射向 S 形函数的极端时,网络会停止学习 - 这称为消失梯度问题。2. 棕褐色双曲这几乎是一个扩展范围(-1 到 1)的 S 形函数。优点:这会增加 S 形函数中间的稳定非线性范围,然后斜率/梯度才会变平。增加的范围有助于网络更快地学习。缺点:这种激活确实限制了尾端的梯度消失问题
来源:Ankit-AI | 分享人工智能激活函数是神经元输出的形成函数。这为你的预测添加了非线性,并使基于神经网络的预测器比线性模型好得多。
我们通常会问自己的问题是我应该使用哪种激活函数?
答案是,这个问题没有一个万能的答案。这取决于具体情况。
让我带你了解最常用的激活函数及其优缺点,以帮助你做出更好的决定。
我们可以定义自己的激活函数以最好地满足我们的需求,最常用的激活函数是:
1. Sigmoid 激活
2. Tan 双曲激活
3. ReLU(整流线性单元)
4. Leaky ReLU
它们每个的样子是这样的:
图片来源:DeepLearning.ai 专业化
1. Sigmoid 激活
Sigmoid 激活的范围在 0 到 1 之间。它看起来像我们在不同研究领域中看到的常见“S 形”曲线。
优点:
优点:简单 - 逻辑和算术方面
提供良好的非线性
自然概率输出 - 对于分类问题,介于 0 和 1 之间。
缺点:
缺点:当您将值射向 S 形的极端时,网络会停止学习 - 这称为梯度消失问题。
2. 棕褐色双曲函数
这几乎是一个扩展范围(-1 到 1)的 S 形函数。
优点:
优点:这会增加 S 形中间的稳定非线性范围,然后斜率/梯度才会变平。这种增加的范围有助于网络更快地学习。
缺点:
缺点:这种激活确实将 S 形尾端梯度消失的问题限制在一定程度,但我们有更好的选择来更快地学习。
3. ReLU
整流 - MAX(0,value)
线性 - 对于 z >0(正值)
ReLU 是仅正线性函数的别称。 对于负预测,单位的斜率为 0。 但是,对于正激活,网络肯定可以通过线性斜率更快地学习。
优点:学习更快。
优点:只要 z 为正,斜率就是 1。
缺点:
缺点:尚未发现任何缺点 :)
4. Leaky ReLU
下次见!