Loading...
机构名称:
¥ 1.0

如果神经网络规模较大,则往往在训练时获得更高的准确度,即使生成的模型参数过多。但是,在训练之前、之中或之后小心地删除过多的参数,也可能产生准确度相似甚至更高的模型。在许多情况下,这可以通过简单的启发式方法实现,例如删除一定比例的绝对值最小的权重,即使绝对值并不是权重相关性的完美指标。在获得明显更佳的剪枝性能取决于考虑删除多个权重的综合影响这一前提下,我们重新审视了基于影响的剪枝的经典方法之一:最佳脑外科医生 (OBS)。我们提出了一种易于处理的启发式方法来解决 OBS 的组合扩展,其中我们选择要同时删除的权重,并将其与未剪枝权重的单次系统更新相结合。我们的选择方法在高稀疏性方面优于其他方法,如果在这些方法之后应用单次权重更新,也会很有优势。源代码:github.com/yuxwind/CBS。

修剪神经网络中相互抵消的权重

修剪神经网络中相互抵消的权重PDF文件第1页

修剪神经网络中相互抵消的权重PDF文件第2页

修剪神经网络中相互抵消的权重PDF文件第3页

修剪神经网络中相互抵消的权重PDF文件第4页

修剪神经网络中相互抵消的权重PDF文件第5页