如何开发精简而准确的深度神经网络对于实际应用至关重要,尤其是对于嵌入式系统中的应用。尽管之前沿着该研究方向的工作已经显示出一些有希望的结果,但是大多数现有方法要么无法显著压缩训练有素的深度网络,要么需要对修剪后的深度网络进行大量再训练才能重新提高其预测性能。在本文中,我们提出了一种新的深度神经网络分层修剪方法。在我们提出的方法中,每个单独层的参数都基于相应参数的分层误差函数的二阶导数独立地进行修剪。我们证明,修剪后最终的预测性能下降受每层造成的重构误差的线性组合限制。通过适当控制分层误差,只需对修剪后的网络进行轻度再训练即可恢复其原始的预测性能。我们在基准数据集上进行了大量实验,以证明我们的修剪方法与几种最先进的基线方法相比的有效性。我们的工作代码发布在:https://github.com/csyhhu/L-OBS 。
主要关键词