摘要 — 训练神经网络以用于神经形态部署并非易事。已经提出了多种方法来调整适合训练的反向传播或类似反向传播的算法。考虑到这些网络通常具有与传统神经网络非常不同的性能特征,因此通常不清楚如何设置网络拓扑或超参数以实现最佳性能。在这项工作中,我们引入了一种贝叶斯方法来优化用于训练可部署到神经形态硬件的二进制通信网络的算法的超参数。我们表明,通过针对每个数据集优化此算法的超参数,我们可以在每个数据集上实现此算法比以前最先进的准确度的提高(高达 15%)。这种性能飞跃继续强调将传统神经网络转换为适用于神经形态硬件的二进制通信时的潜力。索引术语 — 超参数优化、神经网络、贝叶斯优化、神经形态
主要关键词