神经算法推理旨在通过学习模型模仿经典算法的执行来捕获神经网络的计算。虽然共同体系结构具有足够的表现力,可以在权重空间中包含正确的模型,但当前的神经推理者正在努力概括分布数据。另一方面,经典计算不受分布变化的影响,因为它们可以描述为离散计算状态之间的过渡。在这项工作中,我们建议迫使神经推理者将执行轨迹保持为有限的预定状态的组合。为了实现这一目标,我们将离散和连续数据流分开,并描述它们之间的相互作用。在算法的状态转换上接受了监督训练,此类模型能够与原始算法完全保持一致。为了证明这一点,我们在多种算法问题上评估了我们的方法,并在单件任务和多任务设置中获得完美的考试成绩。此外,提出的架构选择使我们能够证明任何测试数据的学习算法的正确性。
主要关键词