Loading...
机构名称:
¥ 1.0

摘要 当今的机器学习平台在处理不安全和不可靠的内存系统时存在严重的稳健性问题。在传统的数据表示中,由于噪声或攻击导致的位翻转会引起值爆炸,从而导致错误的学习预测。在本文中,我们提出了 RobustHD,这是一个基于超维计算 (HDC) 的稳健且耐噪声的学习系统,模仿重要的大脑功能。与传统的二进制表示不同,RobustHD 利用冗余和全息表示,确保所有位对计算都有相同的影响。RobustHD 还提出了一个运行时框架,该框架以无监督的方式自适应地识别和重新生成错误维度。我们的解决方案不仅可以针对可能的位翻转攻击提供安全性,而且还提供了一种对内存噪声具有高度稳健性的学习解决方案。我们对从传统平台到新兴的内存处理架构进行了交叉堆叠评估。我们的评估表明,在 10% 随机位翻转攻击下,RobustHD 最多会造成 0.53% 的质量损失,而深度学习解决方案的准确度则会损失超过 26.2%。

自适应神经恢复,实现高度稳健的类脑表征

自适应神经恢复,实现高度稳健的类脑表征PDF文件第1页

自适应神经恢复,实现高度稳健的类脑表征PDF文件第2页

自适应神经恢复,实现高度稳健的类脑表征PDF文件第3页

自适应神经恢复,实现高度稳健的类脑表征PDF文件第4页

自适应神经恢复,实现高度稳健的类脑表征PDF文件第5页

相关文件推荐