Loading...
机构名称:
¥ 1.0

摘要:修剪和量化是加速LSTM(长短期内存)模型的两种常用方法。但是,传统的线性量化通常会遇到梯度消失的问题,而现有的修剪方法都有产生不希望的不规则稀疏性或大型索引开销的问题。为了减轻消失梯度的问题,这项工作提出了一种归一化的线性量化方法,该方法首先将操作数正常化,然后在局部混合最大范围内进行量化。为了克服不规则的稀疏性和大型索引开销的问题,这项工作采用了排列的块对角掩模矩阵来产生稀疏模型。由于稀疏模型高度规律,因此可以通过简单的计算获得非零权重的位置,从而避免了大型索引开销。基于由排列的块对角面胶质矩阵产生的稀疏LSTM模型,本文还提出了高能耐加速器的Permlstm,该材料全面利用了有关基质 - 载体乘积的重量,激活和产品的稀疏性,从而导致55.1%的动力减少。与先前报道的其他基于FPGA的LSTM加速器相比,与先前报道的其他基于FPGA的LSTM加速器相比,该加速器已在以150 MHz运行的ARRIA-10 FPGA上实现,并达到2.19×〜24.4×能量效率。

高能效率LSTM加速器体系结构

高能效率LSTM加速器体系结构PDF文件第1页

高能效率LSTM加速器体系结构PDF文件第2页

高能效率LSTM加速器体系结构PDF文件第3页

高能效率LSTM加速器体系结构PDF文件第4页

高能效率LSTM加速器体系结构PDF文件第5页

相关文件推荐

2024 年
¥1.0
2023 年
¥2.0
2025 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2022 年
¥1.0
2021 年
¥1.0
2024 年
¥1.0
2025 年
¥4.0
2021 年
¥17.0
2024 年
¥1.0
2024 年
¥1.0
2025 年
¥1.0
2020 年
¥1.0
2021 年
¥40.0
2024 年
¥1.0
2020 年
¥1.0
2022 年
¥4.0
2024 年
¥1.0
2025 年
¥2.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0
2021 年
¥8.0
2023 年
¥2.0