Loading...
机构名称:
¥ 1.0

13:20-14:10 使用模拟内存计算加速 AI Stefano Ambrogio (IBM 研究) 摘要:过去十年见证了 AI 在各种领域的广泛传播,从图像和视频识别和分类到语音和文本转录和生成。总体而言,我们观察到人们不断追求具有大量参数的大型模型。这导致计算工作量急剧增加,需要多个 CPU 和 GPU 来训练和推理神经网络。因此,硬件的改进变得越来越重要。为了适应改进的性能,内存计算提供了一个非常有趣的解决方案。虽然数字计算核心受到内存和处理器之间数据带宽的限制,但内存中的计算避免了权重转移,从而提高了功率效率和速度。演讲将描述一个总体概述,重点介绍我们自己的 14 纳米芯片,该芯片基于 34 个相变存储器技术交叉阵列,总共约有 3500 万个设备。我们在选定的 MLPerf 网络中展示了这种架构的效率,表明 Analog-AI 可以提供优于数字核心的功率性能,同时具有相当的准确性。然后,我们为开发可靠、高效的 Analog-AI 芯片的下一步提供了指导方针,特别关注实现更大、更完善的深度神经网络所需的架构约束和机会。

最终计划

最终计划PDF文件第1页

最终计划PDF文件第2页

最终计划PDF文件第3页

最终计划PDF文件第4页

最终计划PDF文件第5页