在日常设备上启用保护隐私的人工智能训练

一种新方法可以为医疗保健和金融等高风险应用带来更准确、更高效的人工智能模型,即使在资源贫乏的环境中也是如此。

来源:MIT新闻 - 人工智能

麻省理工学院研究人员开发的一种新方法可以将保护隐私的人工智能训练方法加速约 81%。这一进步可以让更多资源受限的边缘设备(例如传感器和智能手表)部署更准确的人工智能模型,同时保证用户数据的安全。

麻省理工学院的研究人员提高了联邦学习技术的效率,该技术涉及一个由互联设备组成的网络,这些设备协同工作来训练共享的人工智能模型。

在联邦学习中,模型从中央服务器广播到无线设备。每个设备使用其本地数据训练模型,然后将模型更新传输回服务器。数据保持安全,因为它们保留在每台设备上。

但并非网络中的所有设备都具有足够的容量、计算能力和连接性来及时存储、训练和与服务器来回传输模型。这会导致延迟,从而恶化训练性能。

麻省理工学院的研究人员开发了一种技术来克服这些内存限制和通信瓶颈。他们的方法旨在处理具有各种限制的无线设备异构网络。

这种新方法可以使人工智能模型更可行地用于具有严格安全和隐私标准的高风险应用,例如医疗保健和金融。

“这项工作旨在将人工智能引入目前无法运行这些强大模型的小型设备。我们在日常生活中随身携带这些设备。我们需要人工智能能够在这些设备上运行,而不仅仅是在巨型服务器和 GPU 上运行,这项工作是实现这一目标的重要一步,”电气工程和计算机科学 (EECS) 研究生、该技术论文的主要作者 Irene Tenison 说道。

减少延迟时间

“这种滞后时间会减慢训练过程,甚至导致训练失败,”Tenison 说。

他们的框架涉及三个主要创新。