sima.ai是以软件为中心的嵌入式边缘机器学习系统片(MLSOC)公司。sima.ai的硬件软件堆栈可灵活地调整到一个平台中的任何框架,网络,模型,传感器或模态。Edge ML应用程序完全在SIMA.AI MLSOC上运行,看到性能和能源效率提高了十倍,在几分钟内,将跨越计算机视觉的ML用例带到了计算机视觉的ML用例。与Sima.ai一起,客户解锁了新的收入途径,并节省了大量成本,以在工业制造,零售,航空,国防,农业和医疗保健之间进行创新。sima.ai成立于2018年,已筹集了2.7亿美元,并由Fidelity Management&Research Company,Maverick Capital,Point72,MSD Partners,Venturetech Alliance等支持。有关更多信息,请访问www.sima.ai
联邦学习 (FL) 允许服务器跨多个分散的客户端学习机器学习 (ML) 模型,这些客户端私密地存储自己的训练数据。与集中式 ML 方法相比,FL 将计算保存到服务器,并且不需要客户端将其私有数据外包给服务器。然而,FL 并非没有问题。一方面,客户端在每个训练阶段发送的模型更新可能会泄露有关客户端私有数据的信息。另一方面,服务器学习到的模型可能会受到恶意客户端的攻击;这些安全攻击可能会毒害模型或阻止其收敛。在本文中,我们首先研究针对 FL 的安全和隐私攻击,并严格调查文献中提出的缓解每种攻击的解决方案。之后,我们讨论了同时实现安全和隐私保护的难度。最后,我们概述了解决这个悬而未决的问题并同时实现安全和隐私的方法。
随着自动化机器学习 (AutoML) 系统在复杂程度和性能方面不断进步,了解这些框架中人机交互 (HCI) 的“如何”和“为什么”变得非常重要,包括当前的和预期的。这样的讨论对于最佳系统设计是必要的,利用先进的数据处理能力来支持涉及人类的决策,但它也是识别不断提高的机器自主性水平所带来的机遇和风险的关键。在此背景下,我们重点关注以下问题:(i) 对于最先进的 AutoML 算法来说,HCI 目前是什么样子,特别是在开发、部署和维护阶段?(ii) AutoML 框架内对 HCI 的期望是否因不同类型的用户和利益相关者而异?(iii) 如何管理 HCI,以便 AutoML 解决方案获得人类的信任和广泛接受?(iv) 随着 AutoML 系统变得更加自主并且能够从复杂的开放式环境中学习,HCI 的基本性质会发生变化吗?为了考虑这些问题,我们将 HCI 中的现有文献投射到 AutoML 领域;到目前为止,这种联系基本上还没有得到探索。为此,我们回顾了包括用户界面设计、人为偏见缓解和对人工智能 (AI) 的信任等主题。此外,为了严格衡量 HCI 的未来,我们考虑了 AutoML 如何在有效开放的环境中体现。这
上下文:分散的联合学习(DFL)是一个新兴的范式,可以实现无需集中数据和模型聚合的协作模型培训,从而增强了隐私和弹性。然而,随着能源消耗和碳排放量在不同的系统配置中有所不同,其可持续性仍未得到充满信心。了解DFL的环境影响对于优化其设计和部署至关重要。目标:这项工作旨在开发一个全面和运营的框架来评估DFL系统的可持续性。为了解决它,这项工作提供了一种系统的方法来量化能耗和碳排放,从而提供了有关提高DFL可持续性的见解。方法:这项工作提出了Greendfl,这是一个完全可实现的框架,已集成到现实世界的DFL平台中。greendfl系统地分析了各种因素的影响,包括硬件加速器,模型架构,通信介质,数据分布,网络拓扑和联邦规模,对DFL系统的可持续性。此外,开发了一种可持续性感知的聚合算法(GREENDFL-SA)和节点选择算法(GREENDFL-SN),以优化能源效率并减少DFL培训中的碳排放。结果:经验实验是在多个数据集上进行的,在DFL生命周期的不同阶段测量能耗和碳排放。结果表明,本地培训主导了能耗和碳排放,而沟通的影响相对较小。使用GPU代替CPU来优化模型复杂性,并从策略上选择参与节点可显着提高可持续性。此外,使用有线通信,尤其是光纤,有效地减少了通信阶段的能源消耗,同时整合早期停止机制进一步最小化了总体排放。结论:拟议的Greendfl提供了一种评估DFL系统可持续性的全面和实用方法。此外,它提供了提高DFL环境效率的最佳实践,从而使可持续性考虑在现实世界部署中更具可行性。
机器学习目前由深度神经网络体系结构(DNN)主导,它具有很高的性能,并且经常产生卓越的性能[14]。这种主导地位导致在各种技术领域中的成功应用程序,包括图像,文本处理和分析,基于特征的数据调查和序列分析到对结构化数据(如图形或一般接近性关系数据)的评估。DNN的质量主要归因于大型模型复杂性[3]。因此,DNN主要用于无监督的表示学习和编码以及监督场景,即回归和分类学习。然而,对深层模型的培训通常需要大量的培训数据集,因此还需要长时间的培训时间。此外,由于模型的复杂性,避免损失函数的局部最小值的挑战是非平凡的[1,5,17]。解决此问题,有利于几种正则化技术[3]。此外,正如[7]中指出的那样,稳定的学习有助于因果推断,从而可以通过其他信息来增强数据库的稳定性。处理那些DI文化的另一种可能性是将有关数据可用的其他知识整合到机器处理的数据处理中
4。Huang,X.,Wang,H.,She,C.,Feng,J。等:人工智能促进了糖尿病性视网膜病的诊断和筛查。 内分泌学领域。 13,946915(2022)5。 das,S.,Kharbanda,K.,Raman,S.M.R.,Dhas,e。:基于分割的底面图像特征的深度学习体系结构,用于糖尿病性视网膜病的分类。 生物医学信号处理和控制68,102600(2021)6。 Haloi M,Dandapat S,SinhaR。用于渗出量的高斯尺度空间方法可检测,分类和严重性预测。 ARXIV预印ARXIV:1505.00737,2015。 7。 Alban M,Gilligan T.使用荧光素血管造影照片自动检测糖尿病性视网膜病。 斯坦福教育的报告。 2016。 8。 Zhou K,Gu Z,Liu W,Luo W,Cheng J,GaoS。用于糖尿病性视网膜病变分级的多手机多任务卷积神经网络。 2018年第40届IEEE医学与生物学协会工程国际会议(EMBC)。 IEEE,2018:2724-2727。 9。 Qomariah Dun,Tjandrasa H,FatichahC。使用CNN和SVM对糖尿病性视网膜病和正常视网膜图像的分类。 2019年信息与通信技术与系统(ICT)第12届国际会议。 IEEE,2019:152-157。 10。 刘Z,Lin Y,Cao Y,Hu H,Wei Y,Zhang Z. Swin Transformer:分层视觉Huang,X.,Wang,H.,She,C.,Feng,J。等:人工智能促进了糖尿病性视网膜病的诊断和筛查。内分泌学领域。13,946915(2022)5。das,S.,Kharbanda,K.,Raman,S.M.R.,Dhas,e。:基于分割的底面图像特征的深度学习体系结构,用于糖尿病性视网膜病的分类。生物医学信号处理和控制68,102600(2021)6。Haloi M,Dandapat S,SinhaR。用于渗出量的高斯尺度空间方法可检测,分类和严重性预测。ARXIV预印ARXIV:1505.00737,2015。7。Alban M,Gilligan T.使用荧光素血管造影照片自动检测糖尿病性视网膜病。斯坦福教育的报告。2016。8。Zhou K,Gu Z,Liu W,Luo W,Cheng J,GaoS。用于糖尿病性视网膜病变分级的多手机多任务卷积神经网络。 2018年第40届IEEE医学与生物学协会工程国际会议(EMBC)。 IEEE,2018:2724-2727。 9。 Qomariah Dun,Tjandrasa H,FatichahC。使用CNN和SVM对糖尿病性视网膜病和正常视网膜图像的分类。 2019年信息与通信技术与系统(ICT)第12届国际会议。 IEEE,2019:152-157。 10。 刘Z,Lin Y,Cao Y,Hu H,Wei Y,Zhang Z. Swin Transformer:分层视觉Zhou K,Gu Z,Liu W,Luo W,Cheng J,GaoS。用于糖尿病性视网膜病变分级的多手机多任务卷积神经网络。2018年第40届IEEE医学与生物学协会工程国际会议(EMBC)。IEEE,2018:2724-2727。 9。 Qomariah Dun,Tjandrasa H,FatichahC。使用CNN和SVM对糖尿病性视网膜病和正常视网膜图像的分类。 2019年信息与通信技术与系统(ICT)第12届国际会议。 IEEE,2019:152-157。 10。 刘Z,Lin Y,Cao Y,Hu H,Wei Y,Zhang Z. Swin Transformer:分层视觉IEEE,2018:2724-2727。9。Qomariah Dun,Tjandrasa H,FatichahC。使用CNN和SVM对糖尿病性视网膜病和正常视网膜图像的分类。2019年信息与通信技术与系统(ICT)第12届国际会议。IEEE,2019:152-157。 10。 刘Z,Lin Y,Cao Y,Hu H,Wei Y,Zhang Z. Swin Transformer:分层视觉IEEE,2019:152-157。10。刘Z,Lin Y,Cao Y,Hu H,Wei Y,Zhang Z. Swin Transformer:分层视觉
Transformer 模型的成功将深度学习模型规模推向了数十亿参数,但单 GPU 的内存限制导致在多 GPU 集群上进行训练的需求迫切。然而,选择最优并行策略的最佳实践仍然缺乏,因为它需要深度学习和并行计算领域的专业知识。Colossal-AI 系统通过引入统一接口将模型训练的顺序代码扩展到分布式环境,解决了上述挑战。它支持数据、管道、张量和序列并行等并行训练方法,并集成了异构训练和零冗余优化器。与基线系统相比,Colossal-AI 在大规模模型上可以实现高达 2.76 倍的训练加速。
在本文中,我们旨在为在人工智能领域(AI)中出现的各种工具带来一些顺序,重点是机器学习领域(ML)。为此,我们建议对ML系统开发生命周期进行组织的工具分类,并回顾分类的每个部分中现有工具。我们认为,这将有助于更好地了解当前可用的工具生态系统,还将使我们能够确定开发新工具以帮助开发AI和ML系统的利基。在审查了工具的最新工具后,我们确定了三种趋势:将人类纳入机器学习过程的循环,从临时和实验方法到更工程的角度的运动,以及使在没有教育背景的人们开发智能系统的能力中,从而使对环境的焦点从技术上转移到了技术中,从而使人们更容易开发智能系统。
Transformer 模型的成功将深度学习模型规模推向了数十亿参数,但单 GPU 的内存限制导致在多 GPU 集群上进行训练的需求迫切。然而,选择最优并行策略的最佳实践仍然缺乏,因为它需要深度学习和并行计算领域的专业知识。Colossal-AI 系统通过引入统一接口将模型训练的顺序代码扩展到分布式环境,解决了上述挑战。它支持数据、管道、张量和序列并行等并行训练方法,并集成了异构训练和零冗余优化器。与基线系统相比,Colossal-AI 在大规模模型上可以实现高达 2.76 倍的训练加速。