• 性能监控和错误分析:遥测系统跟踪与 AI 模型相关的关键性能指标,例如准确度、精确度、召回率和计算资源利用率(例如 CPU、GPU 使用率),这些指标对于评估训练和推理作业期间的模型有效性至关重要。这些系统还可以深入了解训练和推理操作期间的错误率和故障模式,并帮助识别可能影响 AI 性能的问题,例如模型漂移、数据质量问题或算法错误。这些系统的示例包括 Juniper Apstra 仪表板、TIG Stack 和 Elasticsearch。
致谢:本研究由印度空间研究组织-印度理工学院(B)空间技术小组(STC)通过赞助项目(RD/0119-ISROC00-001)提供支持。作者还感谢海得拉巴国家遥感中心(NRSC)主任、奥里萨邦政府水资源部(DoWR)和奥里萨邦空间应用中心(ORSAC)提供开展研究的相关数据。作者感谢 NRSC 允许访问 CartoDEM。计算资源支持由孟买印度理工学院提供。
摘要 本文重点研究情感识别,旨在基于脑电信号在与主体无关的范式中实现。然而,脑电信号在与主体无关的情感脑机接口 (aBCI) 中表现出主体不稳定性,从而导致分布偏移问题。此外,该问题可以通过领域泛化和领域自适应等方法得到缓解。通常,基于领域自适应的方法比领域泛化方法产生更好的结果,但对于新主体,需要更多的计算资源。我们提出了一种新颖的框架,即基于元学习的增强领域自适应,用于与主体无关的 aBCI。我们的领域自适应方法通过元学习得到增强,它由一个循环神经网络、一个分类器和一个基于求和可分解函数的分布偏移控制器组成。此外,我们提出,解释求和可分解函数的神经网络可以有效地估计不同领域之间的差异。增强域自适应的网络设置遵循元学习和对抗学习,其中控制器通过测试阶段的几个自适应步骤迅速适应使用目标数据的新域。我们提出的方法在公共 aBICs 数据集上的实验中被证明是有效的,并且实现了与最先进的域自适应方法类似的性能,同时避免使用额外的计算资源。
区块链本质上是一个分布式数据库,记录参与方之间的所有交易或数字事件。记录中的每笔交易都由系统参与者的共识批准和验证,这需要解决一个困难的数学难题,即工作量证明。为了使批准的记录不可变,解决数学难题并不容易,因此会消耗大量的计算资源。然而,在区块链中安装许多计算节点,通过解决一个毫无意义的难题来竞争批准记录,这是非常浪费能源的。在这里,我们将工作量证明作为一个强化学习问题,将区块链的增长建模为马尔可夫决策过程,其中学习代理对环境状态做出最佳决策,而新区块则被添加和验证。具体来说,我们将区块验证和共识机制设计为深度强化学习迭代过程。因此,我们的方法利用马尔可夫决策过程的状态转换确定性和动作选择的随机性,以及深度神经网络的计算复杂性,使区块不易重新计算并保持交易的顺序,同时利用区块链节点并行训练具有不同数据样本(状态-动作对)的相同深度神经网络,使模型能够同时在计算节点上经历多个情节。我们的方法用于设计下一代公共区块链网络,这不仅可以为工业应用节省计算资源,还可以鼓励针对常见问题的数据共享和 AI 模型设计。
背景:复杂人工智能 (AI) 模型的构建、演进和使用需要昂贵的计算资源。虽然目前可用的高性能计算环境可以很好地支持这种复杂性,但在移动设备中部署 AI 模型(这是一种日益增长的趋势)具有挑战性。移动应用程序由计算资源较少的环境组成,因此在支持 AI 的软件工程生命周期中,设计决策存在局限性,这些决策需要平衡移动应用程序的准确性和复杂性。目标:我们的目标是系统地评估在将复杂的 AI 模型(例如神经网络)部署到具有隐含资源限制的移动设备时准确性和复杂性之间的权衡。我们旨在涵盖 (i) 设计决策对实现高精度和低资源消耗实现的影响;以及 (ii) 验证分析工具以系统地促进更环保的 AI。通过这种方式,我们旨在根据设计决策对运行中的支持 AI 的应用程序的性能进行定量分析。方法:本确认性注册报告包括一项计划,旨在进行实证研究,以量化设计决策对支持 AI 的应用程序性能的影响,并报告端到端支持 AI 的软件工程生命周期的经验。具体来说,我们将在移动应用程序中实现基于图像和基于语言的神经网络,以解决移动应用程序中的多个图像分类和文本分类问题
在广东技术大学的致谢工作得到了中国广东自然科学基金会的支持(赠款号2017B030306003和No.2019b1515120078)。R. Wang得到了广东基本和应用基础研究基金会的支持(赠款号2021A1515110328和2022A1515012174)。F. Zheng,Y Fang和S. Wu得到了中国国家自然科学基金会(11874307)的支持。C.Z. Wang,V Antropov和F. Zhang得到了美国能源部(DOE),科学办公室,基础能源科学,材料科学和工程部的支持。 AMES实验室由爱荷华州立大学为美国DOE经营,合同号 de-AC02-07CH 11358,包括在伯克利国家能源研究超级计算中心(NERSC)授予计算机时间。 y太阳得到了国家科学基金会奖。 DMR-2132666。 R. Wang和H. Dong还感谢GDUT的校园网络中心和现代教育技术为这项工作提供计算资源和技术支持。C.Z.Wang,V Antropov和F. Zhang得到了美国能源部(DOE),科学办公室,基础能源科学,材料科学和工程部的支持。AMES实验室由爱荷华州立大学为美国DOE经营,合同号de-AC02-07CH 11358,包括在伯克利国家能源研究超级计算中心(NERSC)授予计算机时间。y太阳得到了国家科学基金会奖。DMR-2132666。R. Wang和H. Dong还感谢GDUT的校园网络中心和现代教育技术为这项工作提供计算资源和技术支持。
摘要 — 量子计算正成为提升当前计算资源、实现信息通信技术应用以优化流程和解决复杂且具有挑战性的特定领域问题的一大希望。然而,量子计算技术尚未成熟到可以提供明显优于高性能计算的水平。为了实现这种“量子优势”,需要更多的量子比特,这不可避免地会导致计算量子比特的拓扑结构更加复杂。这增加了退相干时间的额外困难,并意味着更高的量子比特错误率。尽管量子硬件层存在内在的不确定性,但当前的嘈杂中型量子 (NISQ) 计算机仍然很有用。为了利用这种容易出错的计算资源,需要各种概念来解决量子比特错误并提供成功的计算。本文描述并激发了对新概念量子 DevOps 的需求。这需要定期检查 NISQ 量子计算 (QC) 实例的可靠性。通过测试基本量子门和计算(C-NOT、Hadamard 等)的计算可靠性,它可以估计大规模关键计算(例如计算城市的每小时交通流量模型)提供足够质量结果的可能性。按照这种方法选择最佳匹配(云)QC 实例并将其直接与基于量子的算法和系统的开发、测试和最终操作过程集成,从而实现量子 DevOps 概念。
摘要:建模和仿真已被广泛用于解决结构工程中的广泛问题。但是,许多模拟需要大量的计算资源,随着模型的空间和时间尺度的增加,计算时间呈指数增加。这尤其重要,因为对更高的忠诚模型和类似的需求增加。最近,人工智能技术的快速发展,加上计算资源和数据的广泛可用性,驱动了机器学习技术的广泛采用,以提高模拟的计算准确性和精度,从而增强了其实用性和潜力。在本文中,我们介绍了在此上下文中使用的方法和技术的全面调查,以解决计算要求的问题,例如结构系统识别,结构设计和预测应用。专门的深神经网络算法,例如增强的概率神经网络,已成为许多文章的主题。然而,其他机器学习算法,包括神经动态分类和动态集合学习,在结构工程的特定应用中显示出很大的潜力。我们旨在提供全面的概述,并就这些强大的技术提供观点,这些技术有可能成为传统建模方法的替代方案。本文我们的目标是对结构工程中基于机器的基于机器学习的建模以及其在以下领域的应用提供最新的综述:(i)计算力学,(ii)结构健康监测,(iii)结构设计和制造,(IV)(IV)应力分析,(iv)压力分析,(v)失败分析,(VI)材料模型和设计和设计和(VII)。