Aladdin [1] 是一个预 RTL 功耗/性能模拟器,旨在实现以加速器为中心的系统的快速设计空间搜索。该框架将算法的高级语言描述作为输入(C 或 C++),并使用动态数据依赖图 (DDDG) 作为加速器的表示,而无需生成 RTL。从无约束程序 DDDG(对应于加速器硬件的初始表示)开始,Aladdin 对图形应用优化和约束,以创建加速器活动的真实模型。我们针对一系列应用,通过手写 Verilog 和商用高级综合 (HLS) 工具对加速器的 RTL 实现验证了 Aladdin。我们的结果表明,与传统 RTL 流程生成的加速器设计相比,Aladdin 可以高精度地模拟功耗、性能和面积,误差在 10% 以内,同时以更少的设计工作量和时间提供这些估算。 Aladdin 可以捕捉加速器设计的权衡,从而为异构系统(包括加速器、通用核心和共享内存层次结构,例如在移动 SoC 中看到的)提供新的架构研究方向。特别是,Aladdin 允许用户在异构环境中探索加速器的定制和共享内存层次结构。例如,在使用 GEMM 基准的案例研究中,Aladdin 通过评估整个系统的更广泛设计空间发现了重要的高级设计权衡。我们设想 Aladdin 既可以用作加速器模拟器,也可以用作未来多加速器系统的设计空间探索工具。
多智能体轨迹预测是一项基础任务,可应用于自动驾驶、物理系统建模和智慧城市等各个领域。该任务具有挑战性,因为智能体交互和底层连续动力学共同影响其行为。现有方法通常依赖图神经网络 (GNN) 或 Transformer 来提取智能体交互特征。然而,它们往往忽略了智能体之间的距离和速度信息如何动态地影响它们的交互。此外,以前的方法使用 RNN 或一阶常微分方程 (ODE) 来模拟时间动态,这可能缺乏对每个智能体如何受交互驱动的解释性。为了应对这些挑战,本文提出了 Agent Graph ODE,这是一种显式模拟智能体交互和连续二阶动力学的新方法。我们的方法采用变分自编码器架构,在编码器模块中结合了具有距离信息的时空Transformer和动态交互图的构建。在解码器模块中,我们采用具有距离信息的GNN来建模智能体交互,并使用耦合的二阶微分方程(ODE)来捕捉底层的连续动力学,该微分方程通过建模加速度和智能体交互之间的关系来构建模型。实验结果表明,我们提出的Agent Graph ODE在预测精度方面优于最先进的方法。此外,我们的方法在训练数据集中未见的突发情况下也表现良好。
如今,人工智能 (AI) 对我们的生活有着无处不在的影响。这涉及产品推荐、风险评估和对人们生存至关重要的系统,例如医疗诊断系统。特别是当系统做出如此关键的决策时,就会出现一个问题:为什么以及如何做出特定的决策 [3]。问题在于,此类系统的许多底层算法对用户来说都是黑匣子,因此缺乏透明度 [1]。这是可解释人工智能 (XAI) 研究领域的驱动力。它提供了一组可用于描述机器学习 (ML) 模型行为的方法,从而提供了一定程度的透明度 [1]。当前的研究重点是开发新的、大多是孤立的 XAI 方法,例如代理模型、部分依赖图或累积局部效应,而不是真正构成向用户解释模型行为的良好整体方法 [10]。研究问题是,如何利用这些方法的结果来回答人类对机器学习决策的疑问?这篇尚未完成的论文介绍了一种新的可解释人工智能系统 ERIC,这是一种基于规则的、交互式和对话式的可解释人工智能代理。ERIC 将最流行的可解释人工智能方法应用于机器学习模型,以提取存储在基于规则的系统中的知识。潜在用户可以通过类似聊天的对话界面与 ERIC 交流,并获得有关机器学习模型推理行为的适当解释。该系统专门针对领域专家,旨在提供日常解释。它结合了人工智能、人机交互和社会科学等研究领域的见解 [12]。除了现有的相关对话系统(例如用于执行数据科学任务的 Iris 代理 [2] 或用于解释情境感知应用程序的 LAKSA 代理 [8])之外,ERIC 还专注于机器学习模型的解释。
解密基因组中的核苷酸如何编码调节指令和分子机器是生物学的长期目标。DNA语言模型(LMS)通过对每个核苷酸的序列上下文进行建模概率来隐式捕获功能元素及其组织。但是,由于缺乏可解释的方法,使用DNA LMS发现功能基因组元素一直在挑战。在这里,我们引入了核苷酸依赖性,该核苷酸依赖性量化了一个基因组位置的核苷酸取代如何影响其他位置核苷酸的概率。我们生成了动物,真菌和细菌种类千倍体范围内成对核苷酸依赖性的全基因组图。我们表明,核苷酸依赖性比序列比对和DNA LM重建更有效地表明了人类遗传变异的有害性。调节元素在依赖图中显示为密集块,从而可以准确地对转录因子结合位点的系统识别,就像在实验结合数据上训练的模型一样准确地识别。核苷酸依赖性还突出了RNA结构内接触的基础,包括伪诺和三级结构接触,精确地。这导致发现了四个小说,实验验证的RNA结构中的大肠杆菌。最后,使用依赖图,我们通过基准测试和视觉诊断来揭示几种DNA LM体系结构和训练序列选择策略的临界局限性。完全,核苷酸依赖性分析为发现和研究功能元件及其在基因组中的相互作用开辟了新的途径。
了解与美沙酮参与无意药过量死亡相关的死者特征的知识可以帮助您努力干预这些死亡。ML模型具有现有数据,提供具有成本效益的手段来帮助创建有效的干预措施。在这项研究中,我们旨在开发一种优化的ML算法,用于使用伊利诺伊州州非明显药物过量报告系统(SUDORS)的数据来预测通过美沙酮过量死亡的方法。我们利用IL SUDORS 2019-2022数据进行培训(n = 11931),带有选定的指标(n = 28)。为了解决与非甲基阿达酮相关死亡的不平衡,我们采用了合成少数族裔的过度采样技术。接下来,我们评估了各种机器学习模型,包括逻辑回归,支持向量机,随机森林,神经网络和山脊回归。使用METIC评估模型性能,例如精度,精度,Precision-Recall曲线(AUPRC)等。利用单独的培训(n = 15813),验证(n = 3388)和测试(n = 3389)数据集,随机森林模型的表现优于所有其他模型,具有92%的精度,91%的精度,93%的召回率和0.97 AUPRC。值得注意的是,这些外部是使用主要是人口统计指标实现的。通过分析部分依赖图,我们能够看到每个指标的变化如何动态影响与美沙酮相关的死亡。这项研究证明了ML模型在鉴定美沙酮参与无意药过量死亡中的潜力,并有助于预防这些死亡的知识库。利用SUDORS数据,随机森林模型表现出了出色的表现,突出了其对医疗保健专业人员,预防和减少危害专家的价值以及决策者。
机器学习 (ML) 正在改变着工业、科学和社会。如今,ML 算法可以在理发店预约(Leviathan 和 Matias,2018 年)、根据蛋白质的氨基酸序列确定其 3D 形状(Senior 等人,2020 年),甚至可以撰写新闻文章(Brown 等人,2020 年)。仔细观察这些发展,我们发现模型越来越复杂。不同的 ML 模型以启发式方式堆叠在一起,但理论支持有限(Hutson,2018 年)。在某些应用中,只要算法在大多数情况下表现良好,复杂性可能就不是问题。然而,在社会、认识论或安全关键领域,复杂性可能会排除 ML 解决方案——例如自动驾驶、科学发现或刑事司法。高度复杂算法的两个主要缺点是模糊性问题(Lipton,2018 年)和对抗性攻击(Szegedy 等人,2014 年)。模糊性问题描述了人类对 ML 算法内部运作的有限认知访问,尤其是关于参数的语义解释、学习过程和 ML 决策的人为可预测性(Burrell,2016 年)。这种可解释性的缺乏最近引起了广泛关注,从而催生了可解释人工智能 (XAI) 领域的发展(Doshi-Velez 和 Kim,2017 年;Rudin,2019 年)。人们提出了许多技术来深入了解机器学习系统(Adadi 和 Berrada,2018 年;Doˇsilovi´c 等人,2018 年;Das 和 Rad,2020 年)。与模型无关的方法尤其受到关注,因为与特定于模型的方法不同,它们的应用不限于特定的模型类型(Molnar,2019 年)。全局与模型无关的解释技术(如置换特征重要性(Fisher 等人,2019 年)或部分依赖图(Friedman 等人,1991 年))旨在理解机器学习算法的一般属性。另一方面,局部模型无关解释方法(如 LIME(Ribeiro 等人,2016 年)或 Shapley 值(ˇ Strumbelj 和 Kononenko,2014 年))旨在理解算法在特定区域的行为。解释特定模型预测的一种方法是反事实解释 (CE)(Wachter 等人,2017 年)。CE 通过提供最接近的替代输入来解释预测,该输入将导致不同的(通常是期望的)预测。CE 是我们在本文中研究的第一类对象。对抗性攻击问题描述了这样一个事实:复杂的 ML 算法容易受到欺骗(Papernot 等人,2016a;Goodfellow 等人,2015;Szegedy 等人,2014)。攻击者可以利用此类故障来伤害模特雇主或危及最终用户(Song 等人,2018)。研究对抗性攻击的领域称为对抗性机器学习(Joseph 等人,2018)。如果攻击发生在训练过程中,通过插入错误标记的训练数据,这种攻击称为投毒。如果攻击发生在训练过程之后,通常称为对抗性示例 (AE)(Serban 等人,2020 年)。AE 是类似于真实数据但被训练过的 ML 模型错误分类的输入,例如,乌龟图像被归类为 rière(Athalye 等人,2018 年)。因此,错误分类在这里意味着算法与某些(通常是人类给出的)基本事实相比分配了错误的类别/值(Elsayed 等人,2018 年)。AE 是与我们的研究相关的第二类对象。尽管不透明度问题和对抗性攻击问题乍一看似乎毫无关联,但仍有充分的理由联合研究它们。 AE 显示了 ML 模型失败的地方,检查这些失败可以加深我们对模型的理解(Tomsett 等人,2018 年;Dong 等人,2017 年)。另一方面,解释可以阐明如何改进 ML 算法,使其对 AE 更具鲁棒性(Molnar,2019 年)。缺点是,解释可能包含有关模型的太多信息,从而允许构建 AE 并攻击模型(Ignatiev 等人,2019 年;Sokol 和 Flach,2019 年)。CE 与 AE 的联系比其他解释更强。CE 和 AE 可以通过解决相同的优化问题 1 来获得(Wachter 等人,2017 年;Szegedy 等人,2014 年):