摘要。包括Yolov4和Yolov5在内的Yolo系列对象检测算法在各种医学诊断任务中表现出卓越的表现,在某些情况下超过了人类的能力。但是,他们的黑盒性质限制了他们在需要模型决策的信任和解释性的医学应用中的采用。为了解决这个问题,已经以热图的形式提出了对AI模型的视觉解释,该模型突出了输入区域中最大程度贡献特定决策的输入区域。基于梯度的方法,例如Grad-CAM [1]和非基于梯度的方法,例如EIGEN-CAM [2],适用于Yolo模型,不需要新的层实现。本文评估了Grad-CAM和EIGEN-CAM在Vindrcxr胸部X射线异常检测数据集上的性能[3],并讨论了这些方法的局限性,以向数据科学家解释模型决策。
机器学习方法在科学过程中可能是有价值的帮助,但是他们需要面对来自非均匀实验条件的数据的具有挑战性的环境。最近,元学习方法在多任务学习方面取得了重大进展,但它们依靠黑盒神经网络,占据高计算成本和有限的解释性。利用学习问题的结构,我们认为可以使用更简单的学习模型,并具有以学习任务为例,可以使用更简单的学习模型来实现多环境的概括。至关重要的是,我们证明该体系结构可以识别系统的物理参数,从而实现可解释的学习。我们通过将其与物理系统上的最新算法进行比较,降低了我们方法的竞争性概括性能和低计算成本,从玩具模型到复杂的,非分析系统。我们的方法的解释性用原始应用在物理参数诱导的适应性和自适应控制中进行了说明。
在这篇概念性论文中,我们回顾了有关人工智能/机器学习(AI/ML)教育的现有文献,以确定如何概念化学习和教学ML的三种方法。其中一种是数据驱动的方法,强调为年轻人提供创建数据集,训练和测试模型的机会。第二种方法是学习算法驱动的,优先考虑学习学习算法。此外,我们确定了整合前两种方法的第三种方法中的努力。在我们的审查中,我们着重于解开方法:(1)玻璃盒和黑盒的不同方面ML的不同方面,(2)基于学习者的利益,并为设计应用程序提供了机会,(3)整合道德和正义。在讨论中,我们解决了当前方法的挑战和机遇,并提出了工具和学习活动设计的未来方向。
文章信息ABS随着网络威胁的不断发展并变得更加复杂,传统的安全措施不再足以保护网络和敏感数据。人工智能(AI)和机器学习(ML)技术提供了强大的工具,可以通过实现更有效,更有效的威胁检测和响应来增强网络安全。本文概述了网络安全中AI和ML的当前状态,讨论了关键技术,应用程序,挑战和未来方向。我们回顾用于任务的ML算法,例如异常检测,恶意软件分类和网络入侵检测。案例研究显示了在现实世界中的网络安全系统中成功实施AI/ML。 还讨论了限制和挑战,包括需要大型标签数据集,对ML模型的对抗性攻击以及解释黑盒ML模型的困难。 最后,我们重点介绍了有希望的研究方向,例如可解释的网络安全性AI,无监督的学习方法以及将ML与其他安全工具和框架集成。 AI和ML将在网络安全方面发挥越来越重要的作用,并且正在进行的研究将有助于释放其保护我们的数字基础设施的全部潜力。 关键字:人工智能;机器学习;网络安全;入侵检测;恶意软件检测;异常检测;网络威胁案例研究显示了在现实世界中的网络安全系统中成功实施AI/ML。还讨论了限制和挑战,包括需要大型标签数据集,对ML模型的对抗性攻击以及解释黑盒ML模型的困难。最后,我们重点介绍了有希望的研究方向,例如可解释的网络安全性AI,无监督的学习方法以及将ML与其他安全工具和框架集成。AI和ML将在网络安全方面发挥越来越重要的作用,并且正在进行的研究将有助于释放其保护我们的数字基础设施的全部潜力。关键字:人工智能;机器学习;网络安全;入侵检测;恶意软件检测;异常检测;网络威胁
HAMON FZCO,研发摘要这项工作提出了一个广义梯度估计器,该梯度估计器优化了涉及已知或黑框函数的期望,用于离散和连续的随机变量。我们合成并扩展了用于构建梯度估计器的标准方法,提供了一个框架,该框架会产生最小的计算开销。我们提出的方法证明了各种自动编码器的有效性,并引入了对加强学习,适应离散和连续的动作设置的直接扩展。实验结果揭示了提高的训练性能和样本效率,突出了我们在各个领域中估计器的实用性。未来的应用程序包括具有复杂注意力机制的培训模型,具有非差异可能性的连续远值模型,以及将我们的方法与现有方差减少技术和优化方法相结合。关键字:梯度估计,变异自动编码器(VAE),增强学习,重新聚集技巧,控制变体,策略梯度方法1。简介基于坡度的增强支持AI中的推进和支持学习。反向传播[16,19,12]的数字确定了可区分目标的斜率,而重新聚集技巧[24,4,4,13]赋予了概率模型的实际改进。尽管如此,许多目标需要斜率进行反向传播,例如,支持学习的黑盒能力[18]或离散抽样的不连续性[7,2]。[22]通过持续的放松提出了一个有思想的,低裂开的评估者。2。正在进行的技术通过角度评估者(包括艺人专家方法[21]和持续放松[7,2]来解决这一问题。我们通过学习基于大脑网络的控制变量来扩大这一点,即使没有一致的放松,也可以产生较低的,公平的评估材料,例如在支持学习或黑盒改进中。背景2.1。倾斜度估计器简化边界θ扩大支持学习中显示的假设(预期奖励Eτ〜π [r])和休眠变量模型(增强p(x |θ)= e p(z |θ)[p(x | z)])。我们增强L(θ)= E P(B |θ)[F(B)]。(1)
大型语言模型 (LLM) 因其强大的功能和对世界的广博知识而对社会产生了巨大影响。人们已经创建了各种应用程序和工具,允许用户在黑盒场景中与这些模型进行交互。但是,这种情况的一个限制是用户无法修改模型的内部知识,而添加或修改内部知识的唯一方法是在当前交互期间向模型明确提及它。这种学习过程称为上下文训练,它指的是局限于用户当前会话或上下文的训练。上下文学习具有重要的应用,但也有很少被研究的局限性。在本文中,我们进行了一项研究,展示了模型如何受到上下文中不断流动的信息之间的干扰,导致其忘记以前学到的知识,从而降低模型的性能。除了展示问题之外,我们还提出了基于 bAbI 数据集的评估基准。
德国 trenz@uni-goettingen.de 摘要 人工智能 (AI) 越来越多地被纳入创新的个人健康应用程序中,以改善用户的决策。为了促进理解和增加此类基于 AI 的个人健康应用程序的使用,公司正逐步转向可解释的人工智能 (XAI) 设计。然而,我们认为对基于 AI 的建议的解释不仅有积极的后果,也有消极的后果。基于社会技术视角,我们开发了一个模型,将 XAI 与技术压力(包括良性压力和痛苦)及其下游后果联系起来。为了测试我们的模型,我们进行了一项在线实验,参与者与 XAI 或黑盒 AI 进行互动。我们的结果表明 (1) XAI 既会导致良性压力,也会导致痛苦,(2) 同时对客观表现、满意度和使用意愿产生不同的影响。我们的研究结果揭示了 XAI 对健康背景下决策过程的双重影响,为信息系统研究和实践做出了贡献。
摘要 —可解释人工智能 (XAI) 旨在为用户提供可理解的解释。SHAP、LIME 和 Scoped Rules 等 XAI 算法计算机器学习预测的特征重要性。尽管 XAI 引起了广泛研究关注,但将 XAI 技术应用于医疗保健以指导临床决策具有挑战性。在本文中,我们对 XAI 方法给出的解释进行了比较,作为分析复杂电子健康记录 (EHR) 的第三级扩展。利用大规模 EHR 数据集,我们根据 XAI 模型估计的预测重要性比较 EHR 的特征。我们的实验结果表明,所研究的 XAI 方法会根据具体情况生成不同的顶级特征;它们在共享特征重要性方面的差异值得领域专家进一步探索,以评估人类对 XAI 的信任。索引词 —可解释的人工智能、黑盒、玻璃盒、机器学习、电子健康记录
摘要:深度学习模型在自然语言处理领域(NLP)取得了出色的表现,但是它们在实际应用中仍然面临许多挑战,例如数据异质性和复杂性,模型的黑盒本质以及在多种语言和交叉跨区域的转移学习方面的困难。在本文中,从四个角度提出了相应的改进措施:模型结构,损失功能,正则化方法和优化策略,以解决这些问题。对包括文本分类,命名实体识别和阅读理解的三个任务进行的大量实验证实了所提出的优化解决方案的可行性和有效性。实验结果表明,引入创新机制,例如多头关注和局灶性损失,以及明智地应用诸如Layernorm和Adamw之类的技术,可以显着提高模型性能。最后,本文还探讨了模型压缩技术,为在资源受限的方案中部署深层模型提供了新的见解。
正在开发对抗性机器学习 (ML) 程序来篡改美国的国防系统。攻击者可以采取多种方法:逃避攻击、方程式求解攻击、路径查找攻击、模型反转攻击、成员推理攻击、成员推理攻击、黑盒攻击(仅举几例)。这些攻击旨在降低 ML 信心并导致它们错误分类信息。卫星与所有其他技术一样,容易受到网络攻击。而且由于机器学习是一个指数过程,漏洞只会随着时间的推移而变得更加脆弱。有人提到,人工智能可用于入侵健康/医疗公司、股票市场、石油和天然气公司甚至政府,但更大的风险是帮助这些公司运营的东西:卫星。我们可以通过手机访问的看似无限的无尽数据云以及互联网上的所有信息都通过卫星,这是黑客预计的下一个目标之一。分析