摘要 — 最近,人工智能和机器学习在从图像处理到自然语言处理等许多任务中都表现出色,尤其是深度学习 (DL) 的出现。随着研究的进展,它们已经侵入许多不同的领域和学科。其中一些领域需要高度的责任感和透明度,例如医疗部门。因此需要对机器决策和预测进行解释以证明其可靠性。这需要更高的可解释性,这通常意味着我们需要了解算法背后的机制。不幸的是,DL 的黑箱性质仍未解决,许多机器决策仍然不太理解。我们回顾了不同研究工作提出的可解释性并对其进行了分类。不同的类别展示了可解释性研究的不同维度,从提供“明显”可解释信息的方法到复杂模式的研究。通过将相同的分类应用于医学研究中的可解释性,希望:1) 临床医生和从业者随后可以谨慎对待这些方法; 2)随着对医疗实践的更多考虑,对可解释性的洞察将随之产生;3)鼓励推动基于数据、数学和技术的医学教育。
摘要 人工智能在临床研究和医疗保健管理等众多预测和分类任务中的应用越来越普遍。本综述介绍了人工智能在血压管理中的现状和未来可能性,即使用个人健康记录和电子病历等大规模数据准确预测和估计血压的可能性。个人血压会因生活习惯和环境而不断变化。本综述重点关注控制血压变化的两个主题:新型血压测量系统和使用人工智能进行血压分析。对于新型血压测量系统,我们将传统的无袖带方法与使用人工智能进行脉搏波分析以估计血压进行了比较。然后,我们描述了使用机器学习和深度学习预测未来的血压值。此外,我们总结了使用“可解释的人工智能”进行因子分析以解决人工智能的黑箱问题。总的来说,我们表明人工智能有利于高血压管理,并可用于为高血压的实际管理建立临床证据。
AAbstr bstract act.. 在过去十年中,机器学习越来越吸引多个科学领域的研究人员,特别是在增材制造领域。同时,这项技术对许多研究人员来说仍然是一种黑箱技术。事实上,它允许获得新的见解,以克服传统方法(例如有限元方法)的局限性,并考虑制造过程中发生的多物理复杂现象。这项工作提出了一项全面的研究,用于实施机器学习技术(人工神经网络),以预测 316L 不锈钢和碳化钨直接能量沉积过程中的热场演变。该框架由有限元热模型和神经网络组成。还研究了隐藏层数和每层节点数的影响。结果表明,基于 3 或 4 个隐藏层和整流线性单元作为激活函数的架构可以获得高保真度预测,准确率超过 99%。还强调了所选架构对模型准确性和 CPU 使用率的影响。所提出的框架可用于预测模拟多层沉积时的热场。
摘要 药物发现是一个复杂、昂贵且耗时的过程,通常需要十多年的时间和数十亿美元的资金才能发现新的治疗化合物。人工智能 (AI) 的最新进展改变了这一领域,使更高效、更具成本效益和创新的方法成为可能。本文探讨了人工智能在药物发现各个阶段的应用,从目标识别到化合物筛选和毒性预测。机器学习和深度学习技术被强调为提高预测准确性、优化分子特性建模和改进高通量筛选过程的关键贡献者。尽管它具有变革潜力,但数据质量、监管障碍和人工智能模型的“黑箱”性质等挑战仍然存在。通过解决这些限制,人工智能驱动的药物发现有望加速救命疗法的开发,同时降低成本和上市时间。关键词:人工智能、药物发现、机器学习、深度学习、高通量筛选。
摘要 近年来,基于深度学习 (DL) 的人工智能 (AI) 引起了全球的极大兴趣。DL 已广泛应用于图像识别、语音识别和自然语言处理,但对医疗保健的影响才刚刚开始。在眼科领域,DL 已应用于眼底照片、光学相干断层扫描和视野,在检测糖尿病视网膜病变和早产儿视网膜病变、青光眼样视盘、黄斑水肿和老年性黄斑变性方面实现了强大的分类性能。眼部成像中的 DL 可与远程医疗结合使用,作为筛查、诊断和监测初级保健和社区环境中患者主要眼部疾病的可能解决方案。尽管如此,DL 在眼科中的应用也存在潜在挑战,包括临床和技术挑战、算法结果的可解释性、法医学问题以及医生和患者对 AI“黑箱”算法的接受度。DL 可能会彻底改变未来眼科的实践方式。本综述概述了针对眼科应用的最先进的 DL 系统、临床部署中的潜在挑战以及未来发展方向。
摘要 — 当 5G 在 2020 年左右开始其商业化之旅时,关于 6G 愿景的讨论也浮出水面。研究人员预计 6G 将具有更高的带宽、覆盖范围、可靠性、能源效率、更低的延迟,以及由人工智能 (AI) 驱动的集成“以人为本”的网络系统。这样的 6G 网络将导致大量实时自动决策。这些决策范围很广,从网络资源分配到自动驾驶汽车的防撞。然而,由于高速、数据密集型的 AI 决策超出了设计者和用户的理解范围,失去决策控制的风险可能会增加。有前景的可解释 AI (XAI) 方法可以通过增强黑箱 AI 决策过程的透明度来减轻这种风险。本文从各个方面概述了XAI在即将到来的6G时代的应用,包括6G技术(例如智能无线电、零接触网络管理)和6G用例(例如工业5.0)。此外,我们总结了最近尝试中的经验教训,并概述了在不久的将来将XAI应用于6G的重要研究挑战。
过去几年,深度学习 (DL) 在基于运动想象的脑机接口 (MI-BCI) 分类中的应用取得了显著增长,有望提高 EEG 分类准确率。然而,DL 的黑箱性质可能导致准确但有偏差和/或不相关的 DL 模型。在这里,我们研究在 DL 输入窗口中使用视觉提示 EEG(通常使用)对所学特征和最先进 DL 模型 DeepConvNet 的分类性能的影响。分类器在一个大型 MI-BCI 数据集上进行了测试,在视觉提示后有两个时间窗口:0-4 秒(有提示 EEG)和 0.5-4.5 秒(无提示 EEG)。从性能角度来看,第一个条件明显优于第二个条件(86.82% vs. 76.11%,p<0.001)。然而,显著性图分析表明,加入视觉提示 EEG 会导致提取提示相关诱发电位,这与没有视觉提示 EEG 训练的模型所使用的 MI 特征不同。
本文将“有意义的人为控制”作为一个例外概念提出,其中例外意味着理解 LAWS 方面的定性附加值。例外性通过大量关于 LAWS 的文献中发现的四个关键主题进行阐述。首先,按下按钮作为有意义的人为控制是不够的,因为任何类型的控制都不能满足有意义的控制。第二个主题是黑箱系统和有意义的人为控制,因为具有多层算法的高级 AI 系统不透明且不可解释。第三个关键主题涉及高风险系统,由于结果更糟,这些系统需要额外的有意义的人为控制。高风险 AI 系统也与民用 AI 领域的现有规范相关,而低风险系统则需要有意义的人为控制。最后一个专题章节围绕最后手段论点展开。虽然该论点不是 LAWS 文献的重点,但最近在与 AI 发展有关的监管文本中找到了用武之地。它需要引起注意,因为它暗示了在没有任何人为控制的情况下允许什么样的使用。
我们提出了一种基于辩论动态的知识图谱自动推理新方法。其主要思想是将三重分类任务构建为两个强化学习代理之间的辩论游戏,它们提取论据(知识图谱中的路径),目标是分别促使事实为真(论点)或事实为假(反论点)。基于这些论据,一个称为评判者的二元分类器决定事实是真是假。这两个代理可被视为稀疏的对抗性特征生成器,为论点或反论点提供可解释的证据。与其他黑箱方法相比,这些论据让用户能够了解评判者的决定。由于这项工作的重点是创建一种可解释的方法以保持具有竞争力的预测准确率,因此我们在三重分类和链接预测任务上对我们的方法进行了基准测试。因此,我们发现我们的方法在基准数据集 FB15k-237、WN18RR 和 Hetionet 上的表现优于几个基线。我们还进行了一项调查,发现提取的参数对用户很有帮助。
包括(见图 1):(1) 数据依赖,即算法对数据的依赖,数据可能有偏差、不完整或有缺陷;(2) 学习易于操纵的统计模式;(3) 当代 DNN 的黑箱性质意味着决策如何做出并不总是很清楚,这可能会延续或隐藏偏差。这些特征共同解释了为什么漏洞可能成为对手的目标或无意中触发。事实上,主要问题在于数据集偏差,而 ML 模型往往会延续数据中固有的缺陷。在 ML 中,(训练)数据集是算法所看到的全部;数据集就是世界。9 有偏差的数据集是指 ML 模型不是训练模型使其具有在现实开放世界中概括的能力,而是变成了一个封闭的世界。9 数据集偏差的一个例子如下:如果训练数据中一头牛经常和草一起出现,那么检测草并输出“牛”可以成为最终的 ML 分类器的一个特征。10 此外,这种偏差不仅会被 ML 复制,还会通过偏差放大而恶化。11