无论是在临床研究还是风险因素计算中,机器学习算法都可以在许多医学领域中找到。这给这些算法的使用带来了重大挑战 - 特别是在伦理背景方面 - 如监管方面、可解释性或互操作性 [1]。对于这项工作,我们提出了一个关于特征贡献可解释性的特殊观点。也就是说,这不应被视为一种应用手段,而是一种更好地理解潜在问题的方法。我们的重点是人类可理解的特征子组及其各自的重要性分数的组合。特征重要性分析是机器学习模型检查和解释的主要组成部分。问题出现在解决问题的基础之上,例如在分类中,为什么对某个类别的决定是那样的。这种分析背后的方法可能因问题和模型的不同而有很大差异。我们接下来重点介绍置换重要性分析 [2]。在这里,基于测试集分析预测准确度的变化。对正在研究的特征进行置换,并将预测与未修改的特征进行比较。因此,该方法不依赖于预测过程的具体实现,因此可以应用于任何基于特征的监督机器学习模型。
1 简介 2 1 .1 背景知识 ..........................4 1 .1 .1 死海古卷 (DSS) .....................4 1 .1 .2 手写识别 ......................6 1 .1 .3 多学科知识整合 ............6 1 .1 .4 作者身份识别 ..................。。。。。7 1 。1 .5 日期估计。。。。。。。。。。。。。。。。............8 1 .1 .6 模式识别技术 .........。。。。。。。。。。9 1.1.7 人工神经网络。。。。。。。。。。。。。。。。。。。。。。10 1 。2 研究动机。。。。。。。。。。。。。。。。。。。。。。。。。。。。。12 1.2.1 识别抄写员。。。。。。。。。。。。。。。。。。。。。。。。12 1.2.2 增强手写功能。。。。。。。。。。。。。。。。。。。。。。。13 1.2.3 双视角时间轴。。。。。。。。。。。。。。。。。。。。。。15 1.2.4 独创性、适应性、可解释性和可说明性。。。。15 1.3 论文提纲。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。16
一旦确定了业务需求,确定适当的算法或技术是实施 AI 解决方案的另一个关键步骤。这涉及考虑可扩展性、可解释性和计算效率等因素。因此,此步骤有助于为模型开发的后续阶段奠定基础,包括数据预处理、特征工程和模型评估,以合理确保 AI 模型能够有效应对目标业务挑战。
摘要:机器学习和深度学习都是人工智能的一部分,对全球的市场营销和消费者产生了巨大的影响。然而,从神经网络发展而来的深度学习算法通常被视为黑箱,因为它们的网络结构和权重无法被人类用户解释。一般来说,银行业的客户有权知道他们的申请为何被黑箱算法的决策拒绝。本文提出了一种实用的嫁接方法,将全局模型和局部模型结合成可解释人工智能的混合模型。两个基于决策树的模型被用作全局模型,因为它们具有高度的可解释性,可以作为混合模型的骨架或蓝图。另外两个模型,包括深度神经网络和 k-最近邻模型,被用作局部模型,分别提高准确性和可解释性。实施了一个财务困境预测系统,以评估混合模型的性能和所提出的嫁接方法的有效性。实验结果表明,基于终端节点嫁接的混合模型可能会提高准确性和可解释性,具体取决于所选择的局部模型。
摘要 — 使用早期退化数据进行电池循环寿命预测在整个电池产品生命周期中具有许多潜在应用。因此,已经提出了各种数据驱动方法来对电池循环寿命进行点预测,而无需对电池退化机制有最少的了解。然而,以较低的经济和技术风险管理迅速增加的报废电池数量需要对循环寿命进行量化的不确定性预测,而这仍然缺乏。这些先进的数据驱动方法的可解释性(即高预测精度的原因)也值得研究。这里引入了一个分位数回归森林 (QRF) 模型,该模型的优点是不假设任何特定的循环寿命分布,除了高精度的点预测之外,还可以进行循环寿命范围预测,其中不确定性量化为预测区间的宽度。使用提出的 alpha-logistic 加权标准优化 QRF 模型的超参数,从而校准与预测区间相关的覆盖概率。通过两种全局模型不可知方法,即排列重要性和部分依赖图,探索最终 QRF 模型的可解释性。
心脏病学中的个性化治疗必不可少的是鉴定患者表型,并解释其与后期治疗后结局的关联,例如在经导管主动脉瓣置换术中。通过无监督的聚类方法获得表型后,一种方法是使用机器学习来预测群集成员资格,以解释定义每个群集的患者特征。在以前的工作中,我们由于易于解释性而使用了决策树,这在捕获数据中的复杂关系方面受到限制。我们通过将Shapley添加说明(SHAP)值与高级机器学习算法集成在一起来缓解此问题。为了展示我们的方法,我们使用来自581位TAVR患者的单中心数据确定了六个不同的患者簇,并使用K-均值进行了各种分类器来对群集成员进行分类,并具有最佳的梯度增强性能(F1得分:0.879)。形状值用于解释集群成员资格,揭示了影响结果的关键特征。例如,肌酐水平和环形区域是高风险表型的重要预测指标。这种基于Shap的方法将模型的复杂性与解释性平衡,从而为患者表型提供了强大的,详细的见解。1。简介
01.18 - 09.23新加坡国立大学计算机科学博士学位,新加坡。 顾问:Kuldeep S. Meel博士论文:机器学习中的可解释性和公平性:正式方法方法02.13 - 09.17计算机科学与工程学中的BSC,孟加拉国工程技术大学(BUET),孟加拉国,CGPA,CGPA:3.83:3.83(以4为4(荣誉))。 顾问:穆罕默德·尤纳斯·阿里(Mohammed Eunus Ali)博士论文:灵活的社会空间群体查询01.18 - 09.23新加坡国立大学计算机科学博士学位,新加坡。顾问:Kuldeep S. Meel博士论文:机器学习中的可解释性和公平性:正式方法方法02.13 - 09.17计算机科学与工程学中的BSC,孟加拉国工程技术大学(BUET),孟加拉国,CGPA,CGPA:3.83:3.83(以4为4(荣誉))。顾问:穆罕默德·尤纳斯·阿里(Mohammed Eunus Ali)博士论文:灵活的社会空间群体查询
关键字:解释深度学习训练,可视化,深度学习培训中的概念发展培训框架以及深度学习培训过程中概念进化的发现,它发表在ACM国际信息和知识管理会议上(CIKM),2023年。Haekyu Park,Seongmin Lee,Benjamin Hoover,Austin P Wright,Omar Shaikh,Rahul Duggal,Nilaksh Das,Kevin Li,Judy Hoffman,Duen Horng Chau chau fit> github
本文综述了当前人工智能在缺血性卒中影像学应用的研究进展,分析了主要挑战,并探讨了未来的研究方向。本研究强调了人工智能在梗塞区域自动分割、大血管闭塞检测、卒中结局预测、出血性转化风险评估、缺血性卒中复发风险预测、侧支循环自动分级等领域的应用。研究表明,机器学习(ML)和深度学习(DL)技术在提高诊断准确性、加速疾病识别、预测疾病进展和治疗反应方面具有巨大潜力。但这些技术的临床应用仍然面临数据量限制、模型可解释性、实时监测和更新需求等挑战。此外,本文讨论了 Transformer 架构等大型语言模型在缺血性卒中影像学分析中的应用前景,强调建立大型公共数据库的重要性,未来研究需要关注算法的可解释性和临床决策支持的全面性。总体而言,人工智能在缺血性中风管理中具有重要的应用价值;但必须克服现有的技术和实践挑战才能实现其在临床实践中的广泛应用。
收到的日期:2024年2月20日修订日期:2024年3月19日接受日期:2024年4月21日摘要:可解释的人工智能(XAI)领域是智能AI和机器学习(ML)研究和开发的关键阶段之一。缺乏透明度和问责制在某个时候已成为一个巨大的关注,因为算法更频繁地从事高风险任务,例如医学诊断,财务和司法系统。本文旨在确定XAI在发展值得信赖的ML电动机中的作用,其中强调了可解释性和透明度的必要性,以便AI系统不仅具有强大,强大的功能,而且还可提供可信和道德。我们考虑提供ML模型透明性质并探索当前研究进步的技术,并意识到行业实际应用的样子。因此,我们解决了这些问题,并建议如何在避免风险的情况下改善AI模型,同时保持良好的绩效。我们深入分析的结果揭示了XAI在AI背景下清楚地阐明人类的信任和理解中所起的至关重要作用。关键字:可解释的AI,机器学习,可解释性,透明度,值得信赖的AI,问责制。