摘要。利用大型视觉模型(VLM)的有效表示来完成各种下游任务,引起了人们越来越多的关注。在该研究领域中,软提示学习已成为有效地适应VLM(例如剪辑)的代表性方法,例如图像分类。但是,大多数现有的及时学习方法都学习无法解释的文本令牌,这些文本令牌无法满足医疗保健等高风险场景中可解释的人工智能(XAI)的严格解释性要求。为了解决这个问题,我们提出了一个新颖的可解释的提示学习框架,该框架通过在多个差异方面对齐图像,可学习的提示和临床概念驱动的提示来利用医学知识。此外,我们的框架通过从大型语言模型中引起知识来解决缺乏宝贵的概念注释,并为提示提供了视觉和文字解释。在各种数据集上进行的广泛的实验和可解释性分析,有或没有概念标签,表明我们的方法同时实现了卓越的诊断性能,灵活性和解释性,并阐明了基础模型在促进XAI方面的有效性。该代码可在https://github.com/tommy-bie/xcoop上找到。
在计算神经科学领域,人们对开发利用脑图像数据来估算个体“脑年龄”的机器学习算法的兴趣日益浓厚。重要的是,脑年龄与实际年龄之间的差异(称为“脑年龄差距”)可以反映出不良健康状况导致的加速衰老,因此可以反映出患神经系统疾病或认知障碍的几率增加。然而,由于现有的大多数脑年龄预测算法缺乏透明度和方法论依据,因此脑年龄在临床决策支持中的广泛应用受到了阻碍。在本文中,我们利用协方差神经网络 (VNN) 提出了一个由解释驱动且解剖学上可解释的框架,使用皮质厚度特征来预测脑年龄。具体而言,我们的大脑年龄预测框架超越了阿尔茨海默病 (AD) 中大脑年龄差距的粗略度量,我们得出了两个重要观察结果:(i) VNN 可以通过识别贡献大脑区域,为 AD 中增大的大脑年龄差距分配解剖学可解释性,(ii) VNN 提供的可解释性取决于它们利用解剖学协方差矩阵的特定特征向量的能力。总之,这些观察结果促进了大脑年龄预测任务的可解释性和解剖学可解释性视角。
预测维护(PDM)已成为优化能源基础设施的可靠性和效率的重要策略。在本文中,我们对与利用机器学习(ML)技术相关的挑战和解决方案进行了全面综述,以进行能源领域的预测维护。在预测维护中采用ML算法具有减轻设备故障,减少停机时间和优化维护时间表的巨大希望。但是,一些挑战阻碍了基于ML的PDM策略的有效实施。这些挑战包括需要大量和高质量的数据集,集成异质数据源的复杂性以及在现实世界中ML模型的可解释性。为了应对这些挑战,我们讨论了各种解决方案和最佳实践。这些包括数据预处理技术来处理嘈杂和不完整的数据,提取有意义的见解的功能工程方法以及建模可解释性方法,以增强对ML预测的信任和理解。此外,我们探讨了领域知识和人类专业知识与ML算法的整合,以提高预测准确性和相关性。此外,我们研究了边缘计算和分布式ML技术在实现实时预测性维护中的作用,尤其是在远程或资源受限的环境中。我们还讨论了在基于ML的PDM解决方案部署中法规合规性,隐私保护和道德考虑因素的重要性。
基于概念的解释方法,例如Conept瓶颈模型(CBMS),旨在通过将这些概念准确地归因于Net-Net Work的特征空间的关键假设,旨在通过将其决策与人为理解的概念联系起来,以提高机器学习模型的可解释性。但是,这种基本假设尚未得到严格验证,主要是因为该领域缺乏标准化的群众和基准来评估此类概念的存在和空间对齐。为了解决这个问题,我们提出了三个指标:概念全球重要性指标,概念存在和概念位置指标,包括一种可视化概念激活的技术,即概念激活映射。我们基准了事后CBM,以说明其能力和挑战。通过定性和定量实验,我们证明,在许多情况下,即使是由事后CBMS确定的最重要的概念也不存在于输入图像中。此外,当它们存在时,其显着性图无法通过在整个对象上激活或误导相关概念特异性区域来与预期区域保持一致。我们分析了这些局限性的根本原因,例如概念的自然相关性。我们的发现不需要更仔细地应用基于概念的解释技术,尤其是在空间解释性至关重要的环境中。
摘要 — 在当前的数据科学应用中,行动的方向是使系统行为适应人类认知,从而产生了可解释人工智能这一新兴领域。在不同的分类范式中,基于模糊规则的分类范式是强调全局系统可解释性的合适解决方案。然而,在处理大数据分析时,它们可能包含过多的规则和/或语言标签,这不仅可能导致系统性能下降,还可能影响系统语义以及系统可解释性。在本文中,我们提出了 IFC-BD,一种用于大数据的可解释模糊分类器,旨在通过学习紧凑而准确的模糊模型来提升可解释性的范围。IFC-BD 是在基于单元的分布式框架中通过初始规则学习、规则泛化和启发式规则选择三个工作阶段开发的。整个过程允许从大量特定规则扩展到更少数量的更通用和更可信的规则。此外,为了解决可能出现的规则冲突,我们专门针对大数据问题提出了一种新的估计规则权重。我们将 IFC-BD 与模糊分类范式的最新方法进行了比较,考虑了可解释性、准确性和运行时间。实验结果表明,所提出的算法能够提高基于模糊规则的分类器的可解释性及其预测性能。
卷积神经网络 (CNN) 在各种应用中的成功伴随着计算和参数存储成本的显著增加。最近为减少这些开销所做的努力包括修剪和压缩各个层的权重,同时力求不牺牲性能。在本文中,我们提出了一种受神经网络可解释性启发的 CNN 修剪新标准:使用从可解释人工智能 (XAI) 概念中获得的相关性分数,自动找到最相关的单元,即权重或过滤器。通过探索这个想法,我们将可解释性和模型压缩研究联系起来。我们表明,我们提出的方法可以在迁移学习设置中有效地修剪 CNN 模型,在这种设置中,在大型语料库上预训练的网络可以适应专门的任务。该方法在广泛的计算机视觉数据集上进行了评估。值得注意的是,我们的新标准不仅在进行连续再训练时与最先进的修剪标准相比具有竞争力或更好,而且在资源受限的应用场景中,其表现明显优于这些先前的标准,在这种场景中,要迁移到的任务的数据非常稀缺,并且人们选择不进行微调。我们的方法能够迭代压缩模型,同时保持甚至提高准确性。同时,它的计算成本与梯度计算的数量级相当,并且应用起来相对简单,无需调整修剪的超参数。
这项研究研究了大数据分析在医疗保健中的变革潜力,重点介绍了其在预测患者结果和增强临床决策方面的应用。应对数据集成,质量,隐私问题以及CLEX机器学习模型的解释性的主要挑战。广泛的文献综述评估了医疗保健中大数据分析的当前状态,尤其是预测分析。该研究采用机器学习算法来开发针对特定患者结果的预测模型,例如疾病进展和治疗反应。基于三个关键指标评估模型:辅助性,可解释性和临床相关性。研究结果表明,大数据分析可以通过提供数据驱动的见解来彻底改变医疗保健,从而为治疗决策提供信息,预测并发症并识别高危患者。预测模型开发了有望增强临床判断和促进个性化治疗方法。此外,该研究强调了解决数据质量,集成和隐私的重要性,以确保预测分析在临床环境中的道德应用。结果有助于对医疗保健中实用的大数据应用程序进行越来越多的搜索,从而为将患者隐私与数据驱动的见解的好处提供了宝贵的收回。最终,这项研究对决策具有影响,指导实施预测模型并促进旨在改善医疗保健成果的创新。
最近视觉变压器模型已成为多种视觉任务的重要模型。这些模型通常是不透明的,具有弱特征可解释性,使用户的预测差。虽然对解释模型决策的事后解决方案的开发产生了兴趣,但这些方法不能广泛应用于不同的变压器体系结构,因为可解释性规则必须基于数据和模型结构的异质性进行相应的变化。此外,目前没有为本质上可解释的变压器构建的方法,该方法能够解释其推理过程并提供忠实的解释。为了缩小这些关键的差距,我们提出了一种新型视觉变压器,称为“可解释的视觉变压器”(Ex-Vit),这是一种可解释的变压器模型,能够共同发现可鲁棒的可解释特征并执行预测。特定于特定的,前vit由可解释的多头注意(E-MHA)模块组成,属性引导的解释器(ATTE)模块具有自我监督的属性引导损失。E-MHA裁缝可解释的注意力权重,能够从具有噪音稳健性的模型决策中从代币中学习可解释的表示表示。与此同时,通过各种属性剖面构成了目标对象的区分属性特征,该特征构成了模型预测的忠实证据。结果,提议的前武率模型可以用各种学习的属性产生忠实而强大的解释。此外,我们为前武器架构开发了一种自我监督的属性引导损失,该体系结构既利用了属性的可行性机制和属性多样性机制来提高学习成分的质量。为了验证和评估我们的方法,我们将前vit应用于几个弱监督的语义细分(WSS)任务,因为这些任务通常依赖于准确的视觉解释来提取对象本地化图。尤其是,通过前视图获得的解释结果被认为是训练WSSS模型的伪分段标签。综合模拟结果幻想表明,我们提出的前武器模型可以达到与监督基线相当的性能,同时仅使用仅使用图像级标签的最先进的黑盒方法超过了最先进的黑盒方法的准确性和解释性。
1。Python和AI概念简介2。用Python3。深度学习和神经网络4。AI项目发展与道德5。高级AI主题和趋势6。自然语言处理(NLP)7。计算机视觉8。强化学习9。使用AI10。医疗保健中的AI11。AI在财务12中。自治系统中的AI 13。可解释的AI和模型可解释性14。未来的指示和顶峰项目
摘要在药物宣传中引入人工智能可能是预测不良药物反应并提高患者安全性的变革步骤。使用结构化电子健康记录(EHR)数据和非结构化社交媒体数据,我们评估了三种AI模型,梯度增强,卷积神经网络(CNN)和长期记忆(LSTM)网络的预测能力。我们使用多个性能指标(AUC-ROC,灵敏度,特异性,F1分数)评估模型,以评估其预测各种患者人口统计学的ADR的能力。我们发现CNN是社交媒体数据的最佳分类器,其AUC-ROC为0.91和90%的敏感性,并且梯度提升是结构化EHR数据的最佳分类器,其AUC-ROC为0.89。特征重要性分析和Shapley加性解释(SHAP)提供了模型的解释性,并表明患者年龄,药物类型和剂量是重要的预测因子。分析确定了自然语言处理(NLP)在从非结构化数据源中提取ADR信号以补充传统药物宣传方法的潜力。该研究旨在根据道德数据隐私和模型透明度考虑来满足监管标准。这项工作表明,AI模型可以提高ADR预测准确性,并有助于主动的患者安全方法。准确性和可解释性之间的权衡将应用于临床应用,并探索了数据标准化和混合AI模型的未来方向。