摘要人工智能(AI)和机器学习(ML)正在彻底改变各个领域的人类活动,而医学和传染病并不能免除其快速和指数的增长。此外,可解释的AI和ML的领域已经获得了特别的相关性,并引起了人们的兴趣越来越大。传染病已经开始从可解释的AI/ML模型中受益。例如,在抗菌病毒预测和量子疫苗算法中,它们已被采用或提议更好地理解旨在改善2019年冠状病毒疾病诊断和管理的复杂模型。尽管有关解释性和可解释性之间二分法的某些问题仍然需要仔细关注,但对复杂的AI/ML模型如何得出其预测或建议的深入了解对于正确地面对本世纪传染病的日益严重的挑战变得越来越重要。
最先进的人工智能 (AI) 技术已经达到了令人印象深刻的复杂性。因此,研究人员正在发现越来越多的方法将它们用于实际应用。但是,这种系统的复杂性要求引入使这些系统对人类用户透明的方法。AI 社区正试图通过引入可解释 AI (XAI) 领域来克服这一问题,该领域旨在使 AI 算法不那么晦涩难懂。但是,近年来,人们越来越清楚地认识到 XAI 不仅仅是一个计算机科学问题:由于它与通信有关,因此 XAI 也是人机交互问题。此外,AI 走出实验室是为了在现实生活中使用。这意味着需要针对非专家用户量身定制的 XAI 解决方案。因此,我们提出了一个以用户为中心的 XAI 框架,该框架侧重于其社交互动方面,灵感来自认知和社会科学的理论和发现。该框架旨在为非专家用户提供交互式 XAI 解决方案的结构。
存在强化学习之类的应用,例如医学,其中政策需要被人类“解释”。用户研究表明,某些政策类可能比其他政策类更容易解释。但是,进行人类的政策解释性研究是昂贵的。此外,没有明确的解释性定义,即没有明确的指标来解释性,因此主张取决于所选的定义。我们解决了通过人类解释性的经验评估政策的问题。尽管缺乏明确的定义,但研究人员对“模拟性”的概念达成了共识:政策解释性应与人类如何理解所给出的政策行动有关。为了推进可解释的强化学习研究,我们为评估政策解释性做出了新的方法。这种新方法依赖于代理来进行模拟性,我们用来对政策解释性进行大规模的经验评估。我们使用模仿学习来通过将专家神经网络提炼为小程序来计算基线政策。然后,我们表明,使用我们的方法来评估基准解释性会导致与用户研究相似的结论。我们表明,提高可解释性并不一定会降低表现,有时会增加它们。我们还表明,没有政策类别可以更好地跨越各个任务的可解释性和绩效进行交易,这使得研究人员有必要拥有比较政策可解释性的方法。
摘要 - 以餐后的血糖水平超过正常范围的标志性的植物性高血糖,这是在糖尿病和健康个体中向2型糖尿病进展的关键指标。饮食后了解血糖动力学的关键指标是曲线下的餐后区域(PAUC)。根据人的饮食和活动水平预测PAUC,并解释什么影响餐后血糖可以使人可以相应地调整其生活方式以维持正常的葡萄糖水平。在本文中,我们提出了葡萄糖,这是一种可解释的机器学习,以预测饮食,活性和最近的葡萄糖模式中的PAUC和高血糖。我们对10个全职工作人员进行了为期五周的用户研究,以开发和评估计算模型。我们的机器学习模型采用多模式数据,包括空腹葡萄糖,近期葡萄糖,最近的活性和大量营养素量,并提供了可解释的餐后葡萄糖模式的预测。我们对收集到的数据的广泛分析表明,训练有素的模型达到了0.123的归一化均方根误差(NRMSE)。平均而言,带有随机森林主链的葡萄糖素比基线模型可获得16%的结果。此外,血糖素可以准确地预测高血糖率74%,并建议通过不同的反事实解释来帮助避免高血糖。可用代码:https://github.com/ab9mamun/glucolens。
目的:本研究应用机器学习(ML)和可解释的人工智能(XAI)来预测HbA1c水平的变化,这是监测血糖控制的关键生物标志物,在诊断为2型糖尿病患者的患者中,在启动一种新的抗糖尿病药物后的12个月内。它还旨在确定与这些变化相关的预测因素。患者和方法:来自芬兰北卡雷利亚(North Karelia)的10,139名2型糖尿病患者的电子健康记录(EHR)用于训练整合了随机对照试验(RCT)衍生的HBA1C变化值作为预测变量的预测因子,创建将RCT洞察力与现实世界中集成的偏移模型。各种ML模型 - 包括线性回归(LR),多层感知器(MLP),山脊回归(RR),随机森林(RF)和XGBoost(XGB) - 使用R²和RMSE衡量标准进行评估。基线模型在药物启动之前或之前使用的数据,而随访模型包括第一个药物后HBA1C测量,通过合并动态患者数据来改善性能。模型性能也与临床试验中预期的HBA1C变化进行了比较。结果:结果表明,ML模型的表现要优于RCT模型,而LR,MLP和RR模型具有可比性的性能,RF和XGB模型表现出过于拟合。与基线模型相比,随访MLP模型的表现优于基线MLP模型,其R²得分(0.74,0.65)和较低的RMSE值(6.94,7.62)与基线模型(R²:0.52,0.54; RMSE; RMSE:9.27,9.50)相比。HBA1C变化的关键预测因子包括基线和药后HBA1C值,禁食等离子体葡萄糖和HDL胆固醇。未来的研究将探索治疗选择模型。结论:使用EHR和ML模型可以开发对HBA1C变化的更真实和个性化的预测,考虑到更多样化的患者人群及其异质性,为管理T2D提供了更量身定制和有效的治疗策略。XAI的使用提供了对特定预测因子影响的见解,从而增强了模型的解释性和临床相关性。关键字:类型2糖尿病,HBA1C,治疗效果估计,机器学习,Shap
本文研究了Azure机器学习中可解释的AI(XAI)模型的实施,以生成业务见解。本文解决了业务环境中AI模型透明度的关键挑战,尤其是专注于中小型企业。本文调查了包括Shap和Lime在内的可解释的机器学习技术如何在商业环境中增强利益相关者的信任和模型采用。本文表明,实施结构化的XAI框架可显着提高各个部门的决策过程和运营效率。通过分析医疗保健,制造业和金融服务中的实施,本文确定将本地和全球解释方法与适当的可视化策略相结合,从而提高了模型的可解释性和利益相关者的接受度。本文建议,通过正确实施的可解释的AI框架,组织可以在AI采用和利用方面实现实质性改进,尤其是当技术解释有效地转化为与业务相关的见解时。
鉴于ML的巨大潜力,令人惊讶的是,它们在许多领域的吸收要比从纯技术效率的角度看待的要慢得多。在经济数据分析中,ML擅长计算回归分析和基于群集的分类任务的扩展。但是,由于这些方法通常被认为是不透明的,因此他们所谓的黑匣子角色反复受到批评。某些用例(例如基于AI的信用申请的决策支持)可能会改善和加速银行的业务运营,但还需要增加复制现有结构和决策模式中固有的隐藏偏见的风险。因此,解释ML模型的内部运作对于证明决策并产生新的见解至关重要(Adadi&Berrada,2018)。
机械工程系,Vishwakarma技术学院,浦那摘要:本文讨论了电池的电池组热管理组件,用于电池在所有天气中有效运行所必需的电动汽车。由于其高能量密度和长寿命,锂离子(锂离子)电池电池被用于电动汽车。工作温度会影响锂离子电池的性能和寿命。此外,该项目旨在通过在任何气候条件下进行有效的电池工作所需的适当热量管理来审查电动汽车电池组外壳的材料。锂离子(锂离子)电池被用于电动车辆,因为它们具有高密度的能量和长寿命。更高的工作温度可以延长电池寿命并提高容量。使用空气,水和相变材料(PCM)作为热管理技术。比较后,讨论了用于温度管理系统的有用的电池组套管。在这项研究中,我们探讨了锂离子电池的热量产生和温度问题的现象。关键字:锂离子电池,热管理系统,材料矩阵,热生成,通用测试机
。CC-BY 4.0国际许可证可永久提供。是作者/资助者,他已授予Medrxiv的许可证,以显示预印本(未通过同行评审证明)预印版本的版权所有者,该版本发布于2024年2月20日。 https://doi.org/10.1101/2024.02.18.24303003 doi:medrxiv preprint
我们提出了一个可解决的量子达尔文主义模型来编码过渡 - 量子信息如何在单一动力学下的多体系统中传播的方式突然变化。我们考虑在扩展的树上的随机Clifford电路,其输入量子位与参考纠缠在一起。该模型具有一个量子达尔文主义阶段,其中可以从任意的输出量子位的任意小部分中检索有关参考的经典信息,而该检索不可能是不可能的。这两个阶段通过混合相和两个连续过渡分开。我们将确切的结果与两次复制的计算进行了比较。后者产生类似的“退火”相图,该图也适用于具有HAAR随机单位的模型。我们通过求解环境在编码系统上窃听的修改模型来将我们的方法与测量诱导的相变(MIPT)联系起来。它只有一个尖锐的mipt,只能完全访问环境。