我们使用基于 SHapley 加法解释 (SHAP)、局部可解释模型不可知解释 (LIME) 和光梯度增强机 (LightGBM) 的最新可解释人工智能 (XAI) 来分析各种物理农业 (农业) 工人数据集。我们开发了各种有前景的身体感应系统,以增强农业技术进步、培训和工人发展以及安全性。然而,现有的方法和系统不足以深入分析人体运动。因此,我们还开发了可穿戴传感系统 (WS),它可以通过分析不同农田、草地和花园中的人体动态和统计数据来捕获与农业工人运动相关的实时三轴加速度和角速度数据。在使用用 Python 编写的新程序调查获得的时间序列数据后,我们与真正的农业工人和管理人员讨论了我们的发现和建议。在本研究中,我们使用 XAI 和可视化来分析有经验和缺乏经验的农业工人的多样化数据,以开发一种供农业主管培训农业工人的应用方法。
利用不完善的气候模型,通过融合模拟和观测来更好地约束未来预测。例如 Labe 和 Barnes (2022)、Diffenbaugh 和 Barnes (2022,已提交)、Rader 等人 (2022,审核中)、Labe 和 Barnes (2021)、Barnes 等人 (2020a)、Barnes 等人 (2019)
我们首先考虑学术界和业界对机器人顾问感兴趣的一些主要原因。我们讨论了机器人顾问如何解决投资者决策以及传统金融咨询中的一些基本问题。然后,我们讨论了一些有关机器人顾问未来的持续问题。首先,人工智能 (AI) 在机器人顾问中扮演的角色以及应该扮演的角色。其次,机器人顾问建议的个性化程度应该达到多高。第三,如何产生和维持对自动金融顾问的信任。第四,机器人是否被视为人类决策的补充或替代品。我们的结论概述了对下一代机器人顾问的一些想法。我们强调了可解释人工智能 (XAI) 的最新见解的重要性,以及应用于金融服务的新形式的人工智能将如何从引入经济学和心理学的见解中受益,以设计有效的人机交互。
摘要:由于 FDA 最近批准全幻灯片图像 (WSI) 系统为 II 类医疗器械,病理学家正在采用全幻灯片图像 (WSI) 进行诊断。为了应对病理学以外的新市场力量和最新技术进步,计算病理学这一新领域应运而生,将人工智能 (AI) 和机器学习算法应用于 WSI。计算病理学在提高病理学家的准确性和效率方面具有巨大潜力,但由于大多数 AI 算法的不透明性和黑箱性质,人们对 AI 的信任度存在重要担忧。此外,对于病理学家应如何将计算病理学系统纳入他们的工作流程,人们还没有达成共识。为了解决这些问题,构建具有可解释 AI (xAI) 机制的计算病理学系统是一种强大而透明的黑箱 AI 模型替代方案。xAI 可以揭示其决策的根本原因;这旨在提高 AI 在病理诊断等关键任务中的安全性和可靠性。本文概述了 xAI 在解剖病理学工作流程中的应用,这些应用可提高实践的效率和准确性。此外,我们还介绍了 HistoMapr-Breast,这是一款用于乳房核心活检的初始 xAI 软件应用程序。HistoMapr-Breast 会自动预览乳房核心 WSI 并识别感兴趣的区域,以交互且可解释的方式快速呈现关键诊断区域。我们预计 xAI 最终将作为计算机辅助初级诊断的交互式计算指南为病理学家服务。
过去十年,全球对可解释人工智能 (XAI) 的研究不断增加,这导致了许多领域特定方法的开发,用于解释机器学习 (ML) 模型并生成人类可理解的解释 (Abusitta 等人,2024 年;Aria 等人,2021 年)。这种增长在很大程度上是由 ML(尤其是深度学习)在电子商务、医疗保健和金融等各个领域的广泛采用推动的,在这些领域,人工智能系统的透明度至关重要 (Adadi 和 Berrada,2018 年)。XAI 在医疗保健等关键领域尤为重要,它有助于解释 ML 模型以进行疾病预测和诊断,在金融领域,它有助于解释信用评分模型和欺诈检测系统,确保法规遵从性和客户信任 (Whig 等人,2023 年;Bussmann 等人,2021 年)。先前的研究强调了整理跨各个子领域的 AI 可解释性文献的必要性(Burkart 和 Huber,2021 年;Molnar 等人,2020 年;Guidotti 等人,2018 年)。大多数 XAI 方法侧重于解释整个 ML 过程,解释采用规则、数值数据或视觉效果等形式,使用通常从人机交互 (HCI) 中得出的指标进行评估(Aria 等人,2024 年)。在先前努力的基础上,本文对全球 XAI 研究进行了系统、透明且可重复的文献计量综述(Donthu 等人,2021 年)。通过对 Web of Science 数据库中 6,148 篇文献进行系统文献综述 (SLR),本研究使用 Bibliometrix R 软件包 (Aria 和 Cuccurullo,2017),对 XAI 研究的现状、历史演变和未来方向进行了深入分析,包括科学活动趋势、主要出版物、作者贡献和国际合作。
[1] Anyifei。2019。All-about-XAI。(2019)。https://github.com/feifeife/All-about-XAI [2] Hubert Baniecki。2022。对抗性可解释人工智能。(2022)。https://github.com/hbaniecki/adversarial-explainable-ai [3] Przemysław Biecek。2022。与 XAI(可解释人工智能)相关的有趣资源。(2022)。https://github.com/pbiecek/xai_resources [4] Marina Danilevsky、Kun Qi、Ranit Aharonov、Yannis Katsis、Ban Kawas 和 Prithviraj Sen. 2020。自然语言处理可解释人工智能现状调查。AACL-IJCNLP 2020 (2020)。https://xainlp2020.github.io/xainlp/table [5] 摩根·弗兰克、Dashun Wang、Manuel Cebrian 和 Iyad Rahwan。2019。人工智能研究中引文图的演变。自然机器智能1 (02 2019), 79–85。https://doi.org/10.1038/s42256-019-0024-5 [6] Michal Lopuszynski。2020。很棒的可解释机器学习。(2020)。https://github.com/lopusz/awesome-interpretable-machine-learning [7] Anh M. Nguyen。2022。关于可解释人工智能的论文。(2022)。https://github.com/anguyen8/XAI-papers [8] Kevin McAreavey。2022.CHAI-XAI。(2022)。https://github.com/kevinmcareavey/chai-xai [9] Sina Mohseni。2020。Awesome-XAI-Evaluation。(2020)。https://github.com/SinaMohseni/Awesome-XAI-Evaluation [10] Sina Mohseni、Niloofar Zarei 和 Eric D Ragan。2018。用于可解释 AI 系统设计和评估的多学科调查和框架。arXiv 预印本 arXiv:1811.11839 (2018)。[11] Benedek Rozemberczki。2022。很棒的可解释图形推理。(2022)。https://github.com/AstraZeneca/awesome-explainable-graph-推理 [12] 王永杰。2020。Awesome-explainable-AI。(2020)。https://github.com/wangyongjie-ntu/Awesome-explainable-AI [13] Sam Zabdiel。2022.XAI。(2022)。https://github.com/samzabdiel/XAI [14] Rehman Zafar。2022。与 XAI(可解释人工智能)相关的有趣资源。(2022)。https://github.com/rehmanzafar/xai-iml-sota
Gitta Kutyniok于2000年获得了Paderborn University的数学博士学位。她在普林斯顿大学,圣安福德,耶鲁大学和佐治亚理工学院等顶级大学中担任过各种学术职务。她于2006年在吉森大学获得了数学领域的习惯。从2008年至2011年,她一直是Osnabrück大学的全面应用分析教授,并且是应用分析小组(AAG)的负责人(随后她为2011年柏林技术大学至2020年的Ma -Thematics授予爱因斯坦主持人。从2019年至2023年,她一直是Tromsø大学机器学习的兼职教授。自2020年以来,她担任巴伐利亚人AI的数学基础,在路德维希 - 马克西米利人 - 慕尼黑大学。她获得了各种荣誉和奖项,包括DFG在2007年获得的冯·卡文奖。她于2013年被邀请在Ömg-DMV大会上担任Noether讲师,2021年在欧洲第八届欧洲数学大会(8ECM)的全体讲师。在2022年国际数学家国际大会(ICM 2022)和国际工业与应用数学大会(ICIAM)(ICIAM)上,她也受到了邀请的讲座的荣誉。她于2019年成为暹罗研究员,于2016年加入柏林 - 布兰登堡科学与人文学院,并于2022年当选为欧洲科学院。Gitta Kutyniok的研究重点是应用数学,艺术智能和深度学习。
本研究引入了一个名为 EDUMX 的基准框架,该框架利用 Streamlit 开源 Python 库,专为基于机器学习 (ML) 的预测和 XAI 任务而设计。该框架提供了一套全面的功能,包括数据加载、特征选择、关系分析、数据预处理、模型选择、指标评估、训练和实时监控。用户可以轻松上传各种格式的数据,探索变量之间的关系,使用各种技术预处理数据,并使用可自定义的指标评估 ML 模型的性能。凭借其用户友好的界面,该框架为各个领域的预测任务提供了宝贵的见解,满足了预测分析不断变化的需求。EDUMX 可供所有人使用。如果您想要了解访问此工具的详细信息,请联系 mkuzlu@odu.edu。