摘要 先进的机器学习模型因其出色的性能而被广泛应用于各个领域。然而,它们的复杂性往往使它们难以解释,这可能是高风险决策场景中的一个重大限制,因为可解释性至关重要。在本研究中,我们提出了可解释随机森林 (XRF),它是随机森林模型的一个扩展,它在训练过程中考虑了用户对问题及其特征空间的看法所产生的可解释性约束。虽然已经提出了许多方法来解释机器学习模型,但这些方法通常仅适用于模型训练后。此外,这些方法提供的解释可能包括人类无法理解的特征,这反过来可能会妨碍用户理解模型的推理。我们提出的方法解决了这两个限制。我们系统地将我们提出的方法应用于六个公共基准数据集,并证明 XRF 模型能够平衡模型性能和用户的可解释性约束之间的权衡。
摘要。在探索视觉场景时,人类的扫描路径是由他们的基本注意力过程驱动的。了解视觉扫描对各种应用至关重要。传统的扫描模型预测目光的何处和何时在不提供解释的情况下变化,在理解固定背后的基本原理方面存在差距。为了弥合这一差距,我们介绍了Gazexplain,这是一项关于视觉扫描预测和解释的新研究。这涉及注释自然语言解释,以介绍跨眼睛追踪数据集的固定,并提出具有关注语言解码器的通用模型,该模型共同预测扫描路径并生成解释。它集成了一种独特的语义对准机制,以增强固定和解释之间的一致性,以及跨数据库共同训练的通用方法。这些新颖性为可解释的人类视觉扫描预测提供了一种全面且适应性的解决方案。对各种眼睛追踪数据集进行的广泛实验证明了GAZ-在扫描Path的预测和解释中解释的有效性,从而为人类的视觉关注和认知过程提供了宝贵的见解。
Ø “确保该工具支持所有最先进的设备,尤其是 NanoXplore (NX) FPGA,使这些设备能够用于 AI 应用并追求欧洲主权”
●遥感和建模目标:通过验证和改进北极中的遥感算法和模型参数化,增强了北极海冰,云和气溶胶的长期空间监测和预测能力。
引用排名通过期刊影响因素:*电气和电子工程学上的前20个期刊中的15个电信中十大期刊中的10个期刊中的10个是自动化和控制系统的前5个期刊中的3个计算机科学,人工智能中前10个期刊的前5个期刊中的5个期刊中的5个期刊的计算机科学和计算机科学界的前5个期刊的3台期刊计算机科学和架构的前5名。控制论计算机科学排名前5个期刊的3个,信息系统计算机科学前5个期刊的2个,软件工程成像科学和摄影技术的前5名期刊的3个期刊
自疫情爆发以来,各组织一直在积极寻求提高组织敏捷性和弹性 (regility) 的方法,并转向人工智能 (AI) 来获得更深入的理解并进一步提高其敏捷性和弹性。各组织正在将人工智能作为实现这些目标的关键推动因素。人工智能通过快速准确地分析大型数据集来增强组织的能力,从而实现更快的决策并建立敏捷性和弹性。这种战略性地使用人工智能为企业带来了竞争优势,并使其能够适应快速变化的环境。如果不优先考虑敏捷性和响应能力,可能会导致成本增加、错失机会、竞争和声誉受损,并最终导致客户、收入、盈利能力和市场份额的损失。可以通过利用可解释的人工智能 (XAI) 技术来确定优先级,阐明人工智能模型如何做出决策并使其透明、可解释和可理解。基于之前关于使用人工智能预测组织敏捷性的研究,本研究重点关注将可变形人工智能技术(例如 Shapley 加法解释 (SHAP))整合到组织敏捷性和弹性中。通过确定影响组织敏捷性预测的不同特征的重要性,本研究旨在揭开使用可变形人工智能的预测模型的决策过程的神秘面纱。这对于人工智能的道德部署、在这些系统中培养信任和透明度至关重要。认识组织敏捷性预测中的关键特征可以指导公司确定要集中精力在哪些领域以提高其敏捷性和弹性。
摘要 - 在一个自主机器人越来越居住在公共场所中的时代,其决策过程中透明度和解释性的必要性变得至关重要。本文介绍了机器人解释和解释性引擎(Roxie)的概述,该引擎构成了这种批判性需求,旨在揭示复杂机器人行为的不透明性质。本文阐明了提供有关机器人决策过程的信息和说明所需的关键功能和要求。它还概述了可与ROS 2部署的软件组件和库的套件,使用户能够对机器人过程和行为提供全面的解释和解释,从而促进了人类机器人互动中的信任和协作。
可解释人工智能 (XAI) 在使人类理解和信任深度学习系统方面发挥着至关重要的作用。随着模型变得越来越大、越来越普遍,并且在日常生活的各个方面都无处不在,可解释性对于最大限度地减少模型错误的不利影响是必不可少的。不幸的是,以人为中心的 XAI 中的当前方法(例如医疗保健、教育或个性化广告中的预测任务)倾向于依赖于单个事后解释器,而最近的研究发现,当应用于相同的底层黑盒模型实例时,事后解释器之间存在系统性分歧。因此,在本文中,我们呼吁采取行动来解决当前最先进解释器的局限性。我们建议从事后可解释性转向设计可解释的神经网络架构。我们确定了以人为中心的 XAI 的五个需求(实时、准确、可操作、人类可解释和一致),并提出了两种可解释设计神经网络工作流程的方案(使用 InterpretCC 进行自适应路由和使用 I2MD 进行时间诊断)。我们假设以人为中心的 XAI 的未来既不在于解释黑匣子,也不在于恢复传统的可解释模型,而在于本质上可解释的神经网络。
1. 资助机会描述 - 概要 月球到火星探索系统和居住 (M2M X-Hab) 2025 学术创新挑战赛是一项大学级挑战赛,旨在与大学建立战略伙伴关系和合作关系。该比赛旨在帮助弥补战略知识差距,并增加与 NASA 愿景和任务相关的能力和技术风险降低方面的知识。该竞赛旨在与高年级和研究生级别的设计课程相结合,这些课程强调动手设计、研究、开发和制造功能原型子系统,以实现太空栖息地和深空探索任务的功能。NASA 将通过赞助大学开发创新概念和技术而直接受益于该挑战赛,这将产生可应用于探索的新颖想法和解决方案。美国宇航局的探索能力 (EC) 计划将提供多个奖项,每个奖项的奖金为 13,000 至 50,000 美元,用于设计和生产大学团队根据其兴趣和专业知识提出的 NASA 感兴趣的研究或功能产品(参见第 3.2 节,M2M X-Hab 提案主题列表)。大学团队制作的原型(示例如图 1 所示)可以集成到现有的 NASA 建造的操作原型中。有兴趣参与的大学将提交 M2M X-Hab 提案,该提案将由技术专家审查;随后的筛选将决定哪些项目将获得资助。M2M X-Hab 大学团队将被要求在 2024 年 5 月完成他们的产品,以供 NASA EC 导师评估。大学可以组成合作,作为一个单一的分布式项目团队来运作。
摘要:在快速发展的城市发展格局中,智慧城市越来越依赖人工智能 (AI) 解决方案来应对复杂挑战,利用人工智能准确预测房地产价格已成为城市规划和经济发展中不可或缺的多方面关键任务。本文深入研究了这一努力,强调了特定选择的上下文开放数据的变革性影响以及可解释人工智能 (XAI) 的最新进展,以提高智慧城市内房地产价格预测的准确性和透明度。我们专注于 2018 年至 2021 年里斯本的动态房地产市场,将各种开放数据源集成到使用 Optuna 超参数框架优化的极限梯度增强 (XGBoost) 机器学习模型中,以提高其预测精度。我们的初始模型实现了 51,733.88 欧元的平均绝对误差 (MAE),在纳入开放数据特征后显著降低了 8.24%。这一实质性改进凸显了开放数据提升房地产价格预测的潜力。此外,我们采用了 SHapley Additive exPlanations (SHAP) 来解决我们模型的透明度问题。这种方法阐明了每个预测因子对价格估计的影响,并增强了对 AI 驱动的房地产分析的责任感和信任度。本研究的结果强调了 XAI 的作用和开放数据在提高 AI 驱动的城市发展透明度和有效性方面的价值,明确展示了它们如何有助于更准确、更有洞察力的房地产分析,从而为智慧城市的可持续发展提供信息和改进政策决策。
