本报告的目的是探讨如何(或不能)与法律和道德治理制度集成并嵌入并嵌入法律和道德治理制度,以确保算法决策系统的设计和部署(包括利用AI的设计和部署),将专注于法律义务,将其专注于跨跨跨跨副准则和责任。它的重点是由旨在告知或自动化的输出的组织部署的算法(ADM)系统,该组织可以自动化“决策”,从而导致实质性干预措施,从而实现实质性干预,从而对受影响的人(一个决策”)产生法律或其他重大影响。我们的分析进行的基础是,在实际实践中,ADM系统通常嵌入更大的社会技术系统中,并通过“组织决策系统架构”执行,其成员应遵循其任务和职责。这样的架构通常会识别决策授权的正式链条,通过这些链条进行了执行指定任务和职责的责任。
摘要 - 机器学习确定来自数据的模式,以加快决策过程。基于事实的决策和数据驱动的决策由行业专家指定。由于医疗保健中机器语言模型的持续增长,它们在ML模型中繁殖了连续的复杂性和黑匣子。为了使ML模型晶体清晰且可实现的解释,AI登录率很高。这项研究审查了印度医疗保健系统中可解释的AI和能力检测糖尿病。石灰和外形是两个用于实现可解释AI的库和软件包。密封的基础合并局部和全局可解释的方法,从而增强了复杂模型的结晶度,并从复杂模型中获得了对公平性的直觉。此外,所获得的直觉还可以促进临床数据科学家计划对计算机辅助诊断的更奇怪的组成。XAI对预测顽固疾病的重要性。 在这种情况下,顽固的糖尿病,血浆与胰岛素与胰岛素之间的相关性,年龄与妊娠,类(糖尿病和非糖尿病患者)与血浆葡萄糖的相关性持续存在着牢固的关系。 具有塑形值的PIMD(PIMA印度糖尿病数据集)用于简洁依赖性,而当同时需要特征的锚定和重要性时,石灰是适用的。 依赖图可帮助医生可视化与预测疾病的独立关系。 要识别不同属性的依赖性,使用相关热图。XAI对预测顽固疾病的重要性。在这种情况下,顽固的糖尿病,血浆与胰岛素与胰岛素之间的相关性,年龄与妊娠,类(糖尿病和非糖尿病患者)与血浆葡萄糖的相关性持续存在着牢固的关系。具有塑形值的PIMD(PIMA印度糖尿病数据集)用于简洁依赖性,而当同时需要特征的锚定和重要性时,石灰是适用的。依赖图可帮助医生可视化与预测疾病的独立关系。要识别不同属性的依赖性,使用相关热图。从学术的角度来看,Xai在不久的将来对成熟是必不可少的。估算了其他适用数据集对应研究的介绍,这是非常学徒的。
摘要:疼痛是一个复杂的术语,它描述了以各种方式或类型在人体内引起不适的各种感觉。通常,疼痛对身体不同器官的影响从轻微到严重不等,取决于疼痛的起因,可能是受伤、疾病或医疗程序,包括检测、手术或治疗等。随着生物医学和医疗保健领域人工智能 (AI) 系统的最新进展,医生、临床医生和患者之间的接触时间缩短了。然而,人工智能可以通过使用任何生理或行为变化来解释各种疾病患者相关的疼痛。面部表情被认为提供了与情绪和疼痛相关的大量信息,因此临床医生认为这些变化对于评估疼痛非常重要。近年来,不同的机器学习和深度学习模型已经实现了这一点。为了强调人工智能在医学领域的未来范围和重要性,本研究回顾了可解释的人工智能 (XAI),因为人们越来越关注疼痛的自动评估。本综述讨论了如何将这些方法应用于不同类型的疼痛。
为了满足对安全物联网网络的关键需求,本研究提出了一个可扩展且轻巧的课程学习框架,并使用可解释的AI(XAI)技术(包括石灰)来增强,以确保透明度和适应性。所提出的模型采用了在课程学习的每个阶段使用的新型神经网络体系结构,以有效地捕获和专注于短期和长期的时间依赖性,提高学习稳定性并提高准确性,同时保持轻量级和强大的对依次IOT数据中的噪声。通过分阶段学习实现了鲁棒性,在该学习中,模型通过删除低相关功能和优化性能来迭代地完善自己。工作流程包括边缘优化的量化和修剪,以确保可以轻松地部署在边缘iot设备中的便携性。合并随机森林,XGBoost和分阶段学习基础的合奏模型进一步增强了概括。实验结果表明,CIC-IOV-2024和CIC-APT-IOIT-2024数据集的精度为98%,边缘IOIT的数据集和97%的数据集,将此框架确定为具有稳健,透明和高性能解决方案,以实现IoT网络安全性。
人工智能(AI)在医疗保健中的整合正在彻底改变诊断和治疗程序,提供了前所未有的准确性和效率。然而,由于对信任,透明度和可解释性的关注,许多高级AI模型(通常被描述为“黑匣子”)的不透明度在采用方面造成了挑战,尤其是在像医疗保健这样的高风险环境中。可解释的AI(XAI)通过提供一个框架不仅可以实现高性能,而且还提供了对决策方式的见解,从而解决了这些问题。本研究探讨了XAI技术在医疗保健中的应用,重点是疾病诊断,预测分析和个性化治疗建议等关键领域。该研究将分析各种XAI方法,包括模型 - 现实方法(石灰,外形),可解释的深度学习模型以及XAI的领域特定应用。它还评估了道德意义,例如问责制和偏见缓解,以及XAI如何促进临床医生与AI系统之间的协作。最终,目标是创建既有功能又值得信赖的AI系统,从而促进在医疗保健领域的广泛采用,同时确保患者的道德和安全成果。
随着机器学习方法越来越多地用于增强人类决策能力,可解释人工智能 (XAI) 研究探索了将系统行为传达给人类的方法。然而,这些方法往往无法解释人类在与解释互动时的情感反应。面部情感分析研究人类面部的情绪表达,是了解用户如何参与解释的一个有前途的视角。因此,在这项工作中,我们的目标是 (1) 确定人们与 XAI 界面交互时哪些面部情感特征会很明显,以及 (2) 开发一个多任务特征嵌入,将面部情感信号与参与者对解释的使用联系起来。我们的分析和结果表明,当参与者未能有效地使用解释时,面部 AU1 和 AU4 以及唤醒的发生和值会增加。这表明面部情感分析应该纳入 XAI,以根据个人的互动风格个性化解释,并根据执行任务的难度调整解释。
机器学习方法在生物识别和个人信息处理(例如法医、电子医疗、招聘和电子学习)领域的重要性日益增加。在这些领域,基于机器学习方法构建的系统的白盒(人类可读)解释可能变得至关重要。归纳逻辑编程 (ILP) 是符号 AI 的一个子领域,旨在自动学习有关数据处理的声明性理论。从解释转换中学习 (LFIT) 是一种 ILP 技术,可以学习与给定黑盒系统等同的命题逻辑理论(在特定条件下)。本研究通过检查 LFIT 在特定 AI 应用场景中的可行性,迈出了将准确的声明性解释纳入经典机器学习的通用方法的第一步:基于使用机器学习方法生成的自动工具进行公平招聘,用于对包含软生物特征信息(性别和种族)的简历进行排名。我们展示了 LFIT 对这个特定问题的表达能力,并提出了一个可应用于其他领域的方案。
摘要 智能代理必须能够传达意图并解释其决策过程,以建立信任、培养信心并改善人机团队动态。认识到这一需求,学术界和工业界正在迅速提出新的想法、方法和框架,以帮助设计更可解释的人工智能。然而,仍然没有标准化的指标或实验协议来对新方法进行基准测试,研究人员只能依靠自己的直觉或临时方法来评估新概念。在这项工作中,我们提出了第一个全面的(n=286)用户研究,测试了可解释机器学习的广泛方法,包括特征重要性、概率分数、决策树、反事实推理、自然语言解释和基于案例的推理,以及没有解释的基线条件。我们提供了可解释性对人机团队影响的第一个大规模实证证据。我们的研究结果将通过强调反事实解释的好处和可解释性置信度得分的缺点,帮助指导可解释性研究的未来。我们还提出了一种新颖的问卷,用于衡量人类参与者的可解释性,该问卷受到相关先前工作的启发,并与人机协作指标相关联。
全球税务管理部门越来越依赖人工智能 (AI) 系统实现自动化。然而,自动化对接受算法评估的纳税人的权利具有巨大的潜在影响,而复杂的人工智能系统的不透明性又加剧了这种影响。本文认为,充分保护纳税人的权利需要使用可解释的人工智能 (XAI) 技术,使纳税人、行政上诉机构和法院能够理解税务人工智能系统的运作和决策。这一要求源于指导税收的宪法原则。然而,人工智能的软硬法律手段并没有充分解决这个问题,它们没有解决税收领域的特定信息需求。为了解决这一差距,作者在文章的最后总结了正确应用解释技术到税务人工智能的技术和法律挑战,以确保自动化不会以牺牲纳税人的权利为代价。
摘要:物联网 (IoT) 和人工智能 (AI) 的发展为智能交通系统 (ITS) 带来了潜力,从而产生了物联网和 ITS 的集成,即车联网 (IoV)。为了实现自动驾驶和高效出行的目标,车联网现在与现代通信技术(如 5G)相结合,实现智能网联汽车 (ICV)。然而,车联网在以下五 (5) 个领域面临安全风险:ICV 安全、智能设备安全、服务平台安全、V2X 通信安全和数据安全。人们已经开发了许多 AI 模型来减轻入侵威胁对 ICV 的影响。另一方面,可解释人工智能(XAI)的兴起源于需要为人工智能的开发注入信心、透明度和可重复性,以确保智能网联汽车的安全并提供安全的智能交通系统。因此,本综述的范围涵盖了智能网联汽车入侵检测系统(IDS)中使用的 XAI 模型、它们的分类法和未解决的研究问题。研究结果表明,尽管 XAI 在智能网联汽车中的应用尚处于起步阶段,但它是提高智能网联汽车网络效率的一个有前途的研究方向。本文进一步表明,XAI 透明度的提高将提高其在汽车行业的接受度。