7.此外,2021 年,欧洲议会提出了《人工智能法案》(AI Act),以规范欧盟的人工智能使用。这项拟议法规为人工智能系统制定了监管框架,包括道德发展、透明度、安全性和准确性的要求,以及治理和监督系统。《人工智能法案》将人工智能应用分为不同风险等级(不可接受的做法、高风险系统以及低风险或有限风险系统),并规定了高风险系统的透明度和人工监督要求,这些要求将在整个联盟范围内执行。这可能会引发适应该法规的举措,包括全面的模型文档、可解释性技术、监控仪表板和模型警报。
a 信息实验室(InfoLab),电气与计算机工程系,信息与通信工程学院,成均馆大学,水原 16419,韩国 b 信息实验室(InfoLab),计算机科学与工程系,计算机与通信工程学院韩国成均馆大学信息学系,水原 16419,韩国 c 加拉拉大学计算机科学与工程学院,苏伊士 435611,埃及 d 本哈大学计算机与人工智能学院信息系统系,巴哈 13518,埃及和知识可视化分析实验室(VIS2KNOW 实验室),应用人工智能系,计算机与信息学院,成均馆大学,首尔 03063,韩国 f 圣地亚哥德孔波斯特拉大学单一技术研究中心 (CiTIUS),Rue de Dominguez la Fuente,s /n, 15782 圣地亚哥德孔波斯特拉,拉科鲁尼亚,西班牙 g 帕多瓦大学“Tullio Levi-Civita”数学系,帕多瓦 35121,意大利 h 比萨大学计算机科学系,比萨 56127,意大利 i TECNALIA,巴斯克研究中心和技术联盟 (BRTA),48160 德里奥,西班牙 j 巴斯克大学 (UPV/EHU) 通信工程系,48013 毕尔巴鄂,西班牙 k 安达卢西亚科学与数据计算智能研究所计算机科学与人工智能系(DaSCI),格拉纳达大学,格拉纳达 18071,西班牙
Hendricks, LA、Burns, K.、Saenko, K.、Darrell, T.、Rohrbach, A. (2018)。女性也玩单板滑雪:克服字幕模型中的偏见。收录于:Ferrari, V.、Hebert, M.、Sminchisescu, C.、Weiss, Y. (eds) 计算机视觉 – ECCV 2018。ECCV 2018。计算机科学讲义 (),第 11207 卷。Springer, Cham。https://doi.org/10.1007/978-3-030-01219-9_47
工程学院NAVSAHYADRI小组,A/P Naigoan Tal:Bohr Dist。:浦那平码:412213摘要:经常讨论可解释的人工智能,与深度学习有关,并在脂肪中起重要作用 - 公平,问责制和透明度 - ML模型。XAI对于想要在实施AI时建立信任的组织很有用。XAI可以帮助他们了解AI模型的行为,从而帮助找到诸如AI偏见之类的潜在问题。xai反驳了机器学习的“黑匣子”趋势,即使是AI的设计师也无法解释为什么它做出了特定的决定。XAI帮助人类用户了解AI和机器学习(ML)算法背后的推理以提高其信任。AI中使用的机器学习(ML)算法可以归类为“ White-Box”或“ Black-Box”。 白色框模型提供了域专家可以理解的结果。 另一方面, Black-Box模型也很难解释,即使域专家也几乎无法理解。 XAI算法遵循透明度,解释性和解释性的三个原则。AI中使用的机器学习(ML)算法可以归类为“ White-Box”或“ Black-Box”。白色框模型提供了域专家可以理解的结果。Black-Box模型也很难解释,即使域专家也几乎无法理解。XAI算法遵循透明度,解释性和解释性的三个原则。
XAI 模型高度透明,可以用人类语言解释 AI 决策是如何做出的。可解释性不仅为其决策提供解释,还帮助用户识别和理解潜在问题,因此他们可以利用结果来确定问题的根本原因并改进其操作流程。至关重要的是,它们不仅仅依赖于数据,还可以通过人类智能得到提升和增强。这些模型围绕因果关系构建,为人类感知创造了空间,以检测并确保机器学习具有代表性、全面性、完整性并处理所有可能的情况,如果没有,则允许进行必要的更改。
摘要:可解释的人工智能 (XAI) 模型使人与机器之间的关系更加透明和易于理解。保险行业为展示 XAI 的潜力提供了一个根本的机会,因为该行业拥有大量有关保单持有人的敏感数据,并且在社会进步和创新中具有核心地位。本文分析了当前人工智能 (AI) 在保险行业实践和保险研究中的应用,以评估其可解释程度。使用代表保险业 (X)AI 应用的搜索词,从 IEEE Xplore、ACM 数字图书馆、Scopus、Web of Science 和 Business Source Complete 和 EconLit 中筛选出 419 篇原创研究文章。对由此产生的 103 篇文章(2000-2021 年之间)进行了分析和分类,这些文章代表了保险文献中 XAI 的最新进展,突出了 XAI 方法在保险价值链各个阶段的普遍性。研究发现,XAI 方法在索赔管理、承保和精算定价实践中尤为普遍。简化方法,称为知识提炼和规则提取,被确定为保险价值链中使用的主要 XAI 技术。这很重要,因为将大型模型组合起来以创建具有不同关联规则的更小、更易于管理的模型有助于构建通常可理解的 XAI 模型。XAI 是 AI 的重要发展,可确保信任、透明度和道德价值观嵌入系统的生态系统中。在保险行业背景下对这些 XAI 焦点的评估证明了对 XAI 独特优势的探索是值得的,它向行业专业人士、监管机构和 XAI 开发人员强调了在进一步开发 XAI 时应特别关注的地方。这是首次分析 XAI 在保险行业中的当前应用的研究,同时有助于跨学科理解应用 XAI。在推进有关充分的 XAI 定义的文献的同时,作者根据保险领域 XAI 文献的系统评价,提出了一种改良的 XAI 定义。
摘要 — 最近,人工智能和机器学习在从图像处理到自然语言处理等许多任务中都表现出色,尤其是深度学习 (DL) 的出现。随着研究的进展,它们已经侵入许多不同的领域和学科。其中一些领域需要高度的责任感和透明度,例如医疗部门。因此需要对机器决策和预测进行解释以证明其可靠性。这需要更高的可解释性,这通常意味着我们需要了解算法背后的机制。不幸的是,DL 的黑箱性质仍未解决,许多机器决策仍然不太理解。我们回顾了不同研究工作提出的可解释性并对其进行了分类。不同的类别展示了可解释性研究的不同维度,从提供“明显”可解释信息的方法到复杂模式的研究。通过将相同的分类应用于医学研究中的可解释性,希望:1) 临床医生和从业者随后可以谨慎对待这些方法; 2)随着对医疗实践的更多考虑,对可解释性的洞察将随之产生;3)鼓励推动基于数据、数学和技术的医学教育。
摘要 — 最近,人工智能和机器学习在从图像处理到自然语言处理等许多任务中都表现出色,尤其是深度学习的出现。随着研究的进展,它们已经侵入许多不同的领域和学科。其中一些领域需要高度的责任感和透明度,例如医疗部门。因此需要对机器决策和预测进行解释以证明其可靠性。这需要更高的可解释性,这通常意味着我们需要了解算法背后的机制。不幸的是,深度学习的黑箱性质仍未解决,许多机器决策仍然知之甚少。我们回顾了不同研究工作提出的可解释性并对其进行了分类。不同的类别展示了可解释性研究的不同维度,从提供“明显”可解释信息的方法到复杂模式的研究。通过将相同的分类应用于医学研究中的可解释性,希望(1)临床医生和从业者随后可以谨慎对待这些方法;(2)对可解释性的洞察将更多地考虑医疗实践;(3)鼓励推动基于数据、数学和技术的医学教育。