● D. Gunning,可解释的人工智能(xAI),技术代表,国防高级研究计划局(DARPA)(2017)● AB Arrieta,等人。可解释的人工智能(XAI):概念、分类法、机遇和挑战,走向负责任的人工智能。信息融合 58(2020):82-115。● E. Tjoa、C. Guan,可解释的人工智能(XAI)调查:面向医学 XAI (2019)。arXiv:1907.07374。● LH Gilpin、D. Bau、BZ Yuan、A. Bajwa、M. Specter、L. Kagal,解释解释:机器学习可解释性概述 (2018)。 arXiv:1806.00069 ● FK Došilović、M. Brćić、N. Hlupić,可解释的人工智能:一项调查,载于:第 41 届信息和通信技术、电子和微电子国际会议 (MIPRO),2018 年,第 210-215 页。● A. Adadi、M. Berrada,窥视黑匣子内部:可解释的人工智能 (XAI) 调查,IEEE Access 6 (2018) 52138-52160。● O. Biran、C. Cotton,机器学习中的解释和论证:一项调查,载于:IJCAI-17 可解释人工智能 (XAI) 研讨会,第 8 卷,2017 年,第 1 页。● ST Shane、T. Mueller、RR Hoffman、W. Clancey、G. Klein,《人机交互系统中的解释:可解释人工智能的关键思想和出版物及参考书目的文献元评论概要》,国防高级研究计划局 (DARPA) XAI 计划技术代表 (2019)。● R. Guidotti、A. Monreale、S. Ruggieri、F. Turini、F. Giannotti、D. Pedreschi,《解释黑盒模型的方法调查》,ACM 计算调查 51 (5) (2018) 93:1–93:42。
没有人工智能,现代教育就不是现代教育。然而,人工智能的复杂性使得理解和解决问题具有挑战性。全球研究表明,父母的收入对孩子的教育有很大影响。这促使我们探索人工智能,尤其是复杂模型,如何使用可解释的人工智能工具做出重要决策。我们的研究发现了许多与父母收入相关的复杂性,并为这些决定提供了合理的解释。然而,我们也发现人工智能存在偏见,这与我们对人工智能在教育领域的期望背道而驰:清晰透明,人人平等。这些偏见会影响家庭和儿童的教育,凸显了对更好的人工智能解决方案的需求,为所有人提供公平的机会。本章试图阐明人工智能运作的复杂方式,尤其是关于偏见的问题。这些是制定更好的教育政策的基础步骤,包括以更可靠、更负责、对所有参与者都有益的方式使用人工智能。
链接 • 课程网站:https://hcixaitutorial.github.io/ • 课程幻灯片:http://qveraliao.com/xai_tutorial.pdf • 课前笔记:http://qveraliao.com/chi_course_notes.pdf • AIX360:http://aix360.mybluemix.net/ • 安装 AIX360:https://github.com/Trusted-AI/AIX360 • 代码演示:https://nbviewer.jupyter.org/github/IBM/AIX360/blob/master/examples/tutorials/HELOC.ipynb
• 欧盟关于人工智能法案的提议:“用于评估自然人信用评分或信用度的人工智能系统应归类为高风险人工智能系统,因为它们决定了这些人获得金融资源或住房等基本服务的机会[…]”
7.此外,2021年欧洲议会提出了《人工智能法案》(AI Act),以规范欧盟境内人工智能的使用。该拟议法规为人工智能系统建立了监管框架,包括道德发展、透明度、安全性和准确性的要求,以及治理和监督体系。 《人工智能法案》将人工智能应用划分为不同风险等级(不可接受的做法、高风险系统和低风险或有限风险系统),并对高风险系统建立了透明度和人工监督要求,这些要求将在整个联盟范围内强制执行。这可能会引发适应该法规的举措,例如全面的模型文档、可解释性技术、监控仪表板和模型警报等。
注意:这篇文章是在几种人工智能(AI)工具的帮助下准备的。这些工具用于各种任务,包括搜索信息、收集和组织数据以及生成摘要。无论如何,这篇文章的最终材料是由人而不是人工智能编写的。
7.此外,2021 年,欧洲议会提出了《人工智能法案》(AI Act),以规范欧盟的人工智能使用。这项拟议法规为人工智能系统制定了监管框架,包括道德发展、透明度、安全性和准确性的要求,以及治理和监督系统。《人工智能法案》将人工智能应用分为不同风险等级(不可接受的做法、高风险系统以及低风险或有限风险系统),并规定了高风险系统的透明度和人工监督要求,这些要求将在整个联盟范围内执行。这可能会引发适应该法规的举措,包括全面的模型文档、可解释性技术、监控仪表板和模型警报。
•MLGW客户的价值。o增加MLGW电动销售将导致每年向孟菲斯市进行约50万美元的额外飞行付款。(MLGW每年向该市的普通基金支付约6000万美元。)o该项目预计将创建〜300+新的高薪工作。o减少对含水层的需求。XAI正在设计和拟议建造灰水/再生废水设施的设计和拟议建设中,将加入孟菲斯市,MLGW和TVA,该设施将采用经过处理的废水并生产适合冷却过程的水。完成后,该项目将减少含水层上的每日抽签,最高10 mgd,并将可回收的废水放在生产性中。o公用事比例电池存储。MLGW和XAI正在协调采购,并在2024年开始在MLGW系统中进行超过50MW的实用程序比例存储。在高能消耗期间,MLGW将使用一旦安装的电池来“峰值”,并在对网格的需求高时向MLGW的系统提供可调节能源。这将为我们的客户提供弹性的额外对冲。这将是MLGW对电池存储的一系列投资的预测中的第一笔。
图2.Dodge 等人比较了四种类型的 XAI 特征。[29](对原始论文中的解释名称进行了小幅更新)以支持人们对 ML 模型的公平性判断,其中 ML 模型的用例执行再犯风险预测。对比解释(左上)侧重于被告需要如何改变才能被预测为低风险。与底部的两个全局解释相比,它更有效地揭示了不公平模型的个体公平问题——来自不同受保护群体的类似个体受到不同的对待。基于示例的解释可以通过揭示决策的矛盾性来表明公平性问题(只有 60% 的类似个人资料会再次犯罪)。
学术图书馆可以采用证明和验证作为查询信息系统和资源的手段。这包括越来越多地本身就是机器学习系统或使用机器学习方法开发的收藏。将“收藏视为数据”的认可是朝着这个方向的一个重要转变。21 在适当的情况下,证明和验证应伴随机器学习衍生的内容和系统。图书馆还必须参与 XAI 作为授权,以评估现有、正在出现或必要的公共政策影响。目前,图书馆在这方面缺乏宣传。对政策和治理框架的要求提醒我们,机器学习“远非纯粹的机械,它深刻而不可避免地具有人性”22,虽然复杂且不透明,“但‘黑匣子’里充满了人。”23