1 简介 机器学习 (ML) 模型广泛应用于许多实际应用的决策过程。现代 ML 方法的快速发展、实际成就和整体成功 [LeCun et al. , 2015; Jordan and Mitchell, 2015; Mnih et al. , 2015; ACM, 2018] 保证了机器学习将作为一种通用计算范式盛行,并将找到越来越多的实际应用,其中许多与我们生活的各个方面有关。不幸的是,ML 模型有时会灾难性地失败 [Zhou and Sun, 2019; CACM Letters to the Editor, 2019]。它们还可能由于模型中的偏见(例如种族、性别、年龄)而支持糟糕的决策 [Angwin et al. , 2016]。由于脆弱性,它们的决策可能会令人困惑 [Szegedy et al. , 2017]。 ,2014;Goodfellow 等人,2015]。因此,迫切需要了解 ML 模型的行为,分析模型(或用于训练模型的数据)的(潜在)故障,对其进行调试并可能进行修复。这引起了人们对验证 ML 模型操作的兴趣日益浓厚 [Ruan 等人,2018;Narodytska,2018;Narodytska 等人,2018b;Katz 等人,2017],同时也激发了旨在设计可解释人工智能(XAI)方法的努力 [Ribeiro 等人,2018;Lundberg 和 Lee,2017;Ignatiev 等人,2018;Narodytska 等人,2018a;Ribeiro 等人, 2016;伊格纳季耶夫等人。 , 2019a;
6 例如,欧盟正在通过《人工智能法案:制定人工智能协调规则的提案》制定新的人工智能法规。https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/AUTRES_INSTITUTIONS/COMM/COM/2021/06-02/COM_COM20210206_EN.pdf。美国国家标准与技术研究所正在响应白宫的一项行政命令,制定一项新的人工智能自愿风险管理框架。https://www.nist.gov/system/files/documents/2019/08/10/ai_standards_ fedengagement_plan_9aug2019.pdf。在国际上,国际标准化组织 (ISO) 等组织已经发布了有关人工智能可信度的新的自愿标准 https://www.iso.org/standard/77608.html?browse=tc。电气电子工程师协会 (IEEE) 也正在其“符合伦理的设计”倡议下制定 7000 系列下的一系列综合标准。正在解决的问题包括透明度、数据隐私流程和算法偏见考虑,以及儿童、学生和雇主数据治理。https://ethicsstandards.org/p7000/。关于制定数字治理的加拿大自愿标准,首席信息官战略委员会发布了一项关于道德人工智能的标准,题为“人工智能:自动决策系统的道德设计和使用”。https://ciostrategycouncil.com/standards/1012019/
案例研究、比较、统计数据、研究和建议均按“原样”提供,仅供参考,不应作为运营、营销、法律、技术、税务、财务或其他建议的依据。Visa Inc. 不对本文档中信息的完整性或准确性做任何保证或陈述,也不承担因依赖此类信息而产生的任何责任或义务。本文中包含的信息不作为投资或法律建议,鼓励读者在需要此类建议时寻求有能力的专业人士的建议。在实施任何新策略或做法时,您应咨询您的法律顾问,以确定哪些法律法规可能适用于您的具体情况。任何建议、计划或“最佳实践”的实际成本、节省和收益可能会因您的特定业务需求和计划要求而异。从本质上讲,建议并不能保证未来的表现或结果,并且会受到难以预测或量化的风险、不确定性和假设的影响。所有品牌名称、徽标和/或商标均为其各自所有者的财产,仅用于识别目的,并不一定意味着产品认可或与 Visa 有关联。
Moor,M.,Banerjee,O.,Abad,Z.S.H。等。通才医学人工智能的基础模型。自然616,259–265(2023)。https://doi.org/10.1038/s41586-023-05881-4 Chen,Dongping,Yue Huang,Siyuan Wu,Jingyu Tang,Liuyi Chen,Yilin Bai,Yilin Bai,Zhigang He等。“ GUI-WORLD:针对GUI为导向多模式LLM的代理的数据集。”Arxiv预印型ARXIV:2406.10819(2024)。
用于自动决策的黑盒人工智能系统通常基于对(大)数据的机器学习,将用户的特征映射到一个类别或分数中,而不揭示原因。这不仅是由于缺乏透明度而成问题,而且还因为算法可能继承了人类的偏见和隐藏在训练数据中的收集伪影,从而导致不公平或错误的决策。人工智能的未来在于让人与机器合作解决复杂问题。与任何有效的合作一样,这需要良好的沟通、信任、清晰度和理解。可解释的人工智能解决了这些挑战,多年来,不同的人工智能社区一直在研究这样的主题,从而产生了不同的定义、评估协议、动机和结果。本讲座对迄今为止可解释人工智能(XAI)的工作进行了合理的介绍,并调查了相关文献,重点是机器学习和符号人工智能相关方法。我们激发现实世界和大规模应用中对 XAI 的需求,同时展示最先进的技术和最佳实践,并讨论许多未解决的挑战。
学习。通过(i)使用最佳实践交付模式和适当的学生评估策略(适用于行业标准)和(ii)使用相关信息,包括学生和行业的反馈来为改进交付和评估策略提供信息,以帮助学校改善课程和服务的交付。向学生提供准确的课程前建议;协助学生选择和学生入职。行业参与向相关客户推广学校的计划和服务,并建立和维持有效的行业联系。积极参加学校的咨询工作。这可能包括开发咨询公司,进行培训/技能分析,开发学习材料和/或提供诸如交货之类的服务。合规性遵循大学质量保证流程,以进行教学和支持服务,以确保计划;根据ASQA要求设计,交付和验证,并根据Victoria绩效协议和与其他州的用户选择合同进行交付。确保对学习和教学文档(例如学习材料和评估工具)进行适当记录和访问,以支持计划管理并证明与ASQA框架保持一致。保存记录的责任(包括更新您的工作计划),该职业能力反映了所提供和评估的教育水平,并得到了改进。团队合作,策略和创新
37 Rue Croix des Petits Champs,75001巴黎。请带一个有效的ID以进行安全许可。允许大约15分钟通过安全检查。🗓️会议时间表定期演示:20–25分钟演示 + 5-10分钟问答。主题演讲:45-50分钟演示 + 10–15分钟问答。
本出版物的内容仅用于信息目的。LSE组从认为是准确和可靠的来源获得了本出版物中包含的所有信息和数据。由于人类和机械错误以及其他因素的可能性,因此提供了“原样”此类信息和数据,而无需任何保证。您理解并同意该出版物并不构成任何性质的建议。在任何情况下,您都不可能依靠本文档的内容,并且应该寻求有关任何特定安全性,投资组合或投资策略的适用性,价值或盈利能力的独立法律,税收或投资建议或意见。我们和我们的分支机构都不应对出版物或任何其他内容中的任何错误,不准确或延误,或您对您所采取的任何行动的任何责任负责。您明确同意您对出版物及其内容的使用均具有您的唯一风险。