正如联合国HLEG中突出显示的那样,净零承诺的范围应该是整个实体的承诺。通过允许产品和服务的碳中立性,ISO 14068与Un Hleg未对准。在气候承诺方面,吹嘘特定产品的可持续性可能会分散减少公司整体环境影响的更重要目标。
该文件由文件末尾列出的人工智能高级专家组 (AI HLEG) 撰写。他们支持该文件的大方向,尽管他们不一定同意其中的每一条陈述。这是人工智能 HLEG 的第四个交付成果,在此之前,该小组于 2019 年 6 月 26 日发布了《可信人工智能政策和投资建议》。人工智能高级专家组是欧盟委员会于 2018 年 6 月成立的独立专家组。联系人 Charlotte Stix - 人工智能 HLEG 协调员电子邮件 CNECT-HLG-AI@ec.europa.eu 欧盟委员会 B-1049 布鲁塞尔文件于 2020 年 7 月 23 日公布。书籍:ISBN 978-92-76-20631-6 doi:10.2759/943666 KK-02-20-527-EN-C PDF:ISBN 978-92-76-20630-9 doi:10.2759/733662 KK-02-20-527-EN-N
本文件由人工智能高级专家组 (AI HLEG) 编写。这是人工智能 HLEG 的第三份成果,紧随该小组于 2019 年 4 月 8 日发布的《可信人工智能道德准则》成果之后。本文件中提到的人工智能 HLEG 成员在其整个任期内为内容的制定做出了贡献。这项工作以欧盟委员会于 2019 年 6 月 26 日至 2019 年 12 月 1 日进行的《可信人工智能道德准则》中所载原始评估清单的试点阶段为依据。他们支持本文件中提出的可信人工智能评估清单的大方向,尽管他们不一定同意其中的每一条声明。人工智能高级专家组是欧盟委员会于 2018 年 6 月成立的一个独立专家组。
作者要感谢以下个人(按字母顺序排列),感谢他们审阅了本文的早期版本并提供了宝贵的反馈和建议:Murray Birt(DWS)、Elisa Cencig(NBIM)、Leo Donnachie(IIGCC)、Sean Kidney 及其团队(气候债券倡议和欧盟 HLEG* 前成员)、Kerstin Mathias(伦敦金融城)、Will Oulton(可持续投资顾问)、Michael Schmidt(欧盟 HLEG* 前成员)和 John Turner(XBRL)。我们还要感谢其他几位要求匿名的外部审阅者。在 LSEG,Anoushka Babbar、Kieran Brophy、Lily Dai、Felix Fouret、Hannah Layman、Marie-Adelaide de Nicolay、Elena Philipova 和 Jack Simmons 也提供了周到的意见和支持。审阅者以个人身份提供反馈,并不一定认可报告的结论或建议。所有错误和遗漏均由作者独自负责。
该工具支持人工智能高级专家组 (AI HLEG) 于 2019 年 4 月向欧盟委员会提交的《可信人工智能 (AI) 伦理指南》中概述的关键要求的可操作性。该道德指南基于七项关键要求引入了可信人工智能的概念:
1.1 机构和当局的可信度要求 ����������������������������������11 1.1.1 HLEG 要求 ������������������������������������������������������������������������������������������������������12 1.1.1.1 人力和监督 ����������������������������������������������������������������������������������������������12 1.1.1.2 技术稳健性和安全性 ����������������������������������������������������������������������������������������������12 1.1.1.3 隐私和数据治理 ������������������������������������������������������������������������������������������������13 1.1.1.4 透明度 ����������������������������������������������������������������������������������������������������������������13 1.1.1.5 多样性、非歧视和公平 ������������������������������������������������������������������������������13 1.1.1.6 社会和环境福祉 ��������������������������������������������������������������������������������14 1.1.1.7 问责制 ������������������������������������������������������������������������������������������������������������������������14
摘要 评估人工智能 (AI) 的主要困难之一是人们倾向于将其拟人化。当我们将人类的道德活动与人工智能联系起来时,这一点尤其成问题。例如,欧盟委员会人工智能高级专家组 (HLEG) 采取的立场是,我们应该与人工智能建立信任关系,并培养值得信赖的人工智能 (HLEG 人工智能伦理指南,2019 年,第 35 页)。信任是人际关系中最重要和最具决定性的活动之一,因此提出人工智能应该被信任是一个非常严肃的说法。本文将表明,根据最普遍的信任定义,人工智能不可能是具有被信任能力的东西,因为它不具备情感状态,也不能对自己的行为负责——这是情感和规范信任的要求。虽然人工智能满足了理性信任的所有要求,但本文将表明,这实际上根本不是一种信任,而是一种依赖。最终,即使是像人工智能这样复杂的机器也不应被视为值得信任,因为这会破坏人际信任的价值、将人工智能拟人化,并转移开发和使用人工智能的人的责任。
公共数据开放计划 1) ,负责任发展战略 2) , “从纸质到数字波兰”计划 3) , “活力波兰 2020” 经济创新与效率战略 4) ,欧盟委员会 (EC) 通报“人工智能协调计划” 5) ,维谢格拉德人工智能小组的立场 6) ,人工智能高级专家组 (HLEG AI) 以“可信人工智能伦理指南”形式向欧盟委员会提出的建议 7) 和可信人工智能政策与投资建议 8) ,以及有关可信人工智能管理的建议 9),载于波兰外交政策战略 10) 和“波兰人工智能发展备忘录 11) ”。
公共数据开放计划 1) 、负责任发展战略 2) 、“从纸质到数字波兰”计划 3) 、“活力波兰 2020”经济创新与效率战略 4) 、欧盟委员会(EC)“人工智能协调计划”通报 5) 、维谢格拉德人工智能小组的立场 6) 、人工智能高级专家组(HLEG AI)以“可信人工智能伦理指南”形式向欧盟委员会提出的建议 7) 和关于可信人工智能政策和投资的建议 8) ,以及 9) 有关可信人工智能管理的建议,载于波兰外交政策战略 10) 和“波兰人工智能发展备忘录 11) ”。