摘要 ÐAI 扩展到我们的生活和生计中,这清楚地表明我们必须开发符合道德和值得信赖的 AI。我们提出了 Wasabi,这是一种基于众所周知的信任到可信度的能力-仁慈-诚信模型的可信 AI 的新概念模型。当前可信 AI 的方法提出了一系列理想属性,包括公平性、可解释性和可问责性。然而,这些属性不足以涵盖能力、仁慈和诚信的标准,即使满足这些属性,由此产生的不完整性也会损害可信度。我们将判例法作为可信度概念的证据。法律案件代表了律师激烈争论并由陪审团仔细审议的边界条件。因此,它们捕捉到了浅显分析中缺少的重要细节和权衡。我们从每个案例中找出了人工智能的经验教训。最后我们给出了未来调查的方向。
证明是创建,传达和评估计算系统的可信度特征的过程。这是在一个依赖方的场景中通过入学和验证者角色来完成的(例如API端点)评估另一个计算实体的可信度(例如API请求者)。验证者可以驻留在(例如)API后端和API请求者的API后端。通常,依赖方向入场者发出挑战请求,以了解API请求者特征的特定范围。完整性测量(例如Digests)(例如固件,内核模块。验证者验证了已收到的证明证据,并将其与先前交付给验证者的已知良好值进行了比较,以对证明系统及其软件堆栈的可信度作出判决。通常,招待会以隐式信任的信任根构建,也就是说,对信任的根源的信任是由其制造商签发的证书或其他认可文档,以描述信任技术的根源。通常,使用耐篡改技术实现信任的根(请参阅[I.37])。一个值得信赖的招待会通常具有受自信的可信度模块,这些模块由信任根或代表信任的模块检查,请参见[i.38]。此外,实施证明角色的实体之间的信任关系,例如ADTSTER,验证者和依赖方通常是使用公共密钥基础架构(PKI)建立的,但也可以使用替代方案,请参见[I.39]。
人工智能 (AI) 的应用范围非常广泛,造成危害的可能性也非常大。人们越来越意识到人工智能系统的潜在风险,这促使人们采取行动应对这些风险,同时也削弱了人们对人工智能系统及其开发组织的信心。2019 年的一项研究 ( 1 ) 发现,已有 80 多个组织发布并采用了“人工智能道德原则”,此后还有更多组织加入。但这些原则往往在值得信赖的人工智能开发的“内容”和“方式”之间留下了空白。这种差距导致了可疑或道德上可疑的行为,这让人们对特定组织以及整个领域的可信度产生了怀疑。因此,迫切需要具体的方法,既能让人工智能开发人员防止危害,又能让他们通过可验证的行为证明自己的可信度。下面,我们将探讨创建生态系统的机制(摘自 ( 2 )),在这个生态系统中,人工智能开发人员可以赢得信任——如果他们值得信赖的话。更好地评估开发人员的可信度可以为用户选择、员工行为、投资决策、法律追索权和新兴治理制度提供信息。
是否应该在研究计划或项目的主体中讨论偏见?学习者应采用重点研究技术来收集初级和二级研究,并评估该信息的可信度和偏见,并认识到任何偏见和假设。在研究计划中,学习者可以专注于这些特定技能,以证明选择数据和进行研究的来源和方法是合理的。在项目的主体中,讨论任何可信度和偏见都与在项目的论点或发现的背景下分析和解释来源的内容有关。与任何特定的技能信贷一样,将在项目中出现该技能的证据。
抽象的深度学习仍然在可信度方面存在缺点,它描述了一种可理解,公平,安全和可靠的方法。为了减轻AI的潜在风险,已通过监管指南(例如,在《欧洲AI法》中)提出了与可信赖性相关的明确义务。因此,一个核心问题是可以在多大程度上实现值得信赖的深度学习。建立构成可信赖性的所描述属性要求可以追溯影响算法计算的因素,即算法实现是透明的。以这样的观察到,深度学习模型的当前演变需要改变计算技术的变化,我们得出了一个数学框架,使我们能够分析计算模型中透明的实现是否可行。我们示例地应用了我们的可信度框架,分别分析图灵和Blum-Shub-Smale机器代表的数字和模拟计算模型中的反相反问题的深度学习。基于先前的结果,我们发现Blum-Shub-Smale机器有可能在相当一般的条件下为反问题建立可信赖的求解器,而Turing Machines不能保证具有相同程度的可信度。
● 保护人们的隐私必须被视为构建人工智能的最重要基础,并被用作制造新产品的起点。● 产品指南或“可信度评分”(如食品上的健康标签)可帮助用户根据产品的可信度选择产品。● 人工智能工作原理的透明度是用户要求的功能,公司必须提供此功能。● 企业家提出新的可信人工智能理念,投资者为他们提供资金支持。● 艺术家、记者和教育工作者向人们传授人工智能的工作原理、人工智能如何影响他们,并帮助他们提出改进人工智能的创意。● 公民通过请愿书和要求民选官员采取行动来告诉公司他们何时不满意。● 关心人权的团体也需要了解可信人工智能。
6. 建议 ................................................................................................................................................ 51 7. 结论 ................................................................................................................................................ 52 附件一:可用性启发法 ................................................................................................................ 53 附件二:ISEAL 可信度原则 ............................................................................................................. 55 作者 ............................................................................................................................................................. 59
最大进化枝可信度(MCC)树的124种RABV糖蛋白序列来自中国和东南亚(Wenjie Gong等人。病毒研究。2010)
人工智能安全、保障和可信度 位于美国国家标准与技术研究院 (NIST) 内的人工智能安全研究所 (AISI) 已被指定为私营部门人工智能开发商的主要联络点,负责“对前沿人工智能模型的安全性、保障和可信度进行自愿的公开部署前和部署后测试” [第 3.3c 节]。AISI 的任务是创建一种“持久能力”,以领导模型的“自愿非机密部署前安全测试”,重点关注包括“网络安全、生物安全、化学武器、系统自主性等”在内的风险。其他机构不被禁止进行自己的测试,AISI 的职责不涵盖国家安全系统 [第 3.3c 节]。