然而,我们知道这些人工智能系统可能很脆弱且不公平。在停车标志上添加涂鸦会欺骗分类器,使其认为这不是停车标志 [Eykholt 等人2017]。在良性皮肤病变图像中添加噪声会欺骗分类器,使其认为它是恶性的 [Finlayson 等人 2019]。美国法院使用的风险评估工具已被证明对黑人存在偏见 [Angwin 等人2016]。企业招聘工具已被证明对女性存在偏见 [Dastin 2018]。那么,我们如何才能兑现人工智能带来好处的承诺,同时解决这些对人类和社会产生重大影响的情况呢?简而言之,我们如何实现可信赖的 AI?1.从可信赖计算到可信赖的 AI 具有里程碑意义的 1999 年国家科学院网络空间信任报告为可信赖计算奠定了基础,并继续成为一个活跃的研究领域 [NRC 1999]。美国国家科学基金会启动了一系列关于信任的项目。从可信赖计算(2001 年启动)开始,然后是网络信任(2004 年),然后是可信赖计算(2007 年),现在是安全和可信赖系统(2011 年),计算机和信息科学与工程理事会已经发展了可信赖计算的学术研究社区。尽管它始于计算机科学界,但对可信计算研究的支持现已涵盖 NSF 的多个理事会,并涉及许多其他资助组织,包括通过网络和信息技术研究与开发 (NITRD) 计划的 20 个联邦机构。行业也是可信计算的领导者和积极参与者。凭借比尔盖茨 2002 年 1 月的“可信计算”备忘录 [Gates 2002],微软向其员工、客户、股东和其他信息技术部门发出了可信软件和硬件产品的重要性。它提到了微软内部
主要关键词