2021 年 9 月 16 日,美国专利商标局庆祝了 2011 年莱希-史密斯美国发明法案 (AIA) 颁布十周年。AIA 对美国专利法做出了几项重要修改,包括实施先申请制来确定专利的优先权日,并成立专利审判和上诉委员会 (PTAB) 审理专利授权后挑战,作为地区法院专利诉讼的更经济实惠和更简化的替代方案。AIA 周年纪念日也庆祝了美国专利商标局地区办事处的成立,这些办事处在为我们的客户和公众提供与创新相关的基本服务方面发挥了重要作用。这些办事处的专家工作人员帮助全国各地升级其知识产权 (IP) 基础设施,并将创新的好处传播到远离美国专利商标局总部和该国技术中心的社区。
该报告受益匪浅,其中包括 Theodoros Evgeniou(欧洲工商管理学院)、Raphaël Rozenberg(巴黎高等师范学院)和 Fabio Curi,以及经合组织人工智能治理工作组各国代表团的贡献,他们是:Mohammed Motiwala(美国国务院);Elham Tabassi 和 Mark Latonero(美国国家标准与技术研究所 - NIST);Ghazi Ahamat(英国数据伦理与创新中心,任期至 2022 年 8 月);Sarah Box(新西兰商业、创新和就业部);Christine Hafskjold(挪威地方政府和区域发展部);Carolina von der Weid(巴西外交部);Zee Kin Yeong、Larissa Lim 和 Angela Tey(新加坡资讯通信媒体发展局);Nobuhisa Nishigata 和 Takayuki Honda(日本总务省); Roxane Sabourin、Allison O'Beirne 和 Juliet McMurren(加拿大创新、科学与经济发展部);以及 Yordanka Ivanova 和 Salvatore Scalzo(欧盟委员会通信网络、内容和技术总司 - CNECT)。
人工智能系统的广泛采用以及与错误、偏见和其他负面后果相关的风险凸显了对此类系统进行监管的必要性,并引发了要求对它们(及其开发者)负责的呼声。为了定位我们的工作,我们使用了之前工作 [6] 中提出的定义,其中人工智能系统包括“核心人工智能”组件(例如,机器学习模型)和其他支持组件(例如,API 包装器);其生命周期包括四个阶段:设计、实施、部署和运营。此外,负责任的人工智能系统是可以进行检查、审计或审查的系统,目标是(i)使其生命周期每个阶段的流程透明化;(ii)表现出对硬性法律(即法律法规)和软性法律(即标准和指南)的遵守;(iii)促进对错误决策或失败的调查并确定负责的人类代理人。近年来,为了提高机器学习系统的透明度,已经提出了许多用于记录元数据的著名框架
随着人工智能 (AI) 开发工具和互联网数据集的普及,企业、非营利组织和政府正在以前所未有的速度部署人工智能系统,通常是大规模生产系统,影响数百万甚至数十亿用户 [1]。然而,在这种广泛部署的过程中,人们对这些自动化系统对所有用户的有效性产生了合理的担忧,尤其是对那些倾向于复制、强化或放大现有有害社会偏见的系统提出了批评 [8, 37, 62]。外部审计旨在从系统外部识别这些风险,并作为这些部署模型的问责措施。然而,这种审计往往是在模型部署之后进行的,此时系统已经对用户产生了负面影响 [26, 51]。
随着曾经规模较小的人工智能应用发展成为高度复杂的系统,谁应该对这些系统的预测或决策负责的问题变得迫在眉睫。以自动驾驶为例,本简报从法律和道德角度强调了人工智能系统的主要问责问题。在现行指南中已经可以找到问责制的含义,包括可解释性和责任要求。然而,将这些指南转移到人工智能系统的特定环境中并应用于其中,以及它们的全面性,需要进一步努力,特别是在社会需求方面。因此,需要进一步进行多学科研究,以加强整体和适用的问责框架的制定。