帮助制定有望成为世界上最全面的人工智能法律法规之一。研究人员需要抓住这个机会,而且要迅速。该法案存在一些漏洞,需要在全面生效之前予以填补,预计大约两年后才能全面生效。在发现漏洞的人中,有研究技术、法律和道德交叉领域的研究人员。举个例子,该法案假设大多数人工智能“风险很低甚至没有风险”。这意味着许多日常人工智能应用程序(例如回答简单查询的在线聊天机器人和文本摘要软件)不需要提交监管。被认为“高风险”的应用程序将受到监管,包括那些使用人工智能筛选求职者或进行教育评估的应用程序,以及执法部门使用的应用程序。但正如英国纽卡斯尔大学法学学者 Lilian Edwards 在伦敦 Ada Lovelace 研究所的一份报告中指出的那样,没有可审查的标准来支持该法案的低风险和高风险分类(参见 go.nature.com/4alwbha)。此外,哪里有证据表明大多数人工智能都是低风险的?第二个担忧是,在许多情况下,人工智能开发人员将能够自我评估被视为高风险的产品。根据该法案,此类提供商需要解释用于获取训练数据的方法和技术,包括这些数据的获取地点和方式,以及如何清理数据,以及确认它们符合版权法。监管机构最好建立一个独立的第三方验证系统,该系统还可以在必要时验证原始数据——即使它只检查代表性样本。人工智能办公室成立后,需要履行委员会的承诺,与科学界密切合作,利用所有可用的专业知识来回答这些问题。新技术的监管是一项不值得羡慕但必不可少的任务。政府需要支持创新,但他们也有责任保护公民免受伤害,确保人民的权利不受侵犯。从药品到机动车等现有技术的监管中吸取的教训包括需要最大限度地提高数据和模型的透明度。此外,负责保护人们免受伤害的人需要独立于那些负责促进创新的人。它需要确保在其人工智能工作中借鉴所有这些经验。华盛顿特区卡内基国际和平基金会研究人工智能伦理的 Hadrien Pouget 和他在英国牛津大学的同事 Johann Laux 在一封致未来人工智能办公室的公开信中强调了监管独立性以及人工智能提供商透明度的必要性(参见 go.nature.com/3sckfvv)。与此同时,联合国秘书长安东尼奥·古特雷斯召集的人工智能咨询委员会敦促所有致力于人工智能监管的人在这一过程中倾听尽可能多样化的声音。值得称赞的是,欧盟在立法过程中借鉴自然科学和社会科学以及工程和技术、商业和民间社会方面拥有丰富的经验。研究人员有一个很小的时间来弥补欧盟计划中的漏洞。他们需要在它关闭之前跳进去。
主要关键词