人们对人工智能的伦理、社会、环境和经济影响的担忧日益加剧,引发了大量治理举措。除了传统的监管方法之外,互补的治理形式也可以帮助应对这些挑战 1 。一种这样的治理形式是基于社区的技术治理或“内部治理” 2 。在这里,基于社会考虑影响研究的措施从科学界内部发展而来,并在社区层面实施。最近一项此类举措来自世界上最大的人工智能会议之一 NeurIPS。2020 年初,该委员会宣布了一项新的投稿要求:投稿作者现在必须包含一份声明,说明其研究的更广泛影响,包括其“伦理方面和未来的社会后果” 3 。NeurIPS 的这一要求引发了人工智能研究界的不同反应,关于其目的和有效性的讨论出现在社交媒体和其他地方 4 。尽管很少有人否认确实需要识别和应对人工智能带来的伦理和社会挑战,但反应的多样性表明,对于正确的方法,以及个体研究人员或研究界(包括会议)在此过程中应承担的责任,几乎没有达成共识 5、6。这也凸显了进一步讨论 NeurIPS 要求和类似治理措施的目的、实施和效果的必要性。在本文中,我们希望为 NeurIPS 要求的讨论以及更普遍的会议提交中更广泛影响要求做出贡献。我们将新要求与其他既定的治理机制进行比较,并对其影响进行分析。我们的目标是 (1) 识别并明确引入 NeurIPS 更广泛影响要求所带来的风险和挑战,(2) 提出一系列措施来应对这些挑战,以及 (3)
主要关键词