人工智能 (AI) 研究经常因其对社会的实际和潜在影响而受到批评,而我们缺乏足够的机构回应来应对这种批评及其所反映的责任。人工智能研究通常不属于现有反馈机制的范畴,例如机构审查委员会 (IRB),该委员会旨在评估对人类受试者的危害,而不是对人类社会的危害。作为回应,我们成立了伦理与社会审查委员会 (ESR),这是一个反馈小组,与研究人员合作,以减轻人工智能研究的负面伦理和社会影响。ESR 的主要见解是作为资助的必要条件:研究人员在完成提案的 ESR 流程之前,无法从我们大学的主要 AI 资助计划中获得资助。在本文中,我们描述了我们设计并在第一年针对 41 份提案运行的 ESR。我们分析了这些提案的总体 ESR 反馈,发现小组最常指出的问题包括对少数群体的危害、在研究计划中纳入不同的利益相关者、双重使用和数据中的代表性。对与 ESR 有过互动的研究人员进行的调查和访谈发现,58% 的人认为 ESR 影响了他们的研究项目的设计,100% 的人愿意继续向 ESR 提交未来的项目,并且他们寻求通过道德和社会问题进行推理的额外支架。
主要关键词