一、介绍 国家标准与技术研究所(NIST)在指导人工智能(AI)系统的开发和部署方面发挥着至关重要的作用,这是行政命令14110规定的。随着人工智能技术越来越多地融入社会的各个领域,必须采用社会技术方法来制定人工智能安全、保障和可信的指南、标准和最佳实践。国家标准与技术研究所(NIST)根据人工智能行政命令提出的信息请求(RFI)为TRAILS(NIST-NSF法律和社会可信人工智能研究所)提供其独特见解提供了关键机会。通过整合人工智能技术、参与和治理,TRAILS 正在重塑人工智能实践,使其朝着实用、道德、以人权为中心的范式发展。在美国国家科学基金会和 NIST 的支持下,TRAILS 与主要大学和行业参与者合作,专注于开发值得信赖、负责并反映不同利益相关者观点的人工智能系统。由于我们的使命是确保人工智能系统不仅能增强人类能力,还能维护人类尊严和权利,因此我们强调增强人工智能可信度、用户赋权和包容性治理的方法。通过多学科研究和培训,TRAILS 致力于提出主流人工智能发展中被忽视的声音,确保人工智能治理的全面和包容性。这种方法对于制定人工智能安全、保障和可信度的指南、标准和最佳实践至关重要,从而实现技术进步和社会影响之间必要的、复杂的平衡。因此,TRAILS 的使命和专业知识与 NIST 在指导人工智能开发和部署方面的关键作用高度契合。为了确保人工智能技术的安全,随着它们在各个社会领域变得越来越普遍,NIST 应该采用社会技术框架。社会技术方法允许人工智能治理随着人工智能相关系统的变化而发展。TRAILS 研究人员进行的大量研究表明,采用社会技术方法对人工智能的必要性。这种方法除了考虑人工智能的技术方面,还考虑了社会和行为背景。这种更广泛的观念对于创建不仅技术先进而且对社会负责且符合道德规范的系统至关重要。通过整合法律、社会科学和计算机科学等不同领域的见解,TRAILS 研究强调了解决人工智能对社会的多重影响的重要性。这种全面的视角确保人工智能系统的开发能够敏锐地意识到其潜在的社会影响,符合我们共同的可信度、责任感和包容性目标。
主要关键词