以人为本的负责任人工智能 (HCR-AI) 1 旨在将人及其价值观纳入人工智能系统的设计和开发中,这有助于构建造福人类和社会的系统,并防止和减轻潜在危害。尽管人为因素在人工智能系统中的重要性由来已久 [ 12 , 31 ],但在过去几年中,人为因素社区对其重要性的认识日益加深 [ 32 ]。在 CHI 会议记录中搜索 ACM 数字图书馆会显示以下结果(图 1):2 自 2019 年以来,“以人为本的 AI”共找到 41 条记录,自 2020 年以来“负责任的 AI”共找到 32 条记录。下面,我们重点介绍了一些与特别兴趣小组 (SIG) 主题相关的研究示例,请注意,这并不是一份详尽的清单,只是为了展示现有工作的广度和深度:人工智能中的伦理涉及社会文化和技术因素,涵盖一系列负责任的 AI 价值观(包括但不限于透明度、公平性、可解释性、问责制、自主性、可持续性和信任)[20]。然而,包括普通民众和人工智能从业者在内的不同利益相关者可能会对这些价值观有不同的看法和优先考虑。例如,美国人口的代表性样本更有可能重视安全、隐私和性能。相比之下,从业者更有可能优先考虑公平、尊严和包容性 [ 19 ]。或者,某些历史上遭受剥削的群体可能比风险较低的群体更重视隐私或不参与 [ 13 , 26 ]。与负责任的人工智能相一致的是,人们呼吁让人工智能更加以人为本。特别是,人们强调人工智能融入社会技术过程以保持人类自主权和控制力所面临的挑战,以及人工智能系统的部署和应用对社会、组织和个人的影响 [ 4 ]。在这一研究领域,了解社会技术和环境因素有助于揭示人工智能系统为何以及如何以人为本 [ 8 , 24 , 30 ]。例如,即使对于一种人工智能,其效用可能已达成更广泛的共识,比如使用视网膜扫描检测糖尿病,但对于其目标用户来说,可能仍存在一些障碍,包括由于不太适合用户的工作流程(例如护士)或系统需要不易生成的高质量图像,特别是在资源匮乏的地方,如果使用得当,这种技术可以为患者提供重要支持[2]。同样,研究人员也研究了个人对人工智能的期望和理解。例如,在做出道德决策时(例如,假设击落恐怖分子无人机以拯救生命),人们可能会对人工智能决策者的能力给予更多的信任(即能力可信度,更有能力),而他们可能会对人类专家给予更多的道德信任(即能够在道德上值得信赖,并做出符合
主要关键词