Loading...
机构名称:
¥ 1.0

过去十年,人工智能 (AI) 在各个领域取得了指数级的进步。技术越来越智能,越来越自主,决策能力也越来越强。这些技术包括自动驾驶汽车、无人机、人形机器人等先进技术,以及语音代理、社交媒体或娱乐应用程序等我们每天接触的各种系统。自主智能系统的先进功能具有许多优势,例如自动执行冗余任务、支持更好的个性化、增强预测和提供决策支持。然而,在某些情况下,这些技术也对人类自主性构成威胁,因为它们过度优化了工作流程、超个性化,或者没有给用户足够的选择、控制或决策机会。此外,由于它们本质上是黑箱的,它们还带来了道德挑战,例如缺乏透明度和问责制。随着自主智能技术在我们的日常生活中越来越普及,这些问题导致了如何解决人类和机器自主性之间的摩擦的难题。以人为本的人工智能研究人员一直在开发模型和方法,以使用可解释性、玻璃盒 ML 模型和其他以用户为中心的方法来实现公平、透明和可追溯的人工智能技术。然而,在确定能够让我们开发基于人工智能的技术而不危及人类控制、代理和自主权的方法方面仍然存在差距。目前还不清楚人类和机器自主性之间的紧张关系在不同的应用环境中如何变化,以及来自不同领域的研究人员如何看待这种紧张关系(例如,计算机科学、哲学和伦理学、心理学、社会科学、人机交互等)。本文集是 2020 年 NordiCHI 会议上就同一研究主题举行的国际研讨会的延伸贡献(研讨会网站)。它通过将人机交互(A6)、临床决策支持系统(A4)、家庭自动化(A7)、无人机自主管理(A3)等各个领域的观点引入到人工智能的日常应用(A5),扩展了自主性的概念。此外,它还从监管角度 (A2) 和哲学角度 (A1) 深入了解了人工智能对人类自主性的挑战。下面我们将向读者简要介绍每一项贡献,从领域通用概念分析到领域特定实证研究。

通过以人为本的人工智能尊重人类自主权

通过以人为本的人工智能尊重人类自主权PDF文件第1页

通过以人为本的人工智能尊重人类自主权PDF文件第2页

相关文件推荐