尽管困难重重,但 2020 年还是收获颇丰。2021 年将为我们带来新的挑战。然而,这也将为我们带来新的机遇。我们将看到研究项目的首批成果,启动“人工智能伦理 - 全球视角”开放式在线课程,并有机会在我们的演讲者系列、IEAI 研讨会以及慕尼黑负责任的人工智能论坛 (TRAIF) 上与杰出的国际客座演讲者讨论人工智能的伦理和治理。我们的主要国际会议将通过分享故事、前沿研究和实际应用来解决与负责任地使用人工智能有关的最相关和最紧迫的问题。
TUM IEAI 很荣幸与 Zuzanna Warso 进行了交谈。她是 Trilateral Research 的高级研究分析师。Zuzanna 领导 Trialteral 的 PREVISION 项目,负责监督该项目的道德和人权合规性。1. 关于人工智能最大的误解是什么?关于人工智能有许多误解,它们影响着我们对它的看法。我认为最大的误解是,人类活动的每个领域都会从人工智能的部署中受益,但我认为这不是真的。另一个误解很少被提及,但也非常有害,即所谓的清洁技术神话。我们往往倾向于认为人工智能是无形的、非物质的东西,而实际上它严重依赖于物理世界——依赖于矿物和其他资源(由被低估和报酬过低的人类劳动力获得),这些资源构建了我们的计算系统。2. 目前人工智能伦理中最重要的问题是什么?我认为目前人工智能伦理中最大也是最重要的问题之一与人工智能伦理应该发挥的实际作用有关。有人担心人工智能伦理会被当作幌子或烟幕弹,这是有道理的。我不认为人工智能伦理可以也不应该被视为监管的替代品或逃避监管的一种方式,
人工智能 (AI) 是技术领域的主要趋势之一。因此,它是行业和客户产品发生重大变化的根源,对社会产生了重大影响。经典产品正在被新应用所取代,这些应用的功能远远超出了以前的能力。只有人类才能完成的复杂任务逐渐被人工智能所取代。车载自动化系统说明了这种持续的变化。如今,智能系统已经在危险情况下执行自动制动操作,而无需人工反应。然而,该领域的技术发展伴随着责任的转变。虽然产品和公司的责任框架已经存在,但它们不再适用于新创建和实施的技术。人工智能,尤其是机器学习 (ML) 的子领域,其特点是,由于算法的复杂性,无法向利益相关者透明地呈现决策 (Arrieta, 2020)。重要信息通常对用户和开发人员隐藏。因此,必须确保无缝且透明地共享技术的责任和义务。人工智能将要做出的以及已经在我们的日常生活中做出的深远决定,对人类和社会都具有很高的风险。近年来,对道德人工智能的需求不断增加,并在社会上变得越来越重要 (IEAI, 2020),导致国际组织参与这一主题。随着人工智能产品数量的增加,对法规的需求变得至关重要。鉴于人们对这一主题的兴趣日益浓厚,立法者和国际组织需要能够在人工智能系统生命周期的每个阶段以及与人工智能系统相关的法律案件中为自然人或法人分配道德和法律责任。这不仅指个人监控,还指对国家的公共监督(联合国教科文组织,2021 年)。在实际应用中,这一要求意味着人工智能系统永远无法取代人类的最终责任和问责制(联合国教科文组织,2021 年)。