海洋可再生能源技术,即波浪能和潮汐能,有望成为补充现有可再生能源的清洁能源。拜登政府通过其《海洋气候行动计划》表示,计划“迅速、负责任地推进海洋能源技术的商业化,这些技术可将波浪、潮汐、洋流和其他海洋能源转化为能源”。1 该行动计划旨在加强海洋可再生能源的研究、教育和劳动力发展,并从环境正义的角度进行。随着这些技术的进步,至关重要的是,在部署这些技术时,必须充分了解环境和社会影响,并结合适当的缓解措施以降低风险。如果负责任地使用,波浪能和潮汐能可以成为有效的额外清洁海洋能源,有助于实现公正的能源转型,特别是对于偏远和农村沿海社区。
数据是指关于事物(如人、物体、事件)的事实,这些事实可以数字化存储、传输或处理。 信息通常是指经过处理并以适合人类解释的形式呈现的数据,其目的是揭示含义(如模式或规则)。 知识:对某一领域(对象、概念和关系)的理论和实践理解,有助于制定决策。 智能:学习、理解和寻找特定领域问题解决方案的能力。 模型是模式的紧凑表示。
为了帮助预测决策者面临的压力和利益相关者的需求,从而塑造人工智能的法律和政策框架,企业可以更深入地了解人们对人工智能的期望。为了更清楚地了解人们对人工智能的看法,今年我们采访了德国、英国和美国的政策知情人士焦点小组,探讨了他们对偏见、同意、版权、透明度和内容审核等人工智能问题的看法。我们发现,人们对人工智能的态度是成熟的、细致入微的,并且对人工智能的潜力仍然持乐观态度,但还有很多工作要做,以证明有合适的工具可以负责任和安全地充分发挥人工智能的潜力。
以人为本的负责任人工智能 (HCR-AI) 1 旨在将人及其价值观纳入人工智能系统的设计和开发中,这有助于构建造福人类和社会的系统,并防止和减轻潜在危害。尽管人为因素在人工智能系统中的重要性由来已久 [ 12 , 31 ],但在过去几年中,人为因素社区对其重要性的认识日益加深 [ 32 ]。在 CHI 会议记录中搜索 ACM 数字图书馆会显示以下结果(图 1):2 自 2019 年以来,“以人为本的 AI”共找到 41 条记录,自 2020 年以来“负责任的 AI”共找到 32 条记录。下面,我们重点介绍了一些与特别兴趣小组 (SIG) 主题相关的研究示例,请注意,这并不是一份详尽的清单,只是为了展示现有工作的广度和深度:人工智能中的伦理涉及社会文化和技术因素,涵盖一系列负责任的 AI 价值观(包括但不限于透明度、公平性、可解释性、问责制、自主性、可持续性和信任)[20]。然而,包括普通民众和人工智能从业者在内的不同利益相关者可能会对这些价值观有不同的看法和优先考虑。例如,美国人口的代表性样本更有可能重视安全、隐私和性能。相比之下,从业者更有可能优先考虑公平、尊严和包容性 [ 19 ]。或者,某些历史上遭受剥削的群体可能比风险较低的群体更重视隐私或不参与 [ 13 , 26 ]。与负责任的人工智能相一致的是,人们呼吁让人工智能更加以人为本。特别是,人们强调人工智能融入社会技术过程以保持人类自主权和控制力所面临的挑战,以及人工智能系统的部署和应用对社会、组织和个人的影响 [ 4 ]。在这一研究领域,了解社会技术和环境因素有助于揭示人工智能系统为何以及如何以人为本 [ 8 , 24 , 30 ]。例如,即使对于一种人工智能,其效用可能已达成更广泛的共识,比如使用视网膜扫描检测糖尿病,但对于其目标用户来说,可能仍存在一些障碍,包括由于不太适合用户的工作流程(例如护士)或系统需要不易生成的高质量图像,特别是在资源匮乏的地方,如果使用得当,这种技术可以为患者提供重要支持[2]。同样,研究人员也研究了个人对人工智能的期望和理解。例如,在做出道德决策时(例如,假设击落恐怖分子无人机以拯救生命),人们可能会对人工智能决策者的能力给予更多的信任(即能力可信度,更有能力),而他们可能会对人类专家给予更多的道德信任(即能够在道德上值得信赖,并做出符合
摘要 — 随着人工智能 (AI) 的部署正在改变许多领域和行业,人们担心人工智能系统在做出决策和建议时没有充分考虑各种道德方面,例如问责制、可靠性、透明度、可解释性、可争议性、隐私和公平性。虽然最近提出了许多套人工智能伦理原则来承认这些问题,但这些原则是高层的,并没有就如何开发合乎道德和负责任的人工智能系统提供切实的建议。为了深入了解这些原则的可能实施,我们进行了一项实证调查,包括对一群人工智能从业者进行半结构化访谈。突出的发现涵盖了人工智能系统设计和开发的四个方面,调整了软件工程中使用的过程:(i)高级视图,(ii)需求工程,(iii)设计和实施,(iv)部署和操作。
以人为本的负责任人工智能 (HCR-AI)1 旨在将人及其价值观纳入人工智能系统的设计和开发中,这有助于构建造福人类和社会的系统,并防止和减轻潜在危害。尽管人为因素在人工智能系统中的重要性由来已久 [ 12 , 31 ],但在过去几年中,CHI 社区越来越意识到其重要性 [ 32 ]。在 CHI 会议记录中搜索 ACM 数字图书馆会显示以下结果(图 1 ):2“以人为本的人工智能”自 2019 年以来有 41 条记录,“负责任的人工智能”自 2020 年以来有 32 条记录。下面,我们重点介绍了一些与特别兴趣小组 (SIG) 主题相关的研究示例,请注意,这并不是一份详尽的清单,只是为了展示现有工作的广度和深度:
在透明度与“需要知道”的访问权限之间取得平衡,可以培养利益相关者的信任,并确保遵守不断发展的隐私法规。同样重要的是,明智地分配有关人工智能系统、标准和控制的输入和输出的访问权限也可以确保或提高所用数据的质量,从而最大限度地提高结果质量。通过在纳入新的人工智能解决方案之前审查现有的隐私控制,组织可以在不增加额外成本的情况下降低新风险,或者在投资新控制的决策中获得更大的信心。此外,实施隐私增强型人工智能系统可以将其提升到或超过该行业的信息安全标准,而数据隐私概念已经成为该行业的支柱。在实施人工智能时,我们鼓励应用我们目前强大的标准和控制,并根据需要扩展它们。
2022 年 11 月 30 日是科技界意义深远的一天,因为人们对人工智能的认识发生了重大转变,这与以往不同。从那时起,由于全球媒体的报道,社会各阶层都意识到人工智能有可能改变社会在我们的职业和个人生活中的行为方式。OpenAI 发布的 ChatGPT 引起了全球对一种基于大型语言模型 (LLM) 技术的人工智能形式的关注,称为生成式人工智能 (GenAI)。与之前的许多创新技术一样,科技公司之间在创建和提供 GenAI 解决方案方面展开了竞争,但与之前的技术不同的是,这种竞争发生的速度非常快。虽然创新的快速步伐对许多人来说都是鼓舞人心的,但 PAC 认为,尽管 GenAI 有诸多好处,但社会已进入高风险时期,部分原因是安全漏洞、可靠性、可解释性和道德问题,这些问题既已被理解,又尚未确定。由于这是一份由 Infosys 赞助的报告,PAC 还认为有必要提及,该公司在全球范围内的广度和深度能力使其成为上述风险敞口的核心,因为它提供内部 AI 部署、与合作伙伴共同创建解决方案,当然还提供客户项目。通过在这三个方面受到影响,Infosys 充分意识到需要对这些风险做出回应,并在一个名为 AI3S(AI 扫描、防护和引导)的总体框架下创建了一套结构化的程序、政策、流程干预和技术护栏。重点是提供一种手段,在组织利用 AI 的各个方面实现强大的 AI 治理和管理,该框架的三大支柱是:
人工智能的影响不仅取决于基础研究和技术发展,而且在很大程度上取决于这些系统如何引入社会并在日常情况下使用。人工智能正在改变我们工作、生活和解决挑战的方式,但对公平、透明或隐私的担忧也在日益增长。确保负责任、合乎道德的人工智能不仅仅是设计出结果可信赖的系统。它还涉及我们设计它们的方式、我们设计它们的原因以及谁参与了设计它们。为了负责任地开发和使用人工智能,我们需要努力开发技术、社会、制度和法律方法和工具,为人工智能从业者提供具体的支持,以及提高认识和培训,使所有人都能参与其中,以确保人工智能系统与我们社会的原则和价值观保持一致。本文是我在 2022 年网络会议上的主题演讲的精选版本。
最近,媒体上出现了几篇关于人工智能风险的热门报道,其中包括高盛投资银行关于人工智能对全球经济影响的一项研究。他们估计,未来 10 年,人工智能和自动化可能会取代多达 3 亿个工作岗位,但同时也会推动全球 GDP 增长 7%(或近 7 万亿美元)1。WTTC 的数据显示,疫情前全球旅游业创造了近 3 亿个工作岗位,这相当于未来十年每个旅游业工作岗位的流失。因此,一些工会表示“深切担心就业法跟不上人工智能革命的步伐”,并呼吁对使用人工智能进行招聘、解雇、绩效评估和设定工作条件进行监管。