全球各国政府都希望通过相对抽象的目标,在减少排放的同时,尽可能减少对经济和选民基础的干扰,如 2050 年实现净零排放 (Government of Canada, 2020a)。然而,如果没有技术变革或产业重组,全球经济将需要萎缩 42%,才能保持在建议的 1.5°C 变暖目标以下 (Freitag et al., 2021)。全球基础设施严重依赖化石燃料来获取能源(最大的温室气体 (GHG) 排放部门)和商品生产 (Ritchie & Roser, 2020)。因此,工业界和政府都渴望通过新技术“颠覆性创新”摆脱气候变化,从而避免昂贵的工业改革 (Wilson & Tyfield, 2018)。人工智能 (AI) 是预防灾难性气候变化影响最常被提及的技术。目前,政府和行业可以在任何领域部署人工智能技术,预计到 2030 年,人工智能创新将使温室气体排放量减少 1.5-4%(Joppa & Herweijer,2019 年)。然而,这些减排量远不足以避免气候灾难。它们被同一信息通信技术 (ICT) 部门产生的排放进一步抵消,目前该部门的排放量占全球排放量的 2.1-3.9%(Freitag 等人,2021 年)。虽然人工智能优化可以减少能源和材料消耗,但政府、行业和公民应该在资源需求和道德影响的背景下考虑这些优化。
摘要。随着组织推动基于人工智能 (AI) 的技术的开发和部署,他们对道德和人文价值观的承诺对于最大限度地降低潜在风险至关重要。在这里,我们研究人才吸引力作为组织致力于道德 AI 的经济激励。基于企业社会责任 (CSR) 文献和信号理论,我们提出了一种混合方法研究设计,以研究道德 AI 承诺对组织吸引力的影响。具体而言,我们 i) 根据对公司网站和专家访谈的审查确定道德 AI 承诺的信号,ii) 在在线实验中检查选定信号对组织吸引力的影响。这篇短文介绍了道德 AI 信号的初步结果并详细介绍了后续步骤。我们的研究将有助于将道德 AI 作为 CSR 的一部分进行理论概念化,并在权衡对道德 AI 计划的投资时支持数字化转型流程的经理。
公共部门如何才能合乎道德且负责任地使用人工智能造福人民?公共部门人工智能 (AI) 的可持续发展和部署需要开发者、决策者、部署者、最终用户和公众之间的对话和审议。本文为如何制定有说服力的政府方法来指导人工智能的发展和使用的辩论做出了贡献。我们研究了道德问题和公众在发展社会和民主可持续和技术密集型社会的公共部门治理的辩论中的作用。为了具体化这一讨论,我们研究了芬兰国家人工智能计划 AuroraAI 的共同开发,该计划旨在利用人工智能为公民提供针对不同生活状况的量身定制的及时服务。借助这一案例研究,我们调查了人工智能在公共管理服务中的开发和使用所带来的挑战。我们特别关注 AuroraAI 道德委员会在审议 AuroraAI 解决方案选项和努力实现可持续和包容的人工智能社会方面所做的努力。
摘要 道德 AI 框架旨在鼓励 AI 应用程序的问责制、责任制和透明度。它们为道德设计提供了原则。要真正透明,AI 应用程序的用户应该清楚设计者遵循了负责任的 AI 原则。为了测试用户评估 AI 系统责任的难易程度,并了解道德 AI 框架之间的差异,我们根据四个负责任的 AI 框架评估了四个商业聊天机器人。我们发现道德框架产生了截然不同的评估分数。许多道德 AI 框架包含的要求/原则对于聊天机器人开发人员以外的任何人来说都难以评估。我们的结果还表明,特定领域的道德 AI 指南比独立于领域的框架更易于使用,并能产生更多实用见解。我们得出结论,道德 AI 研究人员应该专注于研究特定领域而不是整个 AI,道德 AI 指南应该更多地关注制定可衡量的标准,而不是陈述高级原则。
在 STEM 领域(如计算机科学、电子工程、计算机工程、数学、物理学和其他相关科学和工程专业)获得由美国政府认可的大学或学院的学位。
摘要 人工智能可以改变游戏规则,通过促进可持续发展来应对威胁人类的气候变化这一全球挑战。由于化学研究和开发为创新产品和解决方案奠定了基础,本研究提出了一种以人工智能为后盾的新型化学研究和开发流程,并指导道德原则以考虑过程和结果相关的可持续性。特别是在道德突出的背景下,道德原则必须伴随人工智能驱动的研究和开发,以促进社会和环境的良好发展和可持续性(仁慈),同时防止对所有受影响的利益相关者(即公司、个人、整个社会)造成任何伤害(无害)。
道德有时被认为过于抽象,无法在人工智能 (AI) 中有意义地实施。在本文中,我们反思了以前被认为非常抽象的计算的其他方面。然而,现在人们认为计算机可以很好地完成这些任务。这些任务涉及软件工程的多个方面,包括数学,以及与人类进行自然语言对话。这是通过自动化最简单的步骤,然后在此基础上执行更复杂的任务来实现的。我们想知道道德 AI 是否可以以类似的方式实现,并提倡将自动化过程作为让 AI 做出道德决策的关键步骤。本文的主要贡献是反思如何将自动化引入以前被认为对计算机来说过于抽象的领域。
摘要 — 虽然我们目睹了旨在指导人工智能 (AI) 发展的伦理文件的快速增长,但人工智能伦理的推广却很少得到人工智能从业者的投入。鉴于人工智能造福社会的举措不断增多,这是一个需要解决的新差距,以便制定更有意义的人工智能使用和发展伦理方法。本文提供了一种方法——“共享公平”方法——旨在确定人工智能从业者在面对和解决伦理挑战时的需求,并找到第三个空间,让他们的操作语言与目前仍处于工作经验边缘的更抽象的原则相结合。我们提供了一种基于对话和共同责任的运营伦理草根方法:这种方法以对话为中心,旨在引出从业者对关键价值观运营决策的道德归因和分配,确定这些决策何时出现以及他们面临的伦理挑战,并参与一种伦理和责任语言,使从业者能够内化伦理责任。该方法通过从个人、促进对话开始,将伦理话语交还给那些旨在赋予其意义的生态系统最前沿的人,弥补了结构性决策权和精英技术知识中存在的责任不平衡。我们的主要贡献是补充最近的文献,寻求通过提供一种方法来理解伦理如何在他们的工作中体现为一种关系和相互依存的社会技术实践,从而将人工智能从业者的经验推向前台。索引术语——道德人工智能、数字伦理、负责任的人工智能
本技术报告介绍了美国数字健康公司(X2AI,简称 X2)为初创环境和其他提供情感人工智能 (AI) 服务(尤其是心理健康支持)的组织制定道德准则所采取的方法。随着全球对可扩展、经济实惠且可访问的医疗保健解决方案的需求不断增长,人工智能的使用为改善情绪健康提供了巨大的潜力。为了实现这一潜力,人工智能服务提供商必须优先考虑明确一致的道德准则,这些准则应符合全球对用户安全和隐私的考虑。本报告提供了一个道德准则模板,可由其他情感人工智能服务及其附属机构实施。它包括整合客户、合作者和研究伙伴支持的实用指南。它还展示了现有的道德体系如何为人工智能伦理的发展提供指导。