数据是指关于事物(如人、物体、事件)的事实,这些事实可以数字化存储、传输或处理。 信息通常是指经过处理并以适合人类解释的形式呈现的数据,其目的是揭示含义(如模式或规则)。 知识:对某一领域(对象、概念和关系)的理论和实践理解,有助于制定决策。 智能:学习、理解和寻找特定领域问题解决方案的能力。 模型是模式的紧凑表示。
以人为本的负责任人工智能 (HCR-AI) 1 旨在将人及其价值观纳入人工智能系统的设计和开发中,这有助于构建造福人类和社会的系统,并防止和减轻潜在危害。尽管人为因素在人工智能系统中的重要性由来已久 [ 12 , 31 ],但在过去几年中,人为因素社区对其重要性的认识日益加深 [ 32 ]。在 CHI 会议记录中搜索 ACM 数字图书馆会显示以下结果(图 1):2 自 2019 年以来,“以人为本的 AI”共找到 41 条记录,自 2020 年以来“负责任的 AI”共找到 32 条记录。下面,我们重点介绍了一些与特别兴趣小组 (SIG) 主题相关的研究示例,请注意,这并不是一份详尽的清单,只是为了展示现有工作的广度和深度:人工智能中的伦理涉及社会文化和技术因素,涵盖一系列负责任的 AI 价值观(包括但不限于透明度、公平性、可解释性、问责制、自主性、可持续性和信任)[20]。然而,包括普通民众和人工智能从业者在内的不同利益相关者可能会对这些价值观有不同的看法和优先考虑。例如,美国人口的代表性样本更有可能重视安全、隐私和性能。相比之下,从业者更有可能优先考虑公平、尊严和包容性 [ 19 ]。或者,某些历史上遭受剥削的群体可能比风险较低的群体更重视隐私或不参与 [ 13 , 26 ]。与负责任的人工智能相一致的是,人们呼吁让人工智能更加以人为本。特别是,人们强调人工智能融入社会技术过程以保持人类自主权和控制力所面临的挑战,以及人工智能系统的部署和应用对社会、组织和个人的影响 [ 4 ]。在这一研究领域,了解社会技术和环境因素有助于揭示人工智能系统为何以及如何以人为本 [ 8 , 24 , 30 ]。例如,即使对于一种人工智能,其效用可能已达成更广泛的共识,比如使用视网膜扫描检测糖尿病,但对于其目标用户来说,可能仍存在一些障碍,包括由于不太适合用户的工作流程(例如护士)或系统需要不易生成的高质量图像,特别是在资源匮乏的地方,如果使用得当,这种技术可以为患者提供重要支持[2]。同样,研究人员也研究了个人对人工智能的期望和理解。例如,在做出道德决策时(例如,假设击落恐怖分子无人机以拯救生命),人们可能会对人工智能决策者的能力给予更多的信任(即能力可信度,更有能力),而他们可能会对人类专家给予更多的道德信任(即能够在道德上值得信赖,并做出符合
摘要 — 随着人工智能 (AI) 的部署正在改变许多领域和行业,人们担心人工智能系统在做出决策和建议时没有充分考虑各种道德方面,例如问责制、可靠性、透明度、可解释性、可争议性、隐私和公平性。虽然最近提出了许多套人工智能伦理原则来承认这些问题,但这些原则是高层的,并没有就如何开发合乎道德和负责任的人工智能系统提供切实的建议。为了深入了解这些原则的可能实施,我们进行了一项实证调查,包括对一群人工智能从业者进行半结构化访谈。突出的发现涵盖了人工智能系统设计和开发的四个方面,调整了软件工程中使用的过程:(i)高级视图,(ii)需求工程,(iii)设计和实施,(iv)部署和操作。
以人为本的负责任人工智能 (HCR-AI)1 旨在将人及其价值观纳入人工智能系统的设计和开发中,这有助于构建造福人类和社会的系统,并防止和减轻潜在危害。尽管人为因素在人工智能系统中的重要性由来已久 [ 12 , 31 ],但在过去几年中,CHI 社区越来越意识到其重要性 [ 32 ]。在 CHI 会议记录中搜索 ACM 数字图书馆会显示以下结果(图 1 ):2“以人为本的人工智能”自 2019 年以来有 41 条记录,“负责任的人工智能”自 2020 年以来有 32 条记录。下面,我们重点介绍了一些与特别兴趣小组 (SIG) 主题相关的研究示例,请注意,这并不是一份详尽的清单,只是为了展示现有工作的广度和深度:
• 了解生成式人工智能的优势、劣势、机会和威胁 • 考虑其他机构的反应 • 研究适应生成式人工智能评估的指南 • 反思当前对生成式人工智能的实践和担忧 • 在 ChatGPT 中测试不同的提示 • 分析由 ChatGPT 生成的文本 • 讨论如何使论文问题更具“人工智能弹性” • 使用评分标准和评分标准改进评估 • 认识到生成式人工智能时代评估设计的重要性 • 了解评估变化的过程和文档 • 设计不同的评估任务并在形成性评估和总结性评估之间取得适当的平衡 • 将学习技术工具应用于不同的评估类型 有关更多信息,请发送电子邮件至 ils-ale@greenwich.ac.uk。
Alnylam 还制定并传达了其关于使用 AI 的政策,该政策定义了公司内部 AI 的范围、原则、角色和职责以及治理流程。该政策提供了有关如何识别、评估和减轻与 AI 相关的风险和挑战的指导,例如知识产权保护、数据质量、偏见、透明度、可解释性、隐私、合规性、安全性和道德。该政策还指导使用 AI 的员工使用安全可靠的替代方案,以取代可能不符合我们标准和期望的公共非私有技术,例如开源工具、平台和数据源。
2024 年 4 月由 FSMB 众议院通过 执行摘要 人工智能 (AI) 具有巨大潜力,可帮助医疗保健提供者进行诊断、治疗选择、临床记录和其他任务,以提高质量、可及性和效率。但是,如果没有适当的“护栏”和理解,这些技术就会带来风险,这可能会影响临床实践中的考虑因素以及州医疗委员会的监管流程。通过采取以道德原则为基础的主动和标准化治理方法,州医疗委员会可以促进各种形式的人工智能的安全有效整合,同时优先考虑患者的健康。本报告总结了专家意见和程序,以制定 FSMB 道德和专业委员会的指导方针,以帮助医生和州医疗委员会引导负责任和合乎道德的人工智能融入,重点是 (1) 教育、(2) 强调人类责任、(3) 确保知情同意和数据隐私、(4) 主动解决责任和义务问题、(5) 与专家合作以及 (6) 将人工智能治理锚定在道德原则上。必须持续监控和改进使用人工智能的临床系统和流程。这不应在真空中进行,而应成为医生、卫生系统、数据科学家和监管机构(包括州医疗委员会)之间协作的重点。通过深思熟虑地应对人工智能在医疗保健领域带来的机遇和挑战,州医疗委员会可以促进人工智能的安全、有效和合乎道德的使用,将其作为一种工具来增强(但通常不会取代)医疗实践中人类的判断力和责任感。在履行其使命以确保患者从人工智能的应用中受益而不是受到伤害的过程中,州医疗委员会必须避免过度监管和监管过度,避免试图监管不属于其职权范围的领域。通过集中精力关注持照人使用人工智能的现状和未来,州医疗委员会可以保持监管效率,实现跨辖区在临床实践中对人工智能监管的一致性,帮助确保人工智能的益处,并在维护专业标准的同时积极保护患者。
我们对自己开发的人工智能系统负责。政府即将出台人工智能系统的监管规定。但是,在政策出台之前,负责任地开发和部署人工智能系统的责任完全落在构建和使用这些技术的组织身上。因此,企业采用 RAI 原则作为一种自我监管形式激增。然而,研究表明,有效地将这些原则转化为实践具有挑战性(Mittelstadt,2019 年;Sanderson 等人,2022 年;Schiff、Rakova、Ayesh、Fanti 和 Lennon,2020 年)。为了克服这一挑战,出现了广泛的努力,包括工具包、清单、实用指南和指标。然而,这些方法通常面向个人人工智能从业者,而不是组织。这些努力往往是零碎的,缺乏如何融入组织更大的 RAI 战略的明确性。在尚未就许多最佳实践或成熟的含义达成共识的情况下,我们认识到需要评估和绘制这个未知的新领域。 RAI MM 是下一步的重要工作,它的作用就是确定组织的 RAI 成熟度的核心组件以及它们如何组合在一起。
本指南确定了在招聘和聘用过程中使用人工智能的潜在道德风险。它进一步概述了人工智能保证机制如何为组织提供工具、流程和指标,以评估人工智能系统的性能、管理风险并确保遵守法定和监管要求。它适用于寻求在招聘过程中采购和部署人工智能系统的组织。本指南是为非技术受众编写的,假设对人工智能和数据驱动技术有最低限度的了解,适用于有或没有全面人工智能战略的组织。通过本指南,读者将了解:
最近,媒体上出现了几篇关于人工智能风险的热门报道,其中包括高盛投资银行关于人工智能对全球经济影响的一项研究。他们估计,未来 10 年,人工智能和自动化可能会取代多达 3 亿个工作岗位,但同时也会推动全球 GDP 增长 7%(或近 7 万亿美元)1。WTTC 的数据显示,疫情前全球旅游业创造了近 3 亿个工作岗位,这相当于未来十年每个旅游业工作岗位的流失。因此,一些工会表示“深切担心就业法跟不上人工智能革命的步伐”,并呼吁对使用人工智能进行招聘、解雇、绩效评估和设定工作条件进行监管。