以人为本被认为是人工智能 (AI) 发展和治理的核心方面。各种战略和指导方针都强调这一概念是一个关键目标。然而,我们认为,当前在政策文件和人工智能战略中使用以人为本的人工智能 (HCAI) 可能会低估创造促进人类福祉和共同利益的理想解放技术的承诺。首先,政策话语中出现的 HCAI 是旨在将以人为本的设计 (HCD) 概念适应人工智能公共治理环境的结果,但没有适当思考如何对其进行改革以适应新的任务环境。其次,该概念主要用于实现人权和基本权利,这对于技术解放是必要的,但还不够。第三,该概念在政策和战略话语中的使用含糊不清,因此不清楚应如何在治理实践中实施它。本文探讨了在公共人工智能治理背景下使用 HCAI 方法进行技术解放的手段和方法。我们认为,解放性技术发展的潜力在于扩展传统的以用户为中心的技术设计观点,将以社区和社会为中心的观点纳入公共治理。以这种方式发展公共人工智能治理依赖于实现包容性治理模式,以增强人工智能部署的社会可持续性。我们讨论了相互信任、透明度、沟通和公民技术,这是社会可持续和以人为本的公共人工智能治理的关键先决条件。最后,本文介绍了一种系统的方法,以实现道德和社会可持续、以人为本的人工智能开发和部署。
“Peter Ashenden 正在引领一种新的课程,用于培养下一代数字逻辑设计师。认识到数字设计已经从以门为中心的定制逻辑组装转变为以处理器为中心的嵌入式系统设计,Ashenden 博士将重点从门转移到现代设计和复杂集成设备的集成,这些设备可能以各种形式物理实现。Ashenden 博士并没有忽视基础知识,而是以适当的深度和广度来处理它们,为更高级别的材料提供基础。正如 Ashenden 博士所有作品的常态一样,文本清晰易读。本书配有大量示例,配套网站提供了人们对如此高质量文本所期望的所有内容。”
摘要:最近,人们对 Erik Hollnagel 教授提出的一些想法产生了浓厚的兴趣,这些想法被称为“安全-II”,并被认为是实现系统弹性的基础。他将安全-II 与他所描述的安全-I 进行了对比,他声称安全-I 是工程师现在为防止事故所做的工作。然而,他所描述的安全-I 与今天所做的工作或至少 70 年来安全工程所做的事情几乎没有相似之处。本文介绍了安全工程的历史,描述了不同行业实际实施的安全工程,指出了 Hollnagel 教授论点中的缺陷和不准确性以及安全-II 概念中的缺陷,并提出系统方法(安全-III)是未来的发展方向。
SAT 是一个综合过程,它确定了工作中要执行的内容、应该教授的内容以及应该如何制定和实施这些指导。这种系统化方法可确保所教授的内容是成功完成工作最关键的任务。它还确保所选的教学方法最省时、最经济。SAT 过程进一步确定了表现标准和学习目标。这确保了学生根据他们实现这些目标的能力进行评估,并且教学课程的评估基于它们是否允许学生掌握这些目标。最后,SAT 确定了需要对教学进行修改的地方,并允许进行这些修改以提高教学计划的有效性和效率。
需要“树木多样性育种”来应对多重全球挑战和趋势 21 世纪的一个关键棘手问题(见词汇表)是如何在支持人类持续发展的同时避开多个地球边界(有些边界已经超越)[1]。树木发挥着至关重要的作用 [2]。除其他积极作用外,它们还可以减缓气候变化、恢复土壤、作为保护生物多样性的生态基质(它们本身也代表着巨大的生物多样性),并作为食物、燃料、纤维、木材等来源为人类提供恢复力和消费选择。支持这些角色的 60 000 多种树种 [3] 占据着许多不同的生产环境,从单一栽培的木材种植园和果园到高度多样化的多功能森林和复杂的农林复合体,并且它们的驯化程度不同,从野生到完全依赖人类进行再生 [4]。它们还往往拥有大型基因库,天然林中遗传变异很大(例如 [ 5 ]),可以通过管理来增强其有益作用,尽管这些遗传资源常常受到森林砍伐和农业景观简单化的威胁 [ 6 ]。
摘要 — 虽然我们目睹了旨在指导人工智能 (AI) 发展的伦理文件的快速增长,但人工智能伦理的推广却很少得到人工智能从业者的投入。鉴于人工智能造福社会的举措不断增多,这是一个需要解决的新差距,以便制定更有意义的人工智能使用和发展伦理方法。本文提供了一种方法——“共享公平”方法——旨在确定人工智能从业者在面对和解决伦理挑战时的需求,并找到第三个空间,让他们的操作语言与目前仍处于工作经验边缘的更抽象的原则相结合。我们提供了一种基于对话和共同责任的运营伦理草根方法:这种方法以对话为中心,旨在引出从业者对关键价值观运营决策的道德归因和分配,确定这些决策何时出现以及他们面临的伦理挑战,并参与一种伦理和责任语言,使从业者能够内化伦理责任。该方法通过从个人、促进对话开始,将伦理话语交还给那些旨在赋予其意义的生态系统最前沿的人,弥补了结构性决策权和精英技术知识中存在的责任不平衡。我们的主要贡献是补充最近的文献,寻求通过提供一种方法来理解伦理如何在他们的工作中体现为一种关系和相互依存的社会技术实践,从而将人工智能从业者的经验推向前台。索引术语——道德人工智能、数字伦理、负责任的人工智能
以人为本被认为是人工智能 (AI) 开发和治理的核心方面。各种战略和指导方针都强调这一概念是一个关键目标。然而,我们认为,当前在政策文件和人工智能战略中使用以人为本的人工智能 (HCAI) 可能会淡化创造促进人类福祉和共同利益的理想解放技术的承诺。首先,政策话语中出现的 HCAI 是旨在将以人为本的设计 (HCD) 概念适应人工智能公共治理环境的结果,但没有适当反思如何对其进行改革以适应新的任务环境。其次,该概念主要用于实现人权和基本权利,这对于技术解放是必要的,但还不够。第三,该概念在政策和战略论述中的使用含糊不清,因此不清楚应如何在治理实践中实施。本文探讨了在公共 AI 治理背景下使用 HCAI 方法实现技术解放的手段和方法。我们认为,解放技术发展的潜力在于扩展传统的以用户为中心的技术设计观点,将以社区和社会为中心的观点纳入公共治理。以这种方式发展公共 AI 治理依赖于实现包容性治理模式,以增强 AI 部署的社会可持续性。我们讨论了相互信任、透明度、沟通和公民技术,这是社会可持续和以人为本的公共 AI 治理的关键先决条件。最后,本文介绍了一种系统的方法,以实现道德和社会可持续的以人为本的 AI 开发和部署。
可解释人工智能 (XAI) 是一个快速发展的领域,旨在创建能够为其决策过程提供人类可理解的解释的 AI 系统。然而,这些解释仅依赖于模型和数据特定的信息。为了支持更好的人类决策,将领域知识集成到 AI 系统中有望增强理解和透明度。在本文中,我们提出了一种在对话系统中将 XAI 解释与领域知识相结合的方法。我们专注于源自计算论证领域的技术,将领域知识和相应的解释融入人机对话中。我们在原型系统中实现该方法以进行初步用户评估,其中用户与对话系统交互以从底层 AI 模型接收预测。参与者能够探索不同类型的解释和领域知识。我们的结果表明,当集成领域知识时,用户倾向于更有效地评估模型性能。另一方面,我们发现用户在对话交互过程中并不经常请求领域知识。
游戏规则:游戏规则主要包括国家和跨国公司的治理。此类别的政策着重于将一组最低可信和一致的标准和一致的标准与其他级别的政府和利益相关者保持一致。此类别中的策略通常不是特定于T&T的,而是影响该行业的。例如,一个国家针对建筑物实施强大的能源效率标准可能会导致旅行者能够享受减少能源的住宿选择,而不会改变自己的决策。
看到对MSME的数字化及其对MSME的好处的需求,在供应方面,越来越多的服务提供商已经开始针对MSME客户领域。数字化服务广泛定义为支持MSMES数字化的任何类型的BD,因此还包括软件解决方案的供应。数字教育中的数字化服务范围从促进学校和大学的基本数字和金融素养以及政府数字扫盲计划。到目前为止,最大的数字化服务提供商是商业和社会企业,这些企业是由技术创新,社会任务或销售 /客户获取和扩展所驱动的。该组提供了四种类型的Digi Talisation服务:咨询和信息服务,市场联系,数字金融服务(DFS)和数字供应链管理解决方案。因此,数字化服务由许多不同类型的业务发展支持组成,旨在推进MSME的数字化。然后,数字化可以改变这些业务运营的各个方面。