• 监管人工智能应用,而不是人工智能本身 • 根据人工智能应用风险进行监管 • 4 个风险等级:不可接受、高、低、最小 • 建立对人工智能和整个人工智能生态系统的信任 • 高风险人工智能系统的技术文档、记录保存和透明度/可解释性 • 低风险人工智能系统的透明度义务 • 人为监督 • 提供商、用户和其他利益相关者的义务
在科幻电视剧《星际迷航:原初系列》的“末日决战”一集中,企业号的船员们访问了一对行星,这两颗行星已经进行了 500 多年的计算机模拟战争。为了防止他们的社会被毁灭,这两个星球签署了一项条约,战争将以计算机生成的虚拟结果进行,但伤亡人数将是真实的,名单上的受害者自愿报告被杀。柯克船长摧毁了战争模拟计算机,并受到谴责,因为如果没有计算机来打仗,真正的战争将不可避免。然而,战争持续这么久的原因正是因为模拟使两个社会免受战争的恐怖,因此,他们几乎没有理由结束战争。虽然基于科幻小说,但未来人工智能战场的威胁引发了人们对战争恐怖的道德和实际担忧。驱使各国采用致命自主武器系统 (LAWS) 的逻辑确实很诱人。人类是会犯错的、情绪化的、非理性的;我们可以通过 LAWS 保护我们的士兵和平民。因此,这种推理将 LAWS 构建为本质上理性的、可预测的,甚至是合乎道德的。杀手机器人,尽管名为杀手机器人,实际上会拯救生命。然而,这种逻辑是愚蠢的。如果人工智能战争专注于完善战争手段,而忽视战争的目的,那么它就会存在许多潜在的陷阱。就像在《星际迷航》中一样,无风险战争的诱惑力很强,但它会给那些最终不可避免地被杀死、致残和流离失所的人带来真正的后果。接下来,我认为 LAWS 的前景存在严重的道德问题,而这些问题是先进技术无法解决的。道德不能预先编程以适用于各种情况或冲突,而有意义的人为控制忽视了自动化偏见如何影响决策中的人机交互。军事实体和非政府组织都提出了有意义的人类控制的概念,特别是在致命决策中
鉴于人工智能开发人员在确保人工智能系统、其成果和此类系统用户的责任方面发挥着重要作用,我们需要他们采取负责任、合乎道德和负责任的方法。因此,我们建议这些参与者参与旨在产生负责任的人工智能设计和使用的政策制定过程。根据我们的实证研究结果,我们提出了几项建议,以弥补当前在追求负责任的人工智能时将道德原则、认证标准和解释方法作为问责机制所发现的缺陷。我们希望这些建议能够有助于讨论如何在实践中确保问责制,同时兼顾开发人员、研究人员和公众的观点。
外部专家组 Najeeb Al Shorbaji,约旦电子健康发展协会 Arisa Ema,日本东京大学未来倡议研究所 Amel Ghoulia,H3Africa、H3ABioNet,突尼斯 Jennifer Gibson,加拿大多伦多大学达拉拉纳公共卫生学院生物伦理联合中心 Kenneth W. Goodman,美国迈阿密大学米勒医学院生物伦理与卫生政策研究所 Jeroen van den Hoven,荷兰代尔夫特理工大学 Malavika Jayaram,新加坡数字亚洲中心 Daudi Jjingo,乌干达马凯雷雷大学 Tze Yun Leong,新加坡国立大学 Alex John London,美国卡内基梅隆大学 Partha Majumder,印度国家生物医学基因组学研究所 Tshilidzi Marwala,南非约翰内斯堡大学 Roli Mathur,印度医学研究理事会 Timo Minssen,高级生物医学创新法研究 (CeBIL),哥本哈根大学法学院,丹麦 Andrew Morris,英国健康数据研究中心,英国 Daniela Paolotti,ISI 基金会,意大利 Maria Paz Canales,数字权利组织,智利 Jerome Singh,夸祖鲁-纳塔尔大学,南非 Effy Vayena,苏黎世联邦理工学院,瑞士 Robyn Whittaker,奥克兰大学,新西兰 曾毅,中国科学院,中国
● 考虑到引入的透明度框架,您对 FB 透明度报告的实施有什么疑问?是否还有需要透明化的事情?● 您认为透明度报告有效吗?为什么有效或无效?● 您可以对实施提出哪些批评?● 您认为有哪些设计机会可以改进报告?● 您还想分享哪些其他观察结果?
人工智能已经在增强或取代人类应对复杂挑战的努力。它发出了 COVID-19 疫情的一些早期警报,帮助加速了疫苗的开发,并在恢复过程中发挥着越来越重要的作用。然而,进步也给个人和社会带来了风险。在某些情况下,人工智能的开发和使用会产生意想不到的后果,例如操纵行为、加剧不平等和偏见、极端主义和激进主义,或歧视性就业市场。在其他情况下,人工智能的部署带有先验恶意,例如传播虚假信息或劫持核心流程。
摘要 — 智慧城市技术已经能够比以前更细致地追踪城市居民。通过人工智能实现的数据收集和分析的增加,带来了隐私、安全和其他伦理问题。本系统综述收集并整理了智慧城市周围的知识体系。作者使用关键词搜索了 5 个数据库中的 34 篇重点学术出版物,这些出版物的日期为 2014 年至 2022 年之间。这项研究表明,文章通常侧重于隐私、安全和公平的伦理问题、特定技术基础评论或框架和指导对话。本文有助于组织跨学科主题,并将智慧城市伦理方面的知识体系收集起来,形成一个供实践者、研究人员和利益相关者使用的单一、全面的资源。
0:00 你好。我的名字是 Jibu Elias,我将谈论文化在人工智能伦理中的作用,特别是从东方文化的角度。在开始之前,我要感谢全球人工智能伦理联盟提供的这个绝佳机会。希望你会喜欢这次讲座。在开始之前,让我先自我介绍一下。我是来自印度的人工智能伦理学家和研究员。我目前是印度政府人工智能倡议 INDIAai 的研究和内容主管。我还是 OECD 专家网络 ONE AI 的成员,也是 Springer 的《人工智能与伦理》期刊的创始成员之一。因此,目前,我的工作重点是建立印度统一的人工智能生态系统,并努力缩小由于人工智能等技术而产生的数字鸿沟。通过本课程,我将带您了解以下几点。首先,我们将从当前情况下人工智能伦理的重要性开始,文化在决定人工智能伦理方面发挥的作用。第三,为什么我们需要在人工智能伦理话语中实现多样性和包容性。第四和第五点是我们可以从东方文化视角的人工智能伦理以及东方哲学方法中学到的东西。
自 2019 年冠状病毒病 (COVID-19) 出现以来,全球公共卫生基础设施和系统以及社区范围内的合作和服务都面临着前所未有的挑战。疫苗开发立即成为我们所有科学、公共卫生和社区工作的中心。尽管 SARS-CoV-2 疫苗的开发可以说是过去 12 个月中最伟大、最明显的成就,但它们也是疫情期间最具争议和争论的问题之一。然而,疫苗开发的独特之处在于它与其试图服务的社区有着密切的关系;无论是作为一种有效和安全的预防措施进行的临床试验测试,还是作为一种有效的公共卫生工具在开发后“推广”的成功。这些关系产生了无数的复杂性,从基于社区的不信任到学术上争论的道德困境。事实上,COVID-19 疫苗竞赛的加速发展进一步加剧了这一现象,带来了新的伦理困境,需要对其进行研究以确保这些疗法在临床上继续取得成功,并恢复社会对临床医学的信任。在本文中,我们讨论了两个主要的伦理困境:(1) 在成功候选疫苗出现时继续进行新疫苗试验的平衡和 (2) 盲法安慰剂组的弊端。因此,我们讨论了解决这些伦理困境的六种不同方法:(1) 继续进行安慰剂对照试验,(2) 从安慰剂对照过渡到开放标签,(3) 仅对高风险优先组进行揭盲,(4) 过渡到盲法阶梯楔形交叉设计,(5) 进展到盲法活性对照阶梯楔形交叉试验,以及 (6) 进行随机阶梯楔形社区试验。我们还为疫苗试验后期的相关利益相关者提出了一种决策算法。重要的是要记住,COVID-19 疫情的突发性并不意味着可以对核心道德价值观做出妥协。事实上,围绕这一主题的讨论和所做出的决定将仍然是一个有力的案例研究,并将成为未来所有此类情景的一个不断参考的例子。
