主席:Thomas SCHNEIDER 先生(瑞士) 副主席:Gregor STROJIN 先生(斯洛文尼亚) o Siiri AULIK 女士(爱沙尼亚)、Marco BELLEZZA 先生(意大利) o Mia SPOLANDER 女士(芬兰)、Blake BOWER 先生(联合o Mario HERNÁNDEZ RAMOS 先生(西班牙)、Peggy VALCKE 女士(比利时)、o Isıl Selen DENEMEC 女士(土耳其)
摘要 目的——本文旨在查明和分析人工智能 (AI) 在气候变化方面的双重作用所引发的伦理问题,即人工智能作为气候变化的贡献者和人工智能作为应对气候变化的贡献者。 设计/方法/方法——本文由三个主要部分组成。第一部分分别简要介绍了人工智能和气候变化的背景,然后介绍了人工智能对气候变化贡献的实证研究结果。第二部分介绍了各种人工智能研究人员和评论员提出的建议,即人工智能公司如何通过减少人工智能训练和使用产生的温室气体排放以及为各种缓解和适应措施提供人工智能援助来为应对气候变化做出贡献。最后一部分探讨了第二部分中提出的一些选项所引发的伦理问题。 发现——人工智能应用可能导致大量排放,但也可能在缓解和适应方面发挥重要作用。鉴于人工智能的双重作用,人工智能公司和政府的道德考虑至关重要。实际意义——本文指出了人工智能公司和政府应考虑的实际伦理问题。社会意义——鉴于人工智能对社会的潜在影响,人工智能公司和政府必须认真对待人工智能与气候变化有关的双重作用所引发的伦理问题。原创性/价值——人工智能一直是大量伦理调查的主题,气候变化更是如此。然而,从伦理角度来看,人工智能与气候变化之间的关系只受到有限的关注。本文提供了这样的考虑。
本课程观察人工智能伦理在法律和公共政策中的出现,研究影响人工智能系统发展和治理的共识构建过程中涉及的规范、价值观和政治策略。学生将对人工智能政策文件进行批判性分析,并深入研究公平、问责和透明度等核心原则,探索它们的起源和实际应用。课程以一系列设计思维研讨会为中心,这些研讨会将挑战学生在现实世界的案例研究中就负责任地使用人工智能进行辩论,涉及人权问题、可持续发展和地缘政治问题。通过在处理先进技术开发中固有的监管复杂性的同时发挥分析和修辞优势,本课程被认为是能够为公众利益管理人工智能的变革型领导者的训练营。
英国 1、美国 2、中国 3、新加坡 4、日本 5 和澳大利亚 6 等多个政府的战略明确提到了人工智能能力,这些能力已经部署用于改善关键国家基础设施(如交通、医院、能源和供水)的安全性。北约在其 2020 年关于北约未来的报告中也将人工智能确定为保持对对手优势的关键技术(北约,2020 年)。人工智能在国防中的应用几乎是无限的,从支持物流和运输系统到目标识别、战斗模拟、训练和威胁监控。军事规划者越来越期望人工智能能够更快、更果断地击败对手。与其他领域的使用一样,人工智能的潜力也伴随着严重的道德问题,从可能的冲突升级、大规模监视措施的推广和错误信息的传播,到侵犯个人权利和侵犯尊严。如果这些问题得不到解决,将人工智能用于国防目的可能会破坏民主社会的基本价值观和国际稳定(Taddeo,2014b、2019a、b)。本文通过确定伦理原则为人工智能的设计、开发和用于国防目的提供指导,以解决这些问题。这些原则不应被视为国家和国际法律的替代品;相反,它们为在国防领域使用人工智能提供了指导,其方式与现有法规一致。从这个意义上说,提出的原则表明了应该做什么或不应该做什么。
本指南展示了 CoE 在构建 AI 应用程序时考虑道德因素的方法。这些问题旨在促进围绕广泛道德主题的讨论。一旦我们的团队回答了本指南中的问题并能够捍卫他们的答案,项目就会向前推进。这意味着项目特定阶段中的每个问题都应该以“是”的答案回答,以便进入 AI 解决方案的道德设计、开发和部署的下一阶段。这些问题在设计-开发-部署周期中不断被重新审视,并经过广泛测试以减轻应用 AI 技术带来的任何意外后果。
目标 本课程由 Jean Monnet Chair T 4 F - TR-AI-NING 4 FUTURE 组织。 人工智能与欧盟法 本课程旨在让学生掌握人工智能的伦理和法律原则的基本知识。我们将分析现有原则,询问它们是否适合规范人工智能,或者是否有必要制定新的原则。在课程结束时,学生将掌握法律和跨学科技能,可以指导他们以人为本的方式开展专业活动。特别是,学生将: - 了解人工智能的主要伦理和法律原则; - 利用所学技能分析和理解与使用人工智能有关的道德困境和法律问题; - 了解人工智能在某些相关领域的主要法律来源,如自动驾驶汽车、医学或司法; - 意识到人工智能日益广泛和自主使用的潜力和风险; - 了解多元辩论和跨学科方法在人工智能研究中的重要性 - 能够积极参与有关人工智能法律和伦理的工作组和讨论。
外部专家组 Najeeb Al Shorbaji,约旦电子健康发展协会 Arisa Ema,日本东京大学未来倡议研究所 Amel Ghoulia,H3Africa、H3ABioNet,突尼斯 Jennifer Gibson,加拿大多伦多大学达拉拉纳公共卫生学院生物伦理联合中心 Kenneth W. Goodman,美国迈阿密大学米勒医学院生物伦理与卫生政策研究所 Jeroen van den Hoven,荷兰代尔夫特理工大学 Malavika Jayaram,新加坡数字亚洲中心 Daudi Jjingo,乌干达马凯雷雷大学 Tze Yun Leong,新加坡国立大学 Alex John London,美国卡内基梅隆大学 Partha Majumder,印度国家生物医学基因组学研究所 Tshilidzi Marwala,南非约翰内斯堡大学 Roli Mathur,印度医学研究理事会 Timo Minssen,高级生物医学创新法研究 (CeBIL),哥本哈根大学法学院,丹麦 Andrew Morris,英国健康数据研究中心,英国 Daniela Paolotti,ISI 基金会,意大利 Maria Paz Canales,数字权利组织,智利 Jerome Singh,夸祖鲁-纳塔尔大学,南非 Effy Vayena,苏黎世联邦理工学院,瑞士 Robyn Whittaker,奥克兰大学,新西兰 曾毅,中国科学院,中国
尽管人工智能最近取得了进展,但当消费者考虑如何处理他们的数据时,道德问题就会出现。本文基于接受、风险、信任和对人工智能的态度理论,开发了一个概念模型,以了解导致消费者接受人工智能的驱动因素,同时考虑到消费者的道德顾虑。该模型通过 200 名人工智能营销服务消费者进行了实证测试。研究结果表明,感知风险显著影响对人工智能的态度、道德顾虑和感知信任,并表明感知风险、道德顾虑和社会规范之间存在显著关联。这项研究通过强调围绕人工智能接受度的伦理和道德问题,为人工智能在营销中的伦理方面提供了重要的理论和管理意义。
处理大量医疗数据 • 从患者数据中提取医学知识(X 光片、临床症状等) • 提取生物信息(例如解释疾病演变的遗传因素等) 生物信息学 • 模拟生物过程(例如病毒进入细胞的机制、解释疾病演变的遗传因素等) 从科学文献中提取知识 • 2020 年 3 月至 10 月期间,发表了 87,000 多篇关于 CoViD-19 的论文! 机器人技术 • 老年人机器人技术 • 手术机器人和假肢
课程描述 本课程让未来的技术领导者了解开发和部署人工智能系统的道德考量 - 计算系统使用大型数据集来训练预测模型并根据其输出采取行动。学生将学习人工智能伦理的核心概念,并将其应用于领导者面临道德挑战的现实场景。我们将评估人工智能在全球范围内的影响,在尊重不同社会和文化价值观的同时解决复杂问题。在课程结束时,学生将了解人工智能作为更大的社会技术系统的一部分,并能够评估其对全球社会和个人的影响。最终目标是促进负责任地开发安全和有益的人工智能。成功完成后,您将获得 3 个课程学分。 课程目标:
