为了实现这一目的,人工智能经常跟踪和监控人类数据及其设备交互。它还监控他们的行为并生成生物特征档案。这种广泛的监控和全面的数据收集会对人类受试者的隐私产生不利影响,并增加通过网络攻击泄露数据机密性的风险。它还产生了一种大多数人不想要的大规模监视效应。因此,从这个意义上说,人工智能是一把双刃剑。
Char, D. S., M. D. Abr amoff 和 C. Feudtner。2020.确定机器学习医疗保健应用的伦理考虑因素。美国生物伦理学杂志 20 (11):7 – 17。doi: 10.1080/15265161.2020.1819469。Fawcett, T. 2006。ROC 分析简介。模式识别快报 27 (8):861 – 874。Hardt, M.、E. Price 和 N. Srebro。2016.监督学习中的机会平等。神经信息处理系统进展 29:3315 – 3323。Kleinberg,J.,和 S. Mullainathan。2019.简单造成不公平:对公平、刻板印象和可解释性的影响。2019 年 ACM 经济与计算会议论文集,807 – 808。Platt,J. C. 1999。支持向量机的概率输出以及与正则化似然方法的比较。在《大边距分类器的发展》中,编辑。A. J. Smola、Peter Bartlett、B. Schölkopf 和 D. Schuurmans,61 – 74。马萨诸塞州剑桥:麻省理工学院出版社。Rajkomar,A.、M. Hardt、M. D. Howell、G. Corrado 和 M. H. Chin。2018 年。确保机器学习的公平性以促进健康公平。内科年鉴 169 (12):866 – 872。Woodworth,B.、S. Gunasekar、M. I. Ohannessian 和 N. Srebro。2017.学习非歧视性预测因子。机器学习研究论文集 65:1920 – 1953。Zhang, B. H., B. Lemoine, 和 M. Mitchell。2018.通过对抗性学习减轻不必要的偏见。2018 年 AAAI/ACM 人工智能、伦理和社会会议论文集,335 – 340。美国路易斯安那州新奥尔良。
主席:Thomas SCHNEIDER 先生(瑞士) 副主席:Gregor STROJIN 先生(斯洛文尼亚) o Siiri AULIK 女士(爱沙尼亚)、Marco BELLEZZA 先生(意大利) o Mia SPOLANDER 女士(芬兰)、Blake BOWER 先生(联合o Mario HERNÁNDEZ RAMOS 先生(西班牙)、Peggy VALCKE 女士(比利时)、o Isıl Selen DENEMEC 女士(土耳其)
摘要 目的——本文旨在查明和分析人工智能 (AI) 在气候变化方面的双重作用所引发的伦理问题,即人工智能作为气候变化的贡献者和人工智能作为应对气候变化的贡献者。 设计/方法/方法——本文由三个主要部分组成。第一部分分别简要介绍了人工智能和气候变化的背景,然后介绍了人工智能对气候变化贡献的实证研究结果。第二部分介绍了各种人工智能研究人员和评论员提出的建议,即人工智能公司如何通过减少人工智能训练和使用产生的温室气体排放以及为各种缓解和适应措施提供人工智能援助来为应对气候变化做出贡献。最后一部分探讨了第二部分中提出的一些选项所引发的伦理问题。 发现——人工智能应用可能导致大量排放,但也可能在缓解和适应方面发挥重要作用。鉴于人工智能的双重作用,人工智能公司和政府的道德考虑至关重要。实际意义——本文指出了人工智能公司和政府应考虑的实际伦理问题。社会意义——鉴于人工智能对社会的潜在影响,人工智能公司和政府必须认真对待人工智能与气候变化有关的双重作用所引发的伦理问题。原创性/价值——人工智能一直是大量伦理调查的主题,气候变化更是如此。然而,从伦理角度来看,人工智能与气候变化之间的关系只受到有限的关注。本文提供了这样的考虑。
本课程观察人工智能伦理在法律和公共政策中的出现,研究影响人工智能系统发展和治理的共识构建过程中涉及的规范、价值观和政治策略。学生将对人工智能政策文件进行批判性分析,并深入研究公平、问责和透明度等核心原则,探索它们的起源和实际应用。课程以一系列设计思维研讨会为中心,这些研讨会将挑战学生在现实世界的案例研究中就负责任地使用人工智能进行辩论,涉及人权问题、可持续发展和地缘政治问题。通过在处理先进技术开发中固有的监管复杂性的同时发挥分析和修辞优势,本课程被认为是能够为公众利益管理人工智能的变革型领导者的训练营。
英国 1、美国 2、中国 3、新加坡 4、日本 5 和澳大利亚 6 等多个政府的战略明确提到了人工智能能力,这些能力已经部署用于改善关键国家基础设施(如交通、医院、能源和供水)的安全性。北约在其 2020 年关于北约未来的报告中也将人工智能确定为保持对对手优势的关键技术(北约,2020 年)。人工智能在国防中的应用几乎是无限的,从支持物流和运输系统到目标识别、战斗模拟、训练和威胁监控。军事规划者越来越期望人工智能能够更快、更果断地击败对手。与其他领域的使用一样,人工智能的潜力也伴随着严重的道德问题,从可能的冲突升级、大规模监视措施的推广和错误信息的传播,到侵犯个人权利和侵犯尊严。如果这些问题得不到解决,将人工智能用于国防目的可能会破坏民主社会的基本价值观和国际稳定(Taddeo,2014b、2019a、b)。本文通过确定伦理原则为人工智能的设计、开发和用于国防目的提供指导,以解决这些问题。这些原则不应被视为国家和国际法律的替代品;相反,它们为在国防领域使用人工智能提供了指导,其方式与现有法规一致。从这个意义上说,提出的原则表明了应该做什么或不应该做什么。
本指南展示了 CoE 在构建 AI 应用程序时考虑道德因素的方法。这些问题旨在促进围绕广泛道德主题的讨论。一旦我们的团队回答了本指南中的问题并能够捍卫他们的答案,项目就会向前推进。这意味着项目特定阶段中的每个问题都应该以“是”的答案回答,以便进入 AI 解决方案的道德设计、开发和部署的下一阶段。这些问题在设计-开发-部署周期中不断被重新审视,并经过广泛测试以减轻应用 AI 技术带来的任何意外后果。
目标 本课程由 Jean Monnet Chair T 4 F - TR-AI-NING 4 FUTURE 组织。 人工智能与欧盟法 本课程旨在让学生掌握人工智能的伦理和法律原则的基本知识。我们将分析现有原则,询问它们是否适合规范人工智能,或者是否有必要制定新的原则。在课程结束时,学生将掌握法律和跨学科技能,可以指导他们以人为本的方式开展专业活动。特别是,学生将: - 了解人工智能的主要伦理和法律原则; - 利用所学技能分析和理解与使用人工智能有关的道德困境和法律问题; - 了解人工智能在某些相关领域的主要法律来源,如自动驾驶汽车、医学或司法; - 意识到人工智能日益广泛和自主使用的潜力和风险; - 了解多元辩论和跨学科方法在人工智能研究中的重要性 - 能够积极参与有关人工智能法律和伦理的工作组和讨论。
外部专家组 Najeeb Al Shorbaji,约旦电子健康发展协会 Arisa Ema,日本东京大学未来倡议研究所 Amel Ghoulia,H3Africa、H3ABioNet,突尼斯 Jennifer Gibson,加拿大多伦多大学达拉拉纳公共卫生学院生物伦理联合中心 Kenneth W. Goodman,美国迈阿密大学米勒医学院生物伦理与卫生政策研究所 Jeroen van den Hoven,荷兰代尔夫特理工大学 Malavika Jayaram,新加坡数字亚洲中心 Daudi Jjingo,乌干达马凯雷雷大学 Tze Yun Leong,新加坡国立大学 Alex John London,美国卡内基梅隆大学 Partha Majumder,印度国家生物医学基因组学研究所 Tshilidzi Marwala,南非约翰内斯堡大学 Roli Mathur,印度医学研究理事会 Timo Minssen,高级生物医学创新法研究 (CeBIL),哥本哈根大学法学院,丹麦 Andrew Morris,英国健康数据研究中心,英国 Daniela Paolotti,ISI 基金会,意大利 Maria Paz Canales,数字权利组织,智利 Jerome Singh,夸祖鲁-纳塔尔大学,南非 Effy Vayena,苏黎世联邦理工学院,瑞士 Robyn Whittaker,奥克兰大学,新西兰 曾毅,中国科学院,中国
尽管人工智能最近取得了进展,但当消费者考虑如何处理他们的数据时,道德问题就会出现。本文基于接受、风险、信任和对人工智能的态度理论,开发了一个概念模型,以了解导致消费者接受人工智能的驱动因素,同时考虑到消费者的道德顾虑。该模型通过 200 名人工智能营销服务消费者进行了实证测试。研究结果表明,感知风险显著影响对人工智能的态度、道德顾虑和感知信任,并表明感知风险、道德顾虑和社会规范之间存在显著关联。这项研究通过强调围绕人工智能接受度的伦理和道德问题,为人工智能在营销中的伦理方面提供了重要的理论和管理意义。