由于人工智能推动的变革以取代和增强人类智能为特征,其在社会中日益增长的影响力有可能对个人和少数群体产生不利影响,同时也可能破坏社会中既定的程序,如知情同意、法治或民主问责。因此,关于人工智能伦理的讨论已经确定了可能伴随人工智能传播的几个伦理问题。然而,人工智能伦理的实施因其被认为的模糊性和执行非约束性道德标准的困难而变得复杂(Mittelstadt,2019)。因此,学者们探索将人权纳入人工智能伦理讨论,作为追究违反规范和原则的公司责任的另一种途径。本文分析了将人权纳入人工智能生命周期的相关性,以阐明规范框架的设计。
6. 人工智能不能创造新的不合理歧视标准。教师必须警惕人工智能以不明显的方式分析学生数据的能力,这可能导致不合理的歧视。例如,“快速滚动”是注意力不集中甚至学术不诚实的证据。教师应该使用反事实来解释上述原则。例如,如果你没有包含对可能是人工智能算法创建的虚构期刊的错误引用,你本可以取得更好的成绩。[1] 参见:沃赫特、布伦特·米特尔施塔特和克里斯·罗素,《为什么公平不能自动实现:弥合欧盟反歧视法与人工智能之间的鸿沟》(2020 年 3 月 3 日)。计算机法律与安全评论 41 (2021): 105567。,可在 SSRN 上获取:https://ssrn.com/abstract=3547922 或 http://dx.doi.org/10.2139/ssrn.3547922
全局 BETA 模型 [37*] 树提取 - Bastani、Kim 和 Bastani [38*] 提炼和比较模型 - Tan、Caruana、Hooker 和 Lou [39] 符号元模型 - Alaa 和 van der Schaar [40] 局部 LIME - Ribeiro 等人。 [26] 锚点——Ribeiro、Singh 和 Guestrin [41] 归因全局 PDP——Friedman [42] 特征交互——Friedman 和 Popescu [43] ALE——Apley 和 Zhu [44*] 特征重要性——Fisher、Rudin 和 Dominici Kapelner、Bleich 和 Pitkin [47] QII——Datta、Sen 和 Zick [48] SHAP——Lundberg 和 Lee [49] LOCO——Lei 等人。 [46] INVASE - Yoon, Jordon 和 van der Schaar [50] 全球影响力实例示例 - Cook [51] MMD-critic - Kim, Khanna 和 Koyejo [52] 本地影响力实例 - Cook [51] 无条件反事实解释 - Wachter, Mittelstadt 和 Russell
1 Sandra Wachter,副教授兼高级研究员,电子邮件:sandra.wachter@oii.ox.ac.uk 牛津大学牛津互联网研究所,1 St. Giles,牛津,OX1 3JS,英国。牛津互联网研究所新兴技术治理研究计划的这项工作得到了英国学术院博士后奖学金资助编号 PF2\180114、Luminate/Omidyar 集团和迈阿密基金会的支持。2 V IRGINIA E UBANKS,《自动化不平等:高科技工具如何描绘、监管和惩罚穷人》(2018 年)。3 C ATHY O'N EIL,《数学毁灭性武器:大数据如何加剧不平等并威胁民主》(2017 年)。4 Sandra Wachter、Brent Mittelstadt 和 Chris Russell,《为什么公平不能自动化:弥合欧盟非歧视法与人工智能之间的差距》,41 C OMPUTER L AW & S SECURITY R EVIEW 105567(2021 年)。
在 COVID-19 大流行期间:改善严重精神疾病患者护理的实用策略。社区心理健康杂志 57:405 – 15。Mittelstadt,B。2017 。健康相关物联网的伦理:叙述性评论。伦理与信息技术 19 (3):157 – 175。doi:10.1007/s10676-017-9426-4。Morales,DA、CL Barksdale 和 AC Beckel-Mitchener。2020 。呼吁采取行动解决农村心理健康差距问题。临床与转化科学杂志 4 (5):463 – 467。doi:10.1017/cts.2020.42。Sedlakova,J. 和 M. Trachsel。2023 。心理治疗中的对话式人工智能:一种新的治疗工具或药剂?美国生物伦理学杂志 23 (5):4 – 13。doi: 10.1080/15265161.2022.2048739。Shaw, JA 和 J. Donia。2021 年。数字健康的社会技术伦理:对生物伦理学方法的批判和扩展。数字健康前沿 3:725088。doi: 10.3389/fdgth.2021.725088。Smith-Bell, M. 和 WJ Winslade。1994 年。心理治疗关系中的隐私、保密性和特权。美国矫正精神病学杂志 64 (2): 180 – 93。doi: 10.1037/h0079520。Weiner, S. 2022。精神科医生短缺问题日益严重,心理健康服务需求巨大。AAMC,8 月 9 日。https://www.aamc.org/news-insights/growing-psychiatrist-shortage-enormous-demand-mental-health-services。
我们对自己开发的人工智能系统负责。政府即将出台人工智能系统的监管规定。但是,在政策出台之前,负责任地开发和部署人工智能系统的责任完全落在构建和使用这些技术的组织身上。因此,企业采用 RAI 原则作为一种自我监管形式激增。然而,研究表明,有效地将这些原则转化为实践具有挑战性(Mittelstadt,2019 年;Sanderson 等人,2022 年;Schiff、Rakova、Ayesh、Fanti 和 Lennon,2020 年)。为了克服这一挑战,出现了广泛的努力,包括工具包、清单、实用指南和指标。然而,这些方法通常面向个人人工智能从业者,而不是组织。这些努力往往是零碎的,缺乏如何融入组织更大的 RAI 战略的明确性。在尚未就许多最佳实践或成熟的含义达成共识的情况下,我们认识到需要评估和绘制这个未知的新领域。 RAI MM 是下一步的重要工作,它的作用就是确定组织的 RAI 成熟度的核心组件以及它们如何组合在一起。
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
3 Sardanelli, F.、Castiglioni, I.、Colarieti, A. 等。生物医学研究中的人工智能 (AI):关于作者在文章标题中声明 AI 的讨论。Eur Radiol Exp 7, 2 (2023)。4 Hulsen T. 生物医学中人工智能的文献分析。Ann Transl Med。2022 年 12 月;10(23):1284。5 欧洲议会,《人工智能对医患关系的影响》,生物医学和健康领域人权指导委员会 (CDBIO) 委托撰写的报告,作者:Brent Mittelstadt,2021 年 12 月,第 1 页。6 Athanasopoulou, K.;Daneva, GN;Adamopoulos, PG;Scorilas, A. 人工智能:现代生物医学研究的里程碑。BioMedInformatics 2022, 2, 727-744。 7 Yu KH, Beam AL, Kohane IS. 医疗保健中的人工智能。Nat Biomed Eng. 2018 年 10 月;2(10):719-731。8 Diaz-Flores E、Meyer T、Giorkallos A. 生物医学研究和医疗保健中人工智能技术的发展。Adv Biochem Eng Biotechnol。2022182:23-60。9 Kolluri S、Lin J、Liu R、Zhang Y、Zhang W. 机器学习和人工智能在制药研发中的应用:综述。AAPS J. 2022 年 1 月 4 日;24(1):19。10 Paul D、Sanap G、Shenoy S、Kalyane D、Kalia K、Tekade RK。药物发现和开发中的人工智能。Drug Discov Today。2021 年 1 月;26(1):80-93。 11 Tran KA、Kondrashova O、Bradley A、Williams ED、Pearson JV、Waddell N。深度学习在癌症诊断、预后和治疗选择中的应用。Genome Med。2021 年 9 月 27 日;13(1):152。12 Aung YYM、Wong DCS、Ting DSW。人工智能的前景:回顾人工智能在医疗保健领域的机遇和挑战。Br Med Bull。2021 年 9 月 10 日;139(1):4-15。
值得信赖(Jobin 等人,2019 年)。例如,美国政府推进“可信赖人工智能的开发和使用”(国家人工智能计划办公室,2021 年)。同样,欧盟也制定了“可信赖人工智能的道德准则”(欧盟委员会,2019 年)。可信度被认为是人工智能赢得信任的必要条件,而信任反过来“也是人工智能在我们的日常生活中得到富有成效和普遍使用所必需的”(IEEE 2017,第 2 页)。虽然从规范的角度来看这种说法是直观的,但它也基于信任需要可信度的经验假设。然而,几乎没有证据支持人工智能的这一论点。本研究的目的是调查用户对人工智能学习道德顾问的可信度有多敏感。人工智能算法已经征服了人员招聘、贷款分配、刑事判决或自动驾驶等领域(Rahwan 等人,2019 年)。它们做出并帮助我们做出至关重要的决策,并实际上已成为道德主体(Whitby,2011 年;Voiklis 等人,2016 年)。特别是,算法可以充当其人类用户的道德顾问,而人类仍然做出决策并对此负责。人类参与算法决策增强了对算法的感知控制,并被发现可以增加信任(Dietvorst 等人,2015 年;Burton 等人,2020 年)。因此,参与其中的人被认为是打造值得信赖的人工智能的基石(欧盟委员会,2019 年)。然而,这种说法假设人类用户不会天真地信任算法,无论算法多么值得信赖,而是会仔细检查其建议,并在出现危险信号时做出自己的决定。对于学习型人工智能而言,训练数据的透明度和完整性是算法值得信赖的最低要求(IEEE,2017 年;Lepri 等人,2018 年;欧盟委员会,2019 年)。人们对算法的一个主要担忧是它们有偏见(Mittelstadt 等人,2016 年;Jobin 等人,2019 年),而透明度可以帮助缓解这一担忧。首先,我们探讨如果用户对算法如何生成建议一无所知,他们是否会信任算法的道德建议。我们的基准是基于公正的人类顾问的判断的人工智能生成的建议。虽然人类的判断是出了名的不透明,但公正的顾问的概念会让人联想到理想的观察者,并让被建议者了解建议是如何产生的(Jollimore,2021 年)。因此,如果用户知道算法是根据公正的人类顾问的判断进行训练的,那么算法对用户来说就比对算法如何生成道德建议一无所知时更加透明。其次,我们研究当算法训练数据的完整性值得怀疑时,用户是否信任算法的建议。具体来说,我们假设许多人不信任被定罪的罪犯的道德建议。事实上,道德判断会受到病态特征的损害(Campbell 等人,2009 ;Jonason et al., 2015 ;Blair, 2017 ),这在犯罪者中很常见。最近也有证据表明,犯罪者的判断相对于平均人群存在偏差(Koenigs et al., 2011 ;Young et al., 2012 ;Lahat et al., 2015 )。当然,犯罪并不一定源于缺乏道德判断。人们常常知道什么是对的,但仍然做错事。我们仍然可以合理地假设,来自罪犯的训练数据被认为是有偏见的,教育、就业和住房方面的歧视表明了对罪犯的根深蒂固的不信任(Sokoloff & Schenck-Fontaine, 2017 ;Evans et al., 2019 ;Sugie et al., 2020 )。
