确实专门为这个主题开辟了一个部分,但这种主导地位的进一步证据很少。15 虽然人们希望我们出于其他原因也小心驾驶。16 Wachter 等人。(2017, p. 98) 提出了类似的建议,以解决透明度需求的情况
摘要 机器学习的进步推动了人工智能决策算法在保释听证、医疗诊断和招聘等程序中的流行。学术文章、政策文本和普及书籍都警告说,这种算法往往不透明:它们没有为其结果提供解释。基于透明度和不透明度的因果关系以及最近关于因果解释价值的研究,我对不透明算法提出了道德担忧,但尚未在文献中得到系统的处理:当此类算法用于改变生活的决策时,它们会阻碍我们根据自己的目标和偏好有效地塑造我们的生活,从而破坏我们的自主权。我认为这种担忧值得更加密切的关注,因为它为算法决策的透明度呼吁提供了新的工具和新的挑战。
摘要 本文献综述的目的是撰写一篇以系统方法为支撑的叙述性综述,批判性地识别和审查有关问责制以及临床医生和技术人员在使用不透明的人工智能系统进行临床决策时的责任和法律责任分配的担忧。本综述的问题是:(a) 临床医生是否可以在临床决策中使用不透明的人工智能系统 (AIS);(b) 如果患者因临床医生使用 AIS 的建议而受到伤害,责任和法律责任将如何分配?我们从九个数据库中系统地搜索、检索和审查了文献,其中还包括来自三个临床专业监管机构的项目,以及来自政府和非政府组织的相关灰色文献。这些文献符合纳入/排除标准;与本综述相关的项目经过了数据提取。本评论发现,在考虑技术人员和临床医生在临床决策中创建和使用 AIS 的利益相关者时,存在对不透明性、问责制、责任和义务的多重担忧。当使用的 AIS 不透明且责任分配有些不明确时,问责制就会受到挑战。法律分析将有助于利益相关者了解他们的义务,并在使用 AIS 时发生患者受到伤害的不良情况时做好准备。
摘要腹置空间是胸部X光片的一个棘手区域,在胸部X光片中,经常错过异常的密度。病变会产生晚期压力症状。早期检测和对逆行心态的适当评估可以帮助放射科医生在明显的临床体征和症状之前确定诊断。我们提出了10例患者的病例系列,额叶胸部放射线中偶然检测到的深层不透明度,并通过其他成像方式进一步评估,例如横向X光片,计算机断层扫描(CT)或磁共振成像(MRI)以建立诊断。最终诊断包括先天性疾病,例如食管复制囊肿和支气管囊肿;炎性疾病,如肝炎,肺脓肿和肺炎肺炎;主动脉动脉瘤等血管状况;诊断性疝等diaphragmatragication;以及罕见的肿瘤,例如心脏乳头状瘤,肺神经内分泌肿瘤和神经节瘤。还讨论了有助于诊断后心动过心的基本迹象。
所谓的人工智能 (AI) 正在渗透到我们的公共和通信结构中。2019 年曝光的荷兰儿童保育福利丑闻表明,人工智能的不透明性对本已脆弱的群体有多么不利。事后,许多学者呼吁需要更可解释的人工智能,以便决策者可以干预歧视性制度。促进人工智能的可解释性 (XAI) 是解决这个问题的一个良好开端,但不足以让弱势群体有能力充分应对其影响。作为数据和计算机科学的典范,XAI 旨在通过更简单的模型来说明和解释复杂的人工智能,使其更易于访问和合乎道德。问题是,在这样做的过程中,XAI 将透明度非政治化为算法不透明性的补救措施,将透明度视为人为剥夺其意识形态意义。透明度被视为意识形态的解药,尽管我将展示这是一种会产生后果的意识形态举措。例如,它使我们过于关注算法的不透明性,而不是解释人工智能更广泛的力量。其次,它阻碍了我们就谁掌握着对人工智能的解释、应用或批评的权力展开辩论。问题在于,那些受到人工智能影响或歧视的人,就像荷兰的情况一样,几乎没有工具来处理人工智能作为一个系统的不透明性,而那些关注数据不透明性的人正在塑造素养讨论。为了解决这些问题,我建议超越对算法透明度的关注,转向后批判人工智能素养,以加强对访问、赋权和抵抗的辩论,同时不将可探索人工智能作为一个领域,也不将算法透明度作为一种意图。我在这里挑战的是将透明度视为非政治化和算法问题的霸权,并将人工智能的可解释性视为公民赋权的充分途径。关键词
詹娜·伯雷尔 (Jenna Burrell) 教授指出了三类不透明性,这些不透明性使得算法对用户来说可能难以理解,有时对设计者来说也是如此。12 虽然并非所有算法都是“黑箱”系统,但更先进的算法依赖于深度学习或 ML 技术,这些技术旨在处理大量输入数据和相关结果(即“学习集”)来“训练”机器识别模式,最终生成自己的实现期望结果的途径。这些系统是不透明的,因为它们处理大量数据并推断数据点之间的关系,而这种关系超出了人类在类似时间限制内可以合理计算的能力。算法的准确性和预测能力与其复杂性成正比。此类系统自动化程度最高,但截至本文发表时,业界使用的可能性最小。
* 法学博士候选人,2024 年,宾夕法尼亚大学法学院;文学士,2019 年,加州大学伯克利分校。我感谢 Cynthia L. Dahl 教授的宝贵指导和辅导。我还要感谢宾夕法尼亚大学宪法杂志的编辑们为发表这篇文章所做的努力。1 参见 Robert Brauneis 和 Ellen P. Goodman,《智慧城市的算法透明度》,20 Y ALE JL & T ECH. 103, 109 (2018)(“风险在于算法的不透明性使企业能够夺取公共权力。当政府代理人实施她不理解也无法解释的算法建议时,政府就失去了民主问责制,公众无法评估政府程序的有效性和公平性,政府代理人也失去了以任何批判性方式开展公众工作的能力。”)。2 同上。第 103 页(“在公共部门,算法决策的不透明性尤其成问题,因为政府决策可能特别重要,而且民选政府负有特殊的问责义务。”)。
纳入澳大利亚现有的监管/法律制度。7 然而,有效监管的目的应该是减少发生危害的可能性。因此,我们认为应该考虑要求技术标准、风险评估框架和问责制度发挥更大的作用,以减少人工智能对个人、社会和地球造成危害的可能性。8 此外,目前对于现有法律和监管制度如何适用于人工智能存在相当大的不确定性,而且由于人工智能的独特特征(不透明性、个性化、速度),在确定不法行为方面可能存在实际障碍。精心设计的事前干预可以通过协助确定不法行为和执行对有害、非法或违反人工智能输出的禁令来减少这些担忧。9
屏蔽要求:屏蔽旨在阻挡不同用途之间的视觉接触,并产生强烈的空间分离感。屏蔽装置从地面到至少六 (6) 英尺高应至少有百分之九十 (90%) 的不透明性。种植的植被在种植时必须至少有十八 (18) 英寸高。在任何情况下,如果要使用现有或拟议的植被作为必需的屏蔽装置,如果植被的宽度(厚度)小于十 (10) 英尺,则应结合使用至少百分之五十 (50%) 不透明且六 (6) 英尺高的栅栏、墙壁或类似装置与植被结合使用。