通过《法律与当代问题》这样的跨学科出版物来探讨算法决策和人工智能 (AI) 的新兴用途问题似乎很合适。毕竟,这些文章的核心 AI 工具正在全球几乎每个行业和每个角落部署。这本小册子汇集了哲学、伦理学、数据科学、计算机科学和法律领域的领先思想家,他们来自德国、比利时、英国、哥伦比亚和美国。这种国际化和跨学科的方法为探索社会技术系统提供了特殊价值,在这些系统中,AI 影响权利和责任的有意义的决定、分配和分配。正是因为 AI 影响个人和职业机会、正当程序和法治,任何脱离它所塑造的系统而进行的狭隘探索——短视的技术调查可能无法包括更广泛的伦理和社会学审查——都可能是误导和潜在有害的。如此狭隘的探索不仅可能无法优先考虑我们珍视的权利和价值观,还可能削弱我们管理人工智能的能力以及它对我们希望保护的社会和政治体系的影响。因此,理想的情况是像《法律与当代问题》这样的论坛,将律师、伦理学家、技术专家、工程师和其他人聚集在一起,跨学科地考虑这些社会技术系统。在寻求积极的人工智能未来时,需要一个村庄。然而,如此庞大的话题也需要一些限制。正如本书的标题“黑箱算法与法治”所暗示的那样,我们在这里施加了两个限制。首先,我们关注被称为“黑箱人工智能”的特定人工智能子集。在其文章《黑箱社会:控制金钱和信息的秘密算法》中,特约作者 Frank Pasquale 指出,黑箱系统就是那些“被秘密逻辑所殖民”的系统。1 他在本卷中的文章补充道,“‘黑箱人工智能’是指任何自然语言处理、机器学习、文本分析或类似软件,它们使用数据主体无法访问的数据,或部署同样无法访问的算法,或部署过于复杂而无法简化为一系列数据主体可理解的规则和规则应用的算法。”换句话说,
数字技术的使用不断渗透和改变着所有社会系统,教育也不例外。在过去十年中,人工智能的发展为教育系统提供“有效”和更个性化的教学和学习解决方案的希望带来了新的推动力。教育工作者、教育研究人员和政策制定者一般缺乏理解这些新系统底层逻辑的知识和专业知识,而且没有足够的研究证据来充分理解在教育环境中大量使用屏幕和越来越依赖算法对学习者发展的影响。本文面向教育工作者、教育领域学者和政策制定者,首先介绍了“大数据”、人工智能、机器学习算法的概念,以及它们如何以“黑匣子”的形式呈现和部署,以及这些新软件解决方案可能对教育产生的影响。然后,本文重点介绍了历史上将信息和通信技术视为解决教育问题的灵丹妙药的底层教育话语,指出不仅需要分析它们的优势,还需要分析它们可能产生的负面影响。最后对未来可能出现的情况和结论进行了简短的探讨。
作者:C Angermueller · 2020 · 被引用 61 — 1989)用于多臂老虎机。然而,AOS 不是老虎机问题,因为时间 t 处的动作会影响不同算法在 t 处获得的奖励……
在一项有争议的裁决(Loomis v. Wisconsin,2016)中,威斯康星州最高法院裁定,COMPAS 算法的建议并不是拒绝其假释请求的唯一理由,因此下级法院的裁决并未侵犯 Loomis 的正当程序权利。法院确认了推荐风险评估算法的合宪性,人们普遍认为法院忽视了“自动化偏见”的强度。一旦高科技工具提出建议,人类决策者就很难拒绝该建议。
(如人脸识别)、决策(如医疗诊断系统)、预测(如天气预报)、从数据中自动提取知识和模式识别(如发现社交媒体中的虚假新闻圈)、交互式通信(如社交机器人或聊天机器人)和逻辑推理(如从前提中发展理论)。”ii 我建议采用这份清单作为讨论可持续发展目标影响的工作基础。然而,我意识到,这种对人工智能的“黑箱方法”没有具体说明底层技巧和技术,不足以充分理解所有可持续发展目标的影响。人工智能概念、技巧和技术的细节非常重要,特别是在可持续性以及人工智能的未来方向及其物理、经济和社会政治局限性方面。
我们的标题暗示了《圣诞颂歌》中埃比尼泽·斯克鲁奇遇到的三个圣诞幽灵,他们引导埃比尼泽经历圣诞节假期活动的过去、现在和未来。同样,我们的文章将带领读者回顾医疗 AI 的过去、现在和未来。在此过程中,我们关注现代机器学习的关键:对强大但本质上不透明的模型的依赖。当应用于医疗保健领域时,这些模型无法满足临床医生和患者最终用户所要求的透明度需求。我们回顾了这种失败的含义,并认为不透明的模型 (1) 缺乏质量保证,(2) 无法赢得信任,以及 (3) 限制医患对话。然后,我们讨论如何在模型设计和模型验证的各个方面保持透明度有助于确保医疗 AI 的可靠性。
众所周知,机器学习算法在众多应用中利用大数据集进行模式识别、预测和解决问题方面有着巨大的前景。医疗领域,尤其是医疗决策,只是机器学习算法可以成为非常强大工具的重要领域之一。人工智能的这种应用已经在广泛的医疗应用中产生了一些令人兴奋的成果,从诊断眼疾(Gulshan 等人,2016 年)或通过图像诊断皮肤癌(Esteva 等人,2017 年),到使用临床数据库预测自杀风险(Walsh 等人,2017 年)。人们希望使用人工智能算法可以使医疗诊断和治疗建议更快、更准确。支持者可能会指出,人工智能将胜过人类医生,不仅是因为人工智能拥有强大的计算能力,还因为人类临床医生容易犯诊断错误并屈服于认知偏见(Topol,2019 年)。请注意,机器学习是人工智能 (AI) 的一个子领域,其
* 法学助理教授,(马斯特里赫特)法律与技术实验室,马斯特里赫特欧洲私法研究所,马斯特里赫特大学,荷兰;研究团队成员,验证 AI 在实时手术中对癌症进行分类(CLASSICA),欧盟(资助协议编号 101057321),宾夕法尼亚州立大学迪金森法学院,美国宾夕法尼亚州卡莱尔。** 法学助理教授,宾夕法尼亚州立大学迪金森法学院,美国宾夕法尼亚州卡莱尔;联合首席研究员,WP8(法律、伦理和责任),验证 AI 在实时手术中对癌症进行分类(CLASSICA),欧盟(资助协议编号 101057321);联合首席研究员,WP4(解决伦理/法律问题),通过人工智能个性化治疗优化结直肠癌预防(OperA),欧盟(资助协议编号 101057099);多项首席研究员,生物伦理、法律和人类学技术研究 (BLAST),国家生物医学成像和生物工程研究所 (NIBIB) 和国立卫生研究院院长办公室 (NIH OD)(资助协议编号 1R21EB035474-01);联合研究员(补充项目),PREMIERE:预测模型索引和交换存储库,NIBIB 和 NIH OD(资助协议编号 3R01EB027650-03S1);联合研究员,宾夕法尼亚州立大学 TCORS:烟草产品成分对毒性和成瘾的影响,国家药物滥用研究所 (NIDA)/国立卫生研究院 (NIH)(资助协议编号 1U54DA058271-01)。本文被选为 2024 年 AALS 年会上 AALS 法律、医学和医疗保健部门的“法律、医学和医疗保健新声音”计划。本文受益于德克萨斯 A&M 大学法学院年度卫生法会议、生物科学监管与创新 (RIBS) 研讨会和 AALS 年会参与者的反馈。对于有用的评论和对话,我们要感谢 Valarie Blake、Anjali Deshmukh、Wendy Netter Epstein、George Horvath、Nicole Huberfeld、Ryan Knox、Craig Konnoth、Matthew Lawrence、Myrisha S. Lewis、Brendan Maher、Elizabeth McCuskey、Govind Persad、Jessica Roberts、Christopher Robertson、David A. Simon、Michael Sinha、Charlotte Tschider、Allison Whelan 和 Carleen Zubrzycki。我们感谢 Kaci McNeave 和 Robin Platte 提供的出色研究协助。所有错误都是我们自己的。
摘要。对于医学信息学家来说,评估基于人工智能的解决方案作为许多传统工具的有前途的替代方案的优缺点变得越来越重要。除了准确性和处理时间等定量标准外,医疗保健提供者通常对解决方案的定性解释感兴趣。可解释的人工智能提供了足够可解释的方法和工具,使不同的利益相关者能够定性地理解其解决方案。其主要目的是深入了解机器学习程序的黑箱机制。我们的目标是通过深入了解核心概念,即:可解释性、可解释性、理解、信任和信心,从医学信息学家的角度推进定性评估人工智能的问题。
1 Wrightington、Wigan 和 Leigh NHS 基金会信托,英国大曼彻斯特 2 莫纳什 IVF 集团,澳大利亚南港 3 西澳大利亚大学人文科学学院,澳大利亚克劳利 4 伊迪斯科文大学医学与健康科学学院,澳大利亚琼达勒普 5 邦德大学健康科学与医学院,澳大利亚罗比纳 6 杜克大学计算机科学系,美国北卡罗来纳州达勒姆 7 杜克大学经济学系,美国北卡罗来纳州达勒姆 8 杜克大学哲学系,美国北卡罗来纳州达勒姆 9 牛津大学计算机科学系、人工智能伦理研究所,英国牛津 10 牛津大学哲学系、人工智能伦理研究所,英国牛津 11 杜克大学电气工程系,美国北卡罗来纳州达勒姆 12 杜克大学统计科学系,美国北卡罗来纳州达勒姆 13牛津,英国牛津 14 牛津大学威康伦理与人文中心,英国牛津 15 默多克儿童研究所,皇家儿童医院,帕克维尔,澳大利亚 16 青岛和睦家医院妇产科,青岛,中国