尽管困难重重,但 2020 年还是收获颇丰。2021 年将为我们带来新的挑战。然而,这也将为我们带来新的机遇。我们将看到研究项目的首批成果,启动“人工智能伦理 - 全球视角”开放式在线课程,并有机会在我们的演讲者系列、IEAI 研讨会以及慕尼黑负责任的人工智能论坛 (TRAIF) 上与杰出的国际客座演讲者讨论人工智能的伦理和治理。我们的主要国际会议将通过分享故事、前沿研究和实际应用来解决与负责任地使用人工智能有关的最相关和最紧迫的问题。
征文公共部门人工智能法律与伦理:从原则到实践和政策跨学科会议 2022 年 3 月 10-11 日 Asser 研究所(海牙)我们邀请就“公共部门人工智能法律与伦理:从原则到实践和政策”主题提交摘要,参加将于 2022 年 3 月 10-11 日在海牙 Asser 研究所以混合形式(如有更改)举行的跨学科会议。背景会议旨在解决公共部门越来越多地使用人工智能 (AI) 所带来的多重挑战。随着人工智能逐渐部署到医疗保健、能源、福利、边境安全、刑事司法、执法或国防等各个领域,必须确保人工智能技术的开发和使用以核心价值观为指导,特别是法治和人权。近年来,随着人工智能能力的飞速发展,人们越来越认识到需要积极反思其社会影响,从而根据道德和法律原则塑造技术的发展和应用。公共和私人机构都呼吁对人工智能的潜在影响进行根本性质疑,以引导人工智能研究和政策走向有益的结果,并最终保持对我们决定采用的技术的控制权。人工智能的不受约束的部署已经导致了意想不到的后果,特别是在歧视、隐私、正当程序、透明度和问责制方面。当前关于自主武器系统、公共场所面部识别的使用、司法系统中的风险评估算法或福利欺诈的自动检测的争论表明,在公共部门实施数据驱动的政策制定和算法决策是一个高度热门和重要的问题。人工智能在改善医疗保健或能源管理等方面的应用具有潜在的前景,而且似乎争议较少,因此也应该成为密切反思和审查的主题,因为它们也不能免于风险和人权问题。
人工智能 (AI) 最初应用于教育领域大约 50 年前,而人工智能本身作为一个研究领域成立仅十年左右,于 1956 年在美国新罕布什尔州汉诺威的达特茅斯学院研讨会上首次亮相(例如,参见 Moor,2006 年)。1970 年,Carbonell 的论文“CAI 中的人工智能:一种用于计算机辅助教学的人工智能方法”描述了一种基于语义网络的地理学辅导和创作系统,名为 SCHOLAR(Carbonell,1970 年)。这种“面向信息结构 (ISO)”的辅导将其教学策略与其对南美地理的了解分开,原则上,可以将世界其他地区的地理情况插入其中,并将教学策略应用于那里,或者将不同的教学策略应用于南美地理。此外,由于通过语义网络明确表示地理知识,系统可以对其知识进行推理,得出未明确编码的结论,并回答有关其所知的问题。因此,其“混合主动”教学策略可以包含系统利用上下文和问题的相关性向学生提问,以及学生向系统提问,两者都使用非常有限的英语。系统通过标记语义网络的相关部分来跟踪学生已经理解了地理领域的哪些部分,从而创建了学生知识的不断发展的模型。这种对个体学习者的适应是该系统与之前的计算机辅助教学 (CAI) 系统的区别之一。该系统还体现了面向学习者的教育人工智能 (AIEd) 系统的标准概念架构。
• 监管人工智能应用,而不是人工智能本身 • 根据人工智能应用风险进行监管 • 4 个风险等级:不可接受、高、低、最小 • 建立对人工智能和整个人工智能生态系统的信任 • 高风险人工智能系统的技术文档、记录保存和透明度/可解释性 • 低风险人工智能系统的透明度义务 • 人为监督 • 提供商、用户和其他利益相关者的义务
3 零愿景的目标(“将道路交通死亡率降至零”)已被纳入德国《自动驾驶和网联驾驶道德准则》(“部分和全自动运输系统的主要目的是提高所有道路使用者的安全性”)。 4 联合国儿童基金会。(2018 年)。为女孩而设计,由女孩完成 - 句号。https://www.unicef.org/innovation/U-Report/design-for- girls-by-girls-pakistan 5 二十国集团明确强调了联合国可持续发展目标与联合国可持续发展目标之间的联系(比较:第 2.1.6 章)。
计算机技术的进步不断改变着人类的生活条件,从而改变着每个人的道德。然而,计算机科学家在这个不断变化的道德环境中承担着特殊的责任:我们所构建的东西可以为善良和正义创造新的可能性。或者,我们所构建的东西可能会阻碍它们。鉴于人工智能对道德领域产生了如此大的影响,我们仍在试图弄清楚如何有效地教授人工智能伦理。同时,如果我们要评估课程的质量,我们需要对有效性有一个明确的定义,然后进行能够产生有效和可靠分数的评估。因此,我们建议计算机科学界应该开发一种评估工具,以衡量学生在计算机科学和特别是与人工智能相关的问题上应用的道德推理和描述性洞察技能。新的评估将被设计为一种工具,可用于评估面向教授计算机科学伦理的教学。我们认为,关注人工智能伦理教学的有效性是重要且及时的;今天的本科计算机科学教育正在培养明天的技术专业人士。人工智能专业人士不可避免地会在工作中遇到某种道德挑战。人工智能领域负责任的专业人士所承受的道德负担尤其明显。在努力设计支持道德生活和道德社会结构的技术时,这些专业人士面临着深刻而特殊的困境,这些困境源于现代工作和生活各个方面的计算无处不在。他们
ABEBA BIRHANE,Mozilla 基金会和爱尔兰都柏林大学计算机科学学院 ELAYNE RUANE,SFI Lero 和爱尔兰都柏林大学计算机科学学院 THOMAS LAURENT,SFI Lero 和爱尔兰都柏林大学计算机科学学院 MATTHEW S. BROWN,美国巴克内尔大学计算机科学系 JOHNATHAN FLOWERS,美国大学哲学与宗教系 ANTHONY VENTRESQUE,SFI Lero 和爱尔兰都柏林大学计算机科学学院 CHRISTOPHER L. DANCY,工业与制造工程系和计算机科学系
为了实现这一目的,人工智能经常跟踪和监控人类数据及其设备交互。它还监控他们的行为并生成生物特征档案。这种广泛的监控和全面的数据收集会对人类受试者的隐私产生不利影响,并增加通过网络攻击泄露数据机密性的风险。它还产生了一种大多数人不想要的大规模监视效应。因此,从这个意义上说,人工智能是一把双刃剑。
Char, D. S., M. D. Abr amoff 和 C. Feudtner。2020.确定机器学习医疗保健应用的伦理考虑因素。美国生物伦理学杂志 20 (11):7 – 17。doi: 10.1080/15265161.2020.1819469。Fawcett, T. 2006。ROC 分析简介。模式识别快报 27 (8):861 – 874。Hardt, M.、E. Price 和 N. Srebro。2016.监督学习中的机会平等。神经信息处理系统进展 29:3315 – 3323。Kleinberg,J.,和 S. Mullainathan。2019.简单造成不公平:对公平、刻板印象和可解释性的影响。2019 年 ACM 经济与计算会议论文集,807 – 808。Platt,J. C. 1999。支持向量机的概率输出以及与正则化似然方法的比较。在《大边距分类器的发展》中,编辑。A. J. Smola、Peter Bartlett、B. Schölkopf 和 D. Schuurmans,61 – 74。马萨诸塞州剑桥:麻省理工学院出版社。Rajkomar,A.、M. Hardt、M. D. Howell、G. Corrado 和 M. H. Chin。2018 年。确保机器学习的公平性以促进健康公平。内科年鉴 169 (12):866 – 872。Woodworth,B.、S. Gunasekar、M. I. Ohannessian 和 N. Srebro。2017.学习非歧视性预测因子。机器学习研究论文集 65:1920 – 1953。Zhang, B. H., B. Lemoine, 和 M. Mitchell。2018.通过对抗性学习减轻不必要的偏见。2018 年 AAAI/ACM 人工智能、伦理和社会会议论文集,335 – 340。美国路易斯安那州新奥尔良。
