背景:人工智能 (AI) 的进步为各个领域带来了众多好处。然而,它也带来了必须解决的道德挑战。其中之一是人工智能系统缺乏可解释性,即无法理解人工智能如何做出决策或产生结果。这引发了人们对这些技术的透明度和可问责性的质疑。这种可解释性的缺乏阻碍了人们对人工智能系统如何得出结论的理解,这可能导致用户不信任并影响此类技术在关键领域(例如医学或司法)的采用。此外,人工智能算法中还存在有关责任和偏见的道德困境。方法:考虑到上述情况,从伦理角度研究可解释人工智能的重要性存在研究空白。研究问题是人工智能系统缺乏可解释性的伦理影响是什么,以及如何解决这个问题?这项工作的目的是了解这个问题的伦理影响并提出解决它的方法。结果:我们的研究结果表明,人工智能系统缺乏可解释性会对信任和问责产生负面影响。用户可能会因为不理解某个决定是如何做出的而感到沮丧,这可能会导致对技术的不信任。此外,缺乏可解释性使得很难识别和纠正人工智能算法中的偏见,而偏见可能会导致不公正和歧视。结论:这项研究的主要结论是,人工智能必须在伦理上可解释,以确保透明度和问责制。有必要开发工具和方法,以便了解人工智能系统如何工作以及如何做出决策。促进人工智能、伦理和人权专家之间的多学科合作也很重要,以全面应对这一挑战。
尽管困难重重,但 2020 年还是收获颇丰。2021 年将为我们带来新的挑战。然而,这也将为我们带来新的机遇。我们将看到研究项目的首批成果,启动“人工智能伦理 - 全球视角”开放式在线课程,并有机会在我们的演讲者系列、IEAI 研讨会以及慕尼黑负责任的人工智能论坛 (TRAIF) 上与杰出的国际客座演讲者讨论人工智能的伦理和治理。我们的主要国际会议将通过分享故事、前沿研究和实际应用来解决与负责任地使用人工智能有关的最相关和最紧迫的问题。
征文公共部门人工智能法律与伦理:从原则到实践和政策跨学科会议 2022 年 3 月 10-11 日 Asser 研究所(海牙)我们邀请就“公共部门人工智能法律与伦理:从原则到实践和政策”主题提交摘要,参加将于 2022 年 3 月 10-11 日在海牙 Asser 研究所以混合形式(如有更改)举行的跨学科会议。背景会议旨在解决公共部门越来越多地使用人工智能 (AI) 所带来的多重挑战。随着人工智能逐渐部署到医疗保健、能源、福利、边境安全、刑事司法、执法或国防等各个领域,必须确保人工智能技术的开发和使用以核心价值观为指导,特别是法治和人权。近年来,随着人工智能能力的飞速发展,人们越来越认识到需要积极反思其社会影响,从而根据道德和法律原则塑造技术的发展和应用。公共和私人机构都呼吁对人工智能的潜在影响进行根本性质疑,以引导人工智能研究和政策走向有益的结果,并最终保持对我们决定采用的技术的控制权。人工智能的不受约束的部署已经导致了意想不到的后果,特别是在歧视、隐私、正当程序、透明度和问责制方面。当前关于自主武器系统、公共场所面部识别的使用、司法系统中的风险评估算法或福利欺诈的自动检测的争论表明,在公共部门实施数据驱动的政策制定和算法决策是一个高度热门和重要的问题。人工智能在改善医疗保健或能源管理等方面的应用具有潜在的前景,而且似乎争议较少,因此也应该成为密切反思和审查的主题,因为它们也不能免于风险和人权问题。
人工智能 (AI) 最初应用于教育领域大约 50 年前,而人工智能本身作为一个研究领域成立仅十年左右,于 1956 年在美国新罕布什尔州汉诺威的达特茅斯学院研讨会上首次亮相(例如,参见 Moor,2006 年)。1970 年,Carbonell 的论文“CAI 中的人工智能:一种用于计算机辅助教学的人工智能方法”描述了一种基于语义网络的地理学辅导和创作系统,名为 SCHOLAR(Carbonell,1970 年)。这种“面向信息结构 (ISO)”的辅导将其教学策略与其对南美地理的了解分开,原则上,可以将世界其他地区的地理情况插入其中,并将教学策略应用于那里,或者将不同的教学策略应用于南美地理。此外,由于通过语义网络明确表示地理知识,系统可以对其知识进行推理,得出未明确编码的结论,并回答有关其所知的问题。因此,其“混合主动”教学策略可以包含系统利用上下文和问题的相关性向学生提问,以及学生向系统提问,两者都使用非常有限的英语。系统通过标记语义网络的相关部分来跟踪学生已经理解了地理领域的哪些部分,从而创建了学生知识的不断发展的模型。这种对个体学习者的适应是该系统与之前的计算机辅助教学 (CAI) 系统的区别之一。该系统还体现了面向学习者的教育人工智能 (AIEd) 系统的标准概念架构。
摘要 : 人工智能 (AI) 作为非洲发展的新资源,受到非洲人民的热烈欢迎。人工智能可以促进经济、教育、卫生、生态、城市规划、工业等领域的创新,从而改善福祉。然而,过高的期望可能只是美好的愿望。关于所需的技术转让、选择和掌握适当的技术,仍存在一些未解决的问题。鉴于 20 世纪 60 年代现代化理论中的“技术转让”概念完全失败,因为它没有适应当地的需求(例如资源匮乏、普遍贫困和严重的社会经济不平等、劳动密集型技术、生产率低下),一些学者呼吁建立非洲人工智能的内生概念。然而,这引发了激烈的争论。由于非洲实际上不存在数字基础设施,非洲成为全球大国“数字帝国”的战场。然而,非洲问题需要非洲解决方案。此外,人工智能相关技术的主流叙事和默认设置被谴责为男性偏见、白人、异性恋规范、健全人和西方人。此外,迄今为止对正规部门的关注也值得怀疑。非正规部门的创新者和民间社会机构,植根于当地社会文化环境,但与跨国社会空间密切相关,往往比国家的发展努力表现更好。此外,联合国教科文组织警告说,有效利用人工智能需要适当的技能、法律框架和基础设施。与过去一样,呼吁汇集资源,即一项泛非洲战略,可能是徒劳的。人工智能可能在南非、尼日利亚和肯尼亚等已经建立的非洲技术中心发展最快。然而,埃塞俄比亚和乌干达也认可了有前景的以人工智能为重点的活动。为了改善非洲环境中的社会经济包容性,而不是破坏它,还需要性别平等、文化和语言多样性以及劳动力市场的转变。此外,与特定非洲身份相关的伦理问题也已提出。在开发非洲人工智能时,非洲人对人性和人性的看法应在多大程度上被考虑仍是一个悬而未决的问题。简而言之,人工智能可能是一把双刃剑。关键词:人工智能、创新、机器学习、大数据分析、道德价值观、人工智能伦理、非洲伦理、非洲哲学、非洲、撒哈拉以南非洲、经济发展、人类发展、非正规部门、贫困、饥荒、国际贸易、全球力量、脆弱国家、南非、尼日利亚、肯尼亚、乌干达、埃塞俄比亚、后殖民主义、非洲研究 JEL 代码:E24、E26、F15、F22、F35、F54、F63、I24、I25、I31、J43、J46、L26、M13、N17、N37、N47、N77、O14、O17、O32、O36、P46、Z13
• 监管人工智能应用,而不是人工智能本身 • 根据人工智能应用风险进行监管 • 4 个风险等级:不可接受、高、低、最小 • 建立对人工智能和整个人工智能生态系统的信任 • 高风险人工智能系统的技术文档、记录保存和透明度/可解释性 • 低风险人工智能系统的透明度义务 • 人为监督 • 提供商、用户和其他利益相关者的义务
3 零愿景的目标(“将道路交通死亡率降至零”)已被纳入德国《自动驾驶和网联驾驶道德准则》(“部分和全自动运输系统的主要目的是提高所有道路使用者的安全性”)。 4 联合国儿童基金会。(2018 年)。为女孩而设计,由女孩完成 - 句号。https://www.unicef.org/innovation/U-Report/design-for- girls-by-girls-pakistan 5 二十国集团明确强调了联合国可持续发展目标与联合国可持续发展目标之间的联系(比较:第 2.1.6 章)。
计算机技术的进步不断改变着人类的生活条件,从而改变着每个人的道德。然而,计算机科学家在这个不断变化的道德环境中承担着特殊的责任:我们所构建的东西可以为善良和正义创造新的可能性。或者,我们所构建的东西可能会阻碍它们。鉴于人工智能对道德领域产生了如此大的影响,我们仍在试图弄清楚如何有效地教授人工智能伦理。同时,如果我们要评估课程的质量,我们需要对有效性有一个明确的定义,然后进行能够产生有效和可靠分数的评估。因此,我们建议计算机科学界应该开发一种评估工具,以衡量学生在计算机科学和特别是与人工智能相关的问题上应用的道德推理和描述性洞察技能。新的评估将被设计为一种工具,可用于评估面向教授计算机科学伦理的教学。我们认为,关注人工智能伦理教学的有效性是重要且及时的;今天的本科计算机科学教育正在培养明天的技术专业人士。人工智能专业人士不可避免地会在工作中遇到某种道德挑战。人工智能领域负责任的专业人士所承受的道德负担尤其明显。在努力设计支持道德生活和道德社会结构的技术时,这些专业人士面临着深刻而特殊的困境,这些困境源于现代工作和生活各个方面的计算无处不在。他们
ABEBA BIRHANE,Mozilla 基金会和爱尔兰都柏林大学计算机科学学院 ELAYNE RUANE,SFI Lero 和爱尔兰都柏林大学计算机科学学院 THOMAS LAURENT,SFI Lero 和爱尔兰都柏林大学计算机科学学院 MATTHEW S. BROWN,美国巴克内尔大学计算机科学系 JOHNATHAN FLOWERS,美国大学哲学与宗教系 ANTHONY VENTRESQUE,SFI Lero 和爱尔兰都柏林大学计算机科学学院 CHRISTOPHER L. DANCY,工业与制造工程系和计算机科学系