AI 开发人员面临的困境。我们认为,当前 AI 开发中道德实践的方法未能解释开发人员在做正确的事情和保住工作之间做出选择的挑战。如果每个人都以某种方式行事,社会就会获得最佳结果,但实际实施这种行为会给个人带来不利影响,使他们无法做到这一点,这时就会出现社会困境。我们发现的问题是,当前的结构往往把拒绝不道德开发的负担放在开发人员的肩上,而由于他们的社会困境,他们不可能做到这一点。此外,这一挑战将变得越来越重要和普遍,因为人工智能正成为当前最具影响力的技术之一,对开发的需求巨大 [ 19 , 68 ]。人工智能领域的进步带来了数据分析和模式识别的空前进步,随后推动了该行业的进步。这一进步主要归功于机器学习,这是一种数据驱动的方法。在大多数情况下,所使用的数据都是历史数据,因此可以代表歧视性做法和不平等现象。因此,当前使用的许多机器学习模型巩固甚至加剧了现有的歧视性做法和不平等现象。此外,人工智能技术不必具有歧视性,其发展就是不道德的。基于面部识别、智能警务和安全城市系统的大规模监视已被多个国家使用 [ 29 ],社交媒体使用的新闻推送模型会创建回音室并助长极端主义 [ 24 ],自主武器系统正在生产中 [ 38 ]。
P-D-08研究摘要用于医学图像分割的黑盒改编Jay Nitin Paranjape; Shameema Sikder,医学博士,FACS; S. Swaroop Vedula,MBBS,博士,MPH;以及马里兰州巴尔的摩的Vishal M. Patel Johns Hopkins大学;约翰·霍普金斯大学医学院,马里兰州巴尔的摩简介:大型基础模型在一般计算机视觉任务中具有先进的图像细分,但是由于接受了非医疗数据培训,它们在医学图像细分方面经常表现不佳。当前用于将这些模型调整为医疗任务的方法通常假设对模型参数完全访问,这并不总是可行的,因为许多模型仅作为API或黑框可用。此外,对此类模型进行微调可能是计算密集的,并且隐私问题限制了与第三方共享医疗数据。方法:为了解决这些挑战,我们提出了BAPS(用于促进分割的黑盒改编),这是一种新型技术,旨在在黑盒条件下适应医疗图像分割中的基础模型。BAPS由两个组成部分组成:一个图像促销解码器(IP解码器),该解码器(IP解码器)从输入映像和提示中生成视觉提示,以及零订单优化(Zoo)方法,SPSA-GC,该方法可更新IP解码器,而无需通过基础模型进行回音。此方法允许在不了解模型的权重或梯度的情况下进行适应,因此它非常适合黑色盒子方案。结果:BAPS以四种不同的医学成像方式进行了测试,表明原始基础模型的性能大约提高了4%。公开可用的BAPS代码。实现了这种改进,而没有与基础模型的内部参数进行任何直接相互作用,从而突出了我们的黑盒适应方法的有效性。结论:BAPS为将基础模型调整为医学图像分割提供了创新的解决方案,尤其是在模型参数无法访问时。通过将图像推出解码器与零订单优化方法相结合,BAP可以有效地提高分割性能,而无需访问模型的内部结构。这种方法解决了计算和隐私方面的关键挑战,为在医学成像中应用基础模型提供了新的途径。
人工智能 (AI) 是 21 世纪的一项关键技术,它正在深刻影响我们的社会,并将决定性地影响未来的发展。通过其在世界各地的众多项目,歌德学院正在阐明我们生活自动化将带来的变化,以及我们每个人如何影响这些变化。它旨在在考虑人工智能发展时不仅以批判性视角而且以积极叙述来抵消对数字化和反乌托邦情景的顺从。例如,来自 24 个欧洲国家的 250 名开发人员、创意人员和研究人员参加了一场黑客马拉松,以开发创新的人工智能解决方案来帮助应对气候挑战。在对话系列“欧盟数字未来”中,艺术家和研究人员讨论了欧洲人工智能应用的未来设计。此外,与贝塔斯曼基金会合作实施的奖学金计划“The New New”支持青年活动家为公众利益创建数字工具。这三种形式都是“Generation A=Algorithm”项目的一部分,该项目旨在让欧洲各地的年轻人了解人工智能的风险、挑战和机遇。作为该项目的一部分,我们还与魏森鲍姆研究所合作开展了一项调查,重点关注欧洲年轻人对人工智能应用的担忧和希望,并将为歌德学院进一步参与该领域技术发展提供参考。“我们和人工智能——生活在数据化的世界:欧洲年轻人的经历和态度”强调必须更好地为年轻一代做好算法塑造生活的准备,并将人工智能讨论带到社会更广泛的阶层。它还表明,即使是“数字原住民”也低估了数字数据收集和分析的危险。并指出,年轻人往往对社交媒体中的信息感到满意,尽管现在人们已经知道排序算法产生的“回音室”会危及民主。必须始终严格审查人工智能应用提供的机会,并在必要时进行监管。它们应该以法治、人权和民主等价值观为指导。然而,只要权力掌握在少数高科技公司手中,这将很难实现。因此,除了教育工作者之外,政治家也被要求以透明、可持续的方式塑造人工智能的使用,并体现欧洲价值观和规范的精神。希望年轻人的参与很快将不再局限于对必要和可持续的气候政策的需求,还将包括对人工智能的政治负责任态度。
开发人员必须将他们的担忧告知管理层,但他们的抱怨可能会遭到冷漠对待,甚至威胁要更换他们 1 。这种情况属于社会困境,我们在本文中的目标是强调人工智能开发人员面临的社会困境对道德人工智能发展的阻碍。我们认为,当前人工智能开发中的道德实践方法未能解释开发人员在做正确的事情和保住工作之间做出选择的挑战。如果每个人都以某种方式行事,社会就会获得最佳结果,但实际上实施这种行为会给个人带来不利影响,以至于他们不得不避免这样做,这就存在社会困境。我们发现的问题是,当前的结构往往把拒绝不道德开发的负担放在开发人员的肩上,而由于他们的社会困境,他们不可能做到这一点。此外,这一挑战将变得越来越重要和普遍,因为人工智能正在成为当前最具影响力的技术之一,对开发的需求巨大 [ 1 , 2 ]。人工智能领域的进步推动了数据分析和模式识别的空前进展,进而推动了该行业的进步。这一进步主要归功于机器学习,这是一种数据驱动的方法。所使用的数据在大多数情况下都是历史数据,因此可以反映歧视性做法和不平等现象。因此,当前使用的许多机器学习模型巩固甚至加剧了现有的歧视性做法和不平等现象。此外,人工智能技术即使不具有歧视性,其发展也是不道德的。基于面部识别、智能警务和安全城市系统等大规模监控已被多个国家使用 [3],社交媒体使用的新闻推送模型产生了回音室效应并助长了极端主义 [4],自主武器系统正在生产中 [5]。人工智能伦理领域以及机器学习公平性等子领域发展迅速,例如 [6-9]。然而,目前尚不清楚人工智能开发在实施道德实践方面是否取得了很大进展,也不清楚开发人员是否被授权拒绝参与不道德的人工智能开发。《2021 年人工智能指数年度报告》[ 10 ] 等报告强调人工智能开发伦理缺乏协调。具体来说,该报告的九大亮点之一指出“人工智能伦理缺乏基准和共识”。大型公司(也被称为“大型科技公司”)是开发绝大多数人工智能系统的公司。这些公司对学术界和公众的压力作出了反应,发布了人工智能开发伦理的指导方针和原则。过去几年,这类文件的数量可谓激增 [ 11 – 13 ]。尽管研究人员和社会都认为人工智能开发伦理很重要 [ 14 ],但伦理准则和原则的泛滥遭到了伦理研究人员和人权从业者的批评,他们反对不精确使用伦理相关术语 [ 15 , 16 ]。批评者还指出,上述原则在大多数情况下不具约束力,而且由于其模糊和抽象的性质,在实施方面也没有具体规定。最后,它们没有赋予开发人员拒绝不道德的人工智能开发的权力。成熟的人工智能伦理的后期发展