8 英国于 2014 年颁布了针对 TDM 的有限例外,参见 1988 年《版权、外观设计和专利法》第 29A 条,但已宣布进一步推进的计划,参见 UKIPO,《新闻稿:人工智能和知识产权 - 版权和专利》(2022 年 6 月 28 日)(https://www.gov.uk/government/news/artificial-intelligence-and-ip-copyright-and-patents)。日本《版权法》第 30(4) 条允许非表达性使用受版权保护的作品,只要这种使用不会“根据作品的性质或目的或其使用情况,不合理地损害版权所有者的利益……”。参见日本《版权法》(1970 年 5 月 6 日第 48 号法案,经修订至 2022 年 1 月 1 日),第 30(4) 条,可查阅(https://wipolex.wipo.int/en/legislation/details/21342)。2019 年 4 月,欧盟通过了《数字单一市场指令》(“DSM 指令”),其中针对文本和数据挖掘提出了两项强制性例外。DSM 指令第 3 条要求所有欧盟成员国对非营利研究领域的 TDM 实施广泛的版权例外。DSM 指令第 4 条包含第二项强制性豁免,该豁免范围更具包容性,但较窄。请参阅,2019/790 号指令,OJ 2019 (L 130/92)。另请参阅 Pamela Samuelson,《版权作品的文本和数据挖掘:合法吗?》64:11 C OMMUNICATIONS OF THE ACM 20 (2021)。
然而,表达和实施这些思考是困难的,特别是在机器人和人工智能 (AI) 等新的复杂领域。为了这个目的,本书收集了体现人工智能的多样性、公平性和包容性 (DEI4EAI) 项目的思考、见解和工具。本书面向从事体现人工智能工作并有兴趣为更公平和公正的未来做出贡献的学生、研究人员、设计师、开发人员和社会利益相关者。所有那些被称为普通的东西实际上都是文化性的:它们代表着价值观、信仰和叙述,影响我们如何收集和使用数据、如何设计算法、如何定义代理、如何塑造人工智能体现、如何设计交互以及我们如何定义体现人工智能干预。尽管角色和能力不同,设计师、研究人员和更广泛的利益相关者(如政策制定者和社区)都有责任反思他们的价值观、观点、偏见和刻板印象如何影响具体化的人工智能技术。这很重要,因为孤立的实践会影响我们评估行为风险和危害的能力。为了防止设计有害和不充分的技术,需要以反思和开放的态度审视叙述、实践和方法,以转变思维方式。
© 作者 2022。开放存取 本文根据知识共享署名 4.0 国际许可进行授权,允许以任何媒体或格式使用、共享、改编、分发和复制,只要您给予原作者和来源适当的信任,提供知识共享许可的链接,并指明是否做了更改。 本文中的图片或其他第三方资料包含在文章的知识共享许可中,除非资料的致谢中另有说明。 如果资料未包含在文章的知识共享许可中,且您的预期用途不被法定规定允许或超出允许用途,则需要直接从版权所有者处获得许可。 要查看此许可证的副本,请访问 http://creativecommons.org/licenses/by/4.0/ 。知识共享公共领域贡献豁免(http://creativeco mmons.org/publicdomain/zero/1.0/)适用于本文中提供的数据,除非数据来源中另有说明。
• 平等涉及给予每个人相同的资源和机会。然而,平等并不能确保每个人都能获得相同的结果,因为它没有考虑到影响某些群体的系统性障碍。• 公平解决不平衡的社会制度本身,认识到个人的情况不同,需要不同的资源和机会才能实现平等的结果。• 差距是指差异,通常是在不公平差异的背景下。
部长多元化与包容性办公室将监督该计划的实施,并已召集了一个实施小组,该小组由负责该计划行动项目的各局和办公室的代表组成。该小组将每季度召开一次会议,以确保在规定的时间范围内实现目标和目的,并确保该计划得到适当的资源,特别是在未来几年。该计划及其随附的内部实施文件被视为“动态文件”,将进行调整以适应确定的最佳实践和新想法。实施小组将向由各局高级官员组成的部门多元化与包容性领导委员会提供最新信息和指导,以确保 DEIA 计划在整个部门内实施。
互联网拥塞控制(CC)长期以来在网络系统中提出了一个挑战控制问题,最近的方法越来越多地纳入了深度强化学习(DRL),以增强适应性和性能。尽管有希望,但基于DRL的CC方案通常会遭受公平性差,尤其是在培训期间未见的网络环境时。本文介绍了陪审团,这是一种基于DRL的新型CC计划,旨在实现公平性。At its heart, Jury decouples the fairness con- trol from the principal DRL model with two design elements: i) By transforming network signals, it provides a universal view of network environments among competing flows, and ii) It adopts a post-processing phase to dynamically module the sending rate based on flow bandwidth occupancy estima- tion, ensuring large flows behave more conservatively and smaller flows more aggressively, thus achieving a fair和平衡的带宽分配。我们已经完全实施了陪审团,广泛的评估证明了其在仿真和现实世界网络的广泛范围内的强大结合特性和高性能。
•就业策略的公平和公平符合部指令的要求26。•总体全面策略将遵循里程碑方法,重点关注招聘过程,政策和程序更新,遵循就业系统审查的建议以及从工作场所人口普查中获得的学习。•该策略是全面的,遵循学生驱动的,能力和基于证据的方法。•工作场所权益将使用高质量的数据来了解推动不平等的因素,并能够针对行动以实现最有效的结果。背景:Peel地区学校董事会以及最近三年的最近,致力于在2020年3月发布的部指令之后在董事会上解决系统性歧视。董事会要解决的结论指令是指令26,该指令要求董事会在ESR和劳动力人口普查的结论和发现后,在就业战略中建立公平和公平性。指令26个状态:
摘要,解决了AI模型中偏见和公平性的文献正在快速增长,这使得新颖的研究人员和从业人员很难拥有该领域的鸟眼视图。特别是,已经提出了许多政策计划,标准和最佳实践,以设定原理,程序和知识库,以指导和操作偏见和公平的管理。本文的第一个目的是简洁地调查公平AI方法和资源的最新作品,以及AI中偏见的主要政策,目的是为研究人员和从业者提供这样的鸟眼指导。本文的第二个目标是通过利用Nobias研究项目的结果来为政策建议和最佳实践做出贡献。我们介绍并讨论了一些围绕Nobias体系结构组织的相关主题,该主题由法律层组成,专注于欧盟的背景,以及一个偏见管理层,专注于理解,缓解和计算偏见。
本报告是由资源为未来(RFF),环境防御基金(EDF)和其他合作伙伴编写的一系列论文的结晶,这些论文审查了培训政策和计划,以促进对工人和社区的公平性,以过渡到低层气体排放经济,通常被称为公正过渡。该系列关注现有的公共政策和计划,以主题为主题为“工具箱中的工具”,以寻求有效策略来应对与过渡相关的挑战的有效策略。我们专注于可以支持煤炭,石油或天然气生产或消费的地区的工人和社区的政策和计划,一直是繁荣的领先雇主和驱动力。该系列中的其他报告介绍了美国的说明性案例,并描述了国外的政策创新。
已经开发了各种工具和实践来支持从业者识别、评估和减轻人工智能系统造成的公平相关危害。然而,先前的研究强调了这些工具和实践的预期设计与它们在特定环境中的使用之间的差距,包括组织因素在塑造公平工作中所起的作用所造成的差距。在本文中,我们针对一种这样的实践调查了这些差距:人工智能系统的分类评估,旨在揭示人口群体之间的绩效差异。通过与来自三家科技公司的十个团队的三十三名人工智能从业者进行半结构化访谈和结构化研讨会,我们确定了从业者在设计分类评估时的过程、挑战和支持需求。我们发现,从业者在选择绩效指标、确定最相关的直接利益相关者和人口统计群体以及收集用于进行分类评估的数据集时面临挑战。更普遍地说,我们发现对公平工作的影响源于缺乏与直接利益相关者或领域专家的接触、优先考虑客户而不是边缘群体的业务要求以及大规模部署人工智能系统的动力。