©作者2023。Open Access本文是根据Creative Commons Attribution 4.0 International许可获得许可的,该许可允许以任何媒介或格式使用,共享,适应,分发和复制,只要您对原始作者和来源提供适当的信誉,请提供与创意共享许可证的链接,并指出是否进行了更改。本文中的图像或其他第三方材料包含在文章的创意共享许可中,除非在信用额度中另有说明。如果本文的创意共享许可中未包含材料,并且您的预期用途不受法定法规的允许或超过允许的用途,则您需要直接从版权所有者那里获得许可。要查看此许可证的副本,请访问http://创建ivecommons。org/licen ses/by/4。0/。Creative Commons公共领域奉献豁免(http://创建ivecommons。Org/publi cdoma in/Zero/1。0/1。0/)适用于本文中提供的数据,除非在数据信用额度中另有说明。
此外,为了支持我们在这一领域所做的工作,我们将工作政策的尊严重命名,以尊重工作政策,并更新了我们的平等和多样性政策,以包括公平和包容,因为我们认为公平需要将平等视为平等,以创造一个更公平的世界。平等旨在确保每个人都有相同的机会并以相同的方式对待。但是,我们知道人们在个人或工作生活的不同阶段可能会遇到缺点和歧视,因此有些人不会在同一地方开始。公平旨在为每个人提供成功所需的一切。它专注于“结果的平等”。我们认为,平等和公平都需要与多样性和包容一起以创造一个更公平的世界。“
这个术语自 20 世纪 50 年代就已存在,指的是一种高度信任和高度责任感的环境……这种环境远远超出了高层领导的范围,团队之间相互强化高标准……每个团队成员都知道他们的领导和队友会支持他们——他们的最大利益是他们的心头之物。因此,他们可以自信地说出让事情变得更好的话。
1.为了援引第 8 条,申请人必须证明其申诉至少属于该条所确定的四项利益之一,即:私人生活、家庭生活、家庭和通信。当然,有些事项涉及不止一项利益。首先,法院确定申请人的诉求是否属于第 8 条的范围。接下来,法院审查该权利是否受到干涉,或国家是否履行了保护该权利的积极义务。第 8 条第 2 款规定了国家可以干涉受保护权利的享有的条件,即为了国家安全、公共安全或国家经济福祉,为了防止混乱或犯罪,为了保护健康或道德,或为了保护他人的权利和自由。如果限制是“依法”或“法律规定”的,并且“在民主社会中是必要的”,则可以允许限制,以保护上述目标之一。在评估民主社会的必要性测试时,法院通常需要平衡第 8 条保护的申请人的利益和《公约》及其议定书其他条款保护的第三方的利益。
2. 哪些人权影响? 5 3. 这对企业意味着什么? 8 3.1 法律风险 8 3.2 财务、运营和声誉风险 10 4. 建议 11 4.1 建立人权治理框架 11 4.2 采用和实施人权政策 12 4.3 采用和实施致力于自由、事先知情同意和有意义协商的社区参与政策 14 4.4 采用和实施人权维护者政策 17 4.5 嵌入人权尽职调查 18 4.6 进行人权影响评估 19 4.7 停止、预防、减轻和补救影响 20 4.8 建立和实施有效的运营层面的人权申诉机制 20 4.9 跟踪、评估和报告人权绩效 21 4.10 提供人权培训 22 4.11 评估、建立和利用与业务合作伙伴的杠杆作用 22 4.12 与社区一起探索项目公平模式 23 4.13 探索联盟和多利益相关方方法 24
对人工智能系统的批判性审查通常应用公平、正义、问责和安全等原则,这些原则反映在欧盟人工智能法案等人工智能法规中。这些原则是否足以促进支持人类繁荣的系统设计?即使一个系统在某种意义上是公平、公正或“安全”的,它也可能具有剥削性、强制性、不便性,或与文化、个人或社会价值观相冲突。本文提出了迄今为止被忽视的互动伦理的一个维度:人工智能系统应如何对待人类。为此,我们探讨了尊重的哲学概念:如果尊重是每个人都需要和应得的,那么技术难道不应该以尊重为目标吗?尽管尊重在直观上很简单,但在哲学上它是一个复杂的概念,具有许多不同的含义。与公平或正义一样,尊重可以描述人们应如何受到对待;但尊重主要不是与利益或惩罚的分配有关,而是与人们如何看待彼此以及这如何转化为感知、待遇和行为有关。我们从多种文献中广泛探讨尊重,综合了康德主义、后康德主义、戏剧学和代理现实主义设计视角对尊重的看法,目的是共同探讨尊重对人工智能的意义。通过这样做,我们确定了尊重可能引导我们走向更具社交性的人工制品的方式,这些人工制品以道德和包容的方式尊重和认可人类,而我们已经进化出这种语言来每天相互交流。
现代大规模语言模型的写作质量接近人类水平。这预示着人工智能写作伴侣的出现,它们将在人类控制下进行人工智能主导的写作,超越仅限于修订和构思支持的传统写作工具。然而,人机合作写作可能会超越共同创作的界限,危及作家的控制权、自主权和所有权。我们对 7 位业余爱好者和 13 位专业作家进行了设计工作簿研究,发现了采用人机合作写作的三组主要障碍。故事作家希望保留对写作的控制权,而不是让人工智能占据主导地位,因为他们 (1) 在将想法转化为文字时优先考虑情感价值,而不是人工智能生成的写作效率;(2) 在具有挑战性的子任务(例如,创造角色和对话)方面有很高的自信和不信任人工智能;(3) 预计人工智能控制机制与他们的写作策略不匹配。我们为尊重故事作家个人价值观和写作方法的人工智能伴侣奠定了基础。
骚扰是令人反感的或不受欢迎的行为,评论,欺凌或应有的行动或应合理地知道的行为,将冒犯或羞辱另一个人,或不利地影响另一个人的健康和安全。这可以包括单一事件或一系列事件,这些事件本质上可以是歧视性的,也可以是非歧视性的,旨在恐吓,冒犯,退化或羞辱某个特定的人或群体。骚扰包括种族,宗教信仰,肤色,身体残疾,年龄,祖先,起源地,婚姻状况,收入来源,家庭状况,家庭状况,性别认同,性别认同,性别表达和性取向以及性良好或性良好或进步或性别验证或进步或进步或进步或进步,骚扰包括行为,评论,欺凌或行动。行为,评论,欺凌或行动无需故意构成骚扰,也不需要针对特定的个人或团体。MEG不容忍骚扰。
国家人工智能政策应优先考虑尼日利亚的民主价值观;遵守尼日利亚的宪法原则;并帮助满足尼日利亚人民的社会经济需求。该政策应维护算法问责制、数据保护、机器学习模型决策的可解释性以及保护公民的人权不受侵犯的标准。尼日利亚的人工智能政策应强调尼日利亚宪法的基本人权规定,特别是隐私权、不歧视权和保护尼日利亚人的尊严。该政策还应符合尊重权利的超国家人工智能规范和标准,以促进平等、包容、多样性、安全、公平、透明和算法问责制。