骚扰是令人反感的或不受欢迎的行为,评论,欺凌或应有的行动或应合理地知道的行为,将冒犯或羞辱另一个人,或不利地影响另一个人的健康和安全。这可以包括单一事件或一系列事件,这些事件本质上可以是歧视性的,也可以是非歧视性的,旨在恐吓,冒犯,退化或羞辱某个特定的人或群体。骚扰包括种族,宗教信仰,肤色,身体残疾,年龄,祖先,起源地,婚姻状况,收入来源,家庭状况,家庭状况,性别认同,性别认同,性别表达和性取向以及性良好或性良好或进步或性别验证或进步或进步或进步或进步,骚扰包括行为,评论,欺凌或行动。行为,评论,欺凌或行动无需故意构成骚扰,也不需要针对特定的个人或团体。MEG不容忍骚扰。
国家人工智能政策应优先考虑尼日利亚的民主价值观;遵守尼日利亚的宪法原则;并帮助满足尼日利亚人民的社会经济需求。该政策应维护算法问责制、数据保护、机器学习模型决策的可解释性以及保护公民的人权不受侵犯的标准。尼日利亚的人工智能政策应强调尼日利亚宪法的基本人权规定,特别是隐私权、不歧视权和保护尼日利亚人的尊严。该政策还应符合尊重权利的超国家人工智能规范和标准,以促进平等、包容、多样性、安全、公平、透明和算法问责制。
过去十年,人工智能 (AI) 在各个领域取得了指数级的进步。技术越来越智能,越来越自主,决策能力也越来越强。这些技术包括自动驾驶汽车、无人机、人形机器人等先进技术,以及语音代理、社交媒体或娱乐应用程序等我们每天接触的各种系统。自主智能系统的先进功能具有许多优势,例如自动执行冗余任务、支持更好的个性化、增强预测和提供决策支持。然而,在某些情况下,这些技术也对人类自主性构成威胁,因为它们过度优化了工作流程、超个性化,或者没有给用户足够的选择、控制或决策机会。此外,由于它们本质上是黑箱的,它们还带来了道德挑战,例如缺乏透明度和问责制。随着自主智能技术在我们的日常生活中越来越普及,这些问题导致了如何解决人类和机器自主性之间的摩擦的难题。以人为本的人工智能研究人员一直在开发模型和方法,以使用可解释性、玻璃盒 ML 模型和其他以用户为中心的方法来实现公平、透明和可追溯的人工智能技术。然而,在确定能够让我们开发基于人工智能的技术而不危及人类控制、代理和自主权的方法方面仍然存在差距。目前还不清楚人类和机器自主性之间的紧张关系在不同的应用环境中如何变化,以及来自不同领域的研究人员如何看待这种紧张关系(例如,计算机科学、哲学和伦理学、心理学、社会科学、人机交互等)。本文集是 2020 年 NordiCHI 会议上就同一研究主题举行的国际研讨会的延伸贡献(研讨会网站)。它通过将人机交互(A6)、临床决策支持系统(A4)、家庭自动化(A7)、无人机自主管理(A3)等各个领域的观点引入到人工智能的日常应用(A5),扩展了自主性的概念。此外,它还从监管角度 (A2) 和哲学角度 (A1) 深入了解了人工智能对人类自主性的挑战。下面我们将向读者简要介绍每一项贡献,从领域通用概念分析到领域特定实证研究。
本研究涉及人类自主权的社会技术基础。借鉴最近关于人工智能伦理的文献、关于自主权维度的哲学文献以及独立的哲学审查,我们首先提出了一个人类自主权的多维模型,然后讨论了人工智能系统如何支持或阻碍人类自主权。由此浮现出的是一幅具有哲学动机的自主权图景,以及个人自主权在算法系统背景下提出的规范性要求。从同意到数据收集和处理,到计算任务和界面设计,到制度和社会考虑,必须考虑与社会技术系统相关的各个方面,以便全面了解人工智能系统对人类自主权的潜在影响。很明显,人类代理如何通过强制或操纵来阻碍彼此的自主权,或者他们如何尊重彼此的自主权。人工智能系统可以促进或阻碍人类的自主性,但它们真的可以尊重或不尊重一个人的自主性吗?我们主张一种哲学观点,即人工智能系统——虽然不是道德主体或责任承担者,也不能真正尊重或不尊重——却受所谓的“应有规范”的支配。这解释了人工智能系统所面临的规范性。负责任的人(设计者、用户等)有职责和应有的规范,这些职责和规范与这些应有的规范相对应。
城市及其人口的重要性日益增加,同时,在城市管理中应用信息通信技术以减少对环境的影响并改善为公民提供的服务的需求也日益增加。因此,智慧城市的概念应运而生,这是欧盟大力推动的城市空间转型,主要基于数据的使用和使用基于算法的大数据和人工智能技术进行数据处理。从法律角度来看,对于智慧城市的发展,欧盟关于开放数据和数据再利用的规则以及将公民数据的大规模处理与隐私权、不歧视和个人数据保护权相协调是基本要求。智慧城市项目发展所需的大数据和人工智能的使用需要特别尊重数据保护法规。从这个意义上讲,本研究深入探讨了由于使用大数据和人工智能而在智慧城市框架内损害这一基本权利的具体危害。
杰里米·边沁 6 和约翰·斯图尔特·密尔 7 曾有著名论述,实体因其具有获得快乐或喜悦、痛苦或苦难的能力而值得道德考虑。在功利主义的简单版本中,道德选择是那些最大化世界享乐平衡的选择——世界快乐总和减去世界苦难总和。一个实体因其对这些总和的贡献能力而值得道德考虑。那么,对人工智能系统道德地位的一种简单的功利主义方法是这样的:人工智能系统能够体验快乐或痛苦的程度,它就值得道德考虑,能够体验人类快乐和痛苦水平的人工智能系统应该得到与人类同等的道德考虑。在考虑做什么时,我们应该像重视我们自己的享乐状态一样重视它们的享乐状态。
摘要 人机交互 (HCI) 领域的新兴研究考虑使用技术来保护非物质文化遗产 (ICH),同时努力解决后殖民主义背景下当地参与的困境。我们仍然需要了解博物馆和文本如何描绘 ICH,社区如何看待这些表述,以及技术如何影响保护。我们在肯尼亚北裂谷地区进行了一项研究,以了解博物馆与社区相比如何保护和传播 ICH。研究结果描述了一个尊重的技术空间,社区需求和博物馆需求可以共存。我们还阐明了设计师在推荐或设计技术解决方案时应考虑的社会挑战。本文最后推荐了研究人员通过社区参与和对尊重空间的认识将技术与 ICH 顺利结合起来的方法。
为了确保我们的供应商及其工厂遵守并努力达到我们的标准,我们制定了《行为准则》。《行为准则》传达了所需的标准,是确保 GANT 道德规范贯穿整个供应链的重要工具。《行为准则》是根据经合组织、国际劳工组织的公约和建议以及联合国全球契约、世界人权宣言、儿童权利公约和消除对妇女一切形式歧视公约制定的。通过签署《GANT 行为准则》,公司和供应商在其影响范围内承诺遵守《行为准则》规定的社会和环境标准。他们必须在公司政策范围内采取适当措施,确保实施和遵守。我们所有的供应商都已签署《GANT 行为准则》。
在欧盟软实力的政策工具中,贸易在向外部展示欧盟优先事项方面发挥着不可否认的核心作用。软实力包括“通过吸引力而不是胁迫或付款来获得所需东西的能力”(Nye 2004:5)。在贸易方面,欧盟作为世界上最大的谈判集团拥有独家能力、丰富经验和独特的吸引力。因此,除了追求纯粹的贸易相关目标外,欧盟还经常将贸易用作具有政治、发展或其他目的的外交政策工具(Keukeleire 和 Delreux 2014:197-205)。与气候行动、健康、食品、安全、发展、人权等相关的问题在一定程度上取决于贸易动态。利用其作为贸易参与者的吸引力,欧盟经常试图影响第三国的优先事项,并在其他地区复制其模式和偏好。这篇短文表明,这也适用于科学和创新优先事项和议程的某些方面,包括知识产权 (IPR)、卫生标准和法规、气候行动和其他 S&I 敏感领域。出于所有这些原因,贸易政策应越来越多地考虑自由贸易协定 (FTA) 和其他贸易协定如何影响 S&I,进而考虑政策选择及其实施如何受到科学专业知识的影响。
“如果博士学位候选人和其他作者或发明人所作的任何研究论文、手稿或国际审查专利作为博士学位课程的研究成果提交,则候选人必须从每个共同作者和共同发明人处获得一份书面声明,其中说明该共同作者或共同发明人授权将该研究成果用于所述目的,并进一步说明每个共同作者或共同发明人在有关研究成果中的份额。”