先进技术正在以不可预测的方式改变我们的工作生活。因此,对技术引发大规模失业的恐惧再次出现。与工作技术替代相关的不稳定性增加可能导致物质主义价值观的倒退,这种价值观更容易接受威权主义和仇外心理。至关重要的是,这些价值观与未来工作所需的技能关系不大,未来工作往往被描述为要求更高水平的创新、创造力和社交技能,这些技能与后物质主义价值观有关。目前的研究迄今为止忽视了大规模技术替代工作的文化方面,本研究对此进行了阐明。我们研究了 2002 年至 2018 年期间欧洲职业价值观与职业自动化之间的关系如何发展。结果表明,职业价值观在整个时期内一直相当稳定。职业价值观并没有像预期的那样,在环境变得越来越不稳定或创新驱动的情况下,变得更适合或更不适合人工智能社会。论文表明,这种社会类型的文化适应尚未发生。
2024 年 2 月 8 日,市长 Muriel Bowser 为 DC 的 AI 部署创建了一个全面的、以价值观为导向的框架。• 六个总体 AI 价值观。• (这个)公共 AI 价值观协调咨询小组。• 由技术专家组成的内部 AI 工作组。• 各机构和全区规划。
摘要 欧盟人工智能高级专家组和 IEEE 等组织最近制定了在设计和部署人工智能 (AI) 时应遵守的道德原则和 (道德) 价值观。这些包括尊重自主、不作恶、公平、透明、可解释性和问责制。但我们如何确保和验证人工智能系统是否真正尊重这些价值观?为了帮助回答这个问题,我提出了一种方法来确定何时可以说人工智能系统体现了某些价值观。这种解释将体现的价值观理解为旨在将这些价值观嵌入此类系统的设计活动的结果。人工智能系统在这里被理解为一种特殊的社会技术系统,与传统的社会技术系统一样,由技术工件、人类代理和机构组成,但此外还包含人工智能代理和某些技术规范,这些规范规范了人工智能代理与系统其他元素之间的交互。讨论了在人工智能系统中嵌入价值观的具体挑战和机遇,并得出了一些在人工智能系统中更好地嵌入价值观的经验教训。
随着人工智能在一系列领域的应用取得了重大进展,人工智能伦理[1]和安全[2]等领域也获得了关注。人工智能伦理和安全涉及多种问题,其中价值观一致问题可能是最重要的,也可能是最难的[3,4]。简而言之,它是关于确保人工智能系统,特别是尚未开发超级智能的通用人工智能系统,追求的目标和价值观与人类的目标和价值观相一致。本文对上述定义中的“人类”一词提出质疑,因为这意味着如果人工智能系统不一定与其他生物的利益一致,那也没关系。特别是,本文关注非人类动物的利益。因此,我们主张将上述定义扩大到人类和非人类动物的目标和价值观。在人类历史上,许多伦理观点已经发生改变和发展。 Bostrom 和 Yudkowsky 指出,人工智能伦理不应该是一成不变的,而应该接受变化,如果人类认识到以前的道德错误 [5]。如后所述,对待非人类动物就是一个道德问题的典型例子,它会随着时间的推移而发生变化或正在发生变化。因此,我们的目标是将非人类动物纳入人工智能伦理的持续研究中。除了极少数的尝试外,关于人类对非人类动物的道德义务的审议直到 20 世纪后期才开始获得动力 [6],例如通过契约主义的方法 [7]。主要标准是承认(许多物种的)非人类动物是有感知的,因此能够感受到痛苦 [8]。这也导致了“物种歧视”一词的传播,Horta 将其定义为“对那些不属于某一物种的物种进行不合理的不利考虑或待遇”[9](第 1 页)。道德方面的进步也开始体现在法规方面。如今,许多国家的国内法都承认非人类动物具有感知和痛苦(https://www.globalanimallaw.org/database/national/index. html,2021 年 4 月 11 日访问),而《世界动物福利宣言》仍处于提案阶段(https://www.globalanimallaw.org/database/universal.html,2021 年 4 月 11 日访问),而《生物多样性公约》等全球协议
主要是缓刑,但也有假释——学者们称这种现象为“大规模监督”。[10] 美国国家司法研究所认为,人工智能有机会促进对这一人群的风险和需求的实时评估,以及移动服务的提供和该机构所称的“个人智能追踪”。该研究所的 Eric Martin 和 Angela Moore 提供了以下生物识别用例来说明这种潜力:“人工智能可穿戴设备可以监测生物数据,评估个人的压力和情绪,并向社区监督官员发送警报,告知该人可能处于危险境地。”他们认为,这将使缓刑官员能够“在犯人最有可能重犯的时候,以外科手术般的精准度”集中有限的资源。作为对目前基于 GPS 的电子监控设备的补充,他们宣称人工智能增强型设备有潜力在官员对通知做出反应之前“与个人互动,以缓解危险局势”。例如,人工智能可能会进行干预,“通过鼓励人们离开危险地点或参与认知行为疗法等程序。” [11]
尽管我被誉为哲学家,但我在研究信息技术的伦理、社会和政治层面时,却越来越倾向于信息技术的科学和工程。我将这种兴趣追溯到与 Batya Friedman 合作的一项关于计算机系统偏见的研究项目(“计算机系统中的偏见”,ACM Trans.信息系统,1996 年 7 月,第340-346 页)。这个项目产生了一个引人注目而又神秘的想法:计算机和信息系统可以体现价值观。我发现这个想法如此引人注目,以至于从那时起它几乎劫持了我的工作道路,迫使我努力应对极其复杂的技术细节。它的神秘之处在于将价值观视为技术的一部分,而研究信息技术的社会、伦理和政治方面的学者和研究人员通常不会采用这种观点。
本文介绍了在科学课程和科学教学中引入道德、价值观、伦理和品格教育的理由和论据。作者研究了科学技术的快速进步和全球化如何加剧了社会生活的复杂性,并强调了道德、价值观和伦理的重要性。为了帮助概念化和阐明学校课程发展的坚实理论框架,对与道德、伦理和品格教育相关的哲学和教育问题进行了综合和分析。讨论了在科学中教授道德/伦理和实施品格教育的各种障碍。为了获得普遍接受,概述了现代西方道德教育的哲学和理论基础与普遍的伊斯兰道德价值观和教育之间的比较研究,这可能对未来的教育工作者和研究人员有所帮助。提出了一系列教学、学习和教育技术,这些技术可以培养学生心中的道德、价值观和伦理,并培养在科学上取得成功所需的各种技能和属性。
荷兰代尔夫特理工大学伦理与技术教授 Ibo van de Poel 和荷兰埃因霍温理工大学技术伦理副教授 Lambèr Royakkers 指出,即使工程师仅仅注重创造经济价值,他们开发的产品也往往会产生根本的社会影响,例如增加或减少边缘化人群的机会:“从这个意义上说,工程是一种本质上受道德驱动的活动。然而,让世界变得更美好并非易事,也不可能仅凭工程知识就能实现。它还需要伦理反思和知识等。”24 在他们的著作《伦理、技术与工程:导论》中,他们概述了工程师培养道德情感、道德分析、道德创造力、道德判断、道德决策和道德论证所需的技能。他们所做的决定可能会根据残疾、教育背景、性别角色或经济状况等因素纳入或排除潜在用户。
在某些情况下,这些价值观陈述是更大的品格教育计划的一部分,该计划包括公民教育、社交技能教学和服务学习。品格教育计划中嵌入的价值观的一个例子是“品格至上!”计划的六大品格支柱,包括可信度、尊重、责任、公平、关怀和公民身份。另一个例子可能是卡内基教学促进基金会主席 Ernest L. Boyer (1995) 确定的七种美德,包括:诚实、尊重、责任、同情、自律、毅力和奉献。然而,在许多情况下,学校制定的价值观可能不是这种单独计划的一部分,而可能是在学校或地区层面制定的(Peterson & Skiba,2001)。虽然确切的措辞可能有所不同,但各个学校确定的价值观内容往往有相当大的重叠。如果它们真正代表了更大的社区所认同的核心价值观,这并不出乎意料。
• 关系 - 我们旨在发展长期关系,并利用我们广泛的网络来实现获取澳大利亚创新技术的民主化。我们坚持这些价值观,这些价值观巩固了我们在与澳大利亚研究团队、我们的共同投资者和我们自己的股东打交道时的与众不同之处。