摘要:这篇概念文章的目的是证明提出措施,行动和决定以改善人工智能的伦理(AI)取决于所选择的伦理理论立场。为了实现这一目标,我们在两个阶段进行。首先,我们对AI提出的三个不同的道德问题进行了表征和综合。其次,我们选择了哲学文献提出的两个主要道德立场。最后,我们证明了每种AI道德问题的道德理论立场的选择会导致不同的决定。我们证明,对于每个道德问题的每个类别,道德决策及其后果都取决于所选择的道德理论。本文的价值是要强调,关于AI伦理的文献经常忽略选择伦理立场的含义。为了尝试解决道德问题,有必要达成协议并进行讨论,以考虑不同的道德理论立场及其在决策方面的后果。
对社会科学研究的兴趣越来越多,以利用智能数据分析来自动收集和分析大量数据。潜在的有趣但相对尚未探索的领域是伦理学,到目前为止,在理论上而不是经验方面,它已经更加接近,尤其是在机器学习方法上。Twitter等网络媒体的瞬时和有见识的性质为情感,观点,信息和互动提供了直接的渠道,并充满了道德观点[14]。因此,Twitter是跨学科研究的有前途的数据源。,大多数社会科学研究都检查了信息的分歧,而不是内容[1,7,17]。即使分析内容,这主要集中在商业或政治动机上[2,18]。同样在智能数据分析中,社交媒体监控是一个受欢迎的话题,但通常仅限于商业应用程序的情感或意见挖掘,并且缺乏理论上的社会科学基础。因此,有一种方法可以将道德研究与社交网络内容分析相结合。这项研究的主要目的是提供道德机器的概述,道德机器的概念系统证明并监视道德情绪
全球各国政府都希望通过相对抽象的目标,在减少排放的同时,尽可能减少对经济和选民基础的干扰,如 2050 年实现净零排放 (Government of Canada, 2020a)。然而,如果没有技术变革或产业重组,全球经济将需要萎缩 42%,才能保持在建议的 1.5°C 变暖目标以下 (Freitag et al., 2021)。全球基础设施严重依赖化石燃料来获取能源(最大的温室气体 (GHG) 排放部门)和商品生产 (Ritchie & Roser, 2020)。因此,工业界和政府都渴望通过新技术“颠覆性创新”摆脱气候变化,从而避免昂贵的工业改革 (Wilson & Tyfield, 2018)。人工智能 (AI) 是预防灾难性气候变化影响最常被提及的技术。目前,政府和行业可以在任何领域部署人工智能技术,预计到 2030 年,人工智能创新将使温室气体排放量减少 1.5-4%(Joppa & Herweijer,2019 年)。然而,这些减排量远不足以避免气候灾难。它们被同一信息通信技术 (ICT) 部门产生的排放进一步抵消,目前该部门的排放量占全球排放量的 2.1-3.9%(Freitag 等人,2021 年)。虽然人工智能优化可以减少能源和材料消耗,但政府、行业和公民应该在资源需求和道德影响的背景下考虑这些优化。
道德心理学围绕三类主体和患者形成:人类、其他动物和超自然生物。人工智能的快速发展为我们的道德心理学带来了第四类需要处理的事物:智能机器。机器可以充当道德主体,做出影响人类患者结果的决策,或在无人监督的情况下解决道德困境。机器可以被视为道德患者,其结果可能受到人类决策的影响,这对人机合作产生重要影响。机器可以是道德代理人,人类主体和患者将其作为代表派往道德互动中,或用作这些互动中的伪装。在这里,我们回顾了关于机器作为道德主体、道德患者和道德代理人的实验文献,重点关注最新发现及其提出的未决问题。
摘要 人工智能 (AI) 为地球科学提供了许多机会来提高生产力、减少模型中的不确定性并促进新知识的发现。地球科学也面临风险,从过时、不准确和错误信息的传播到对基本人权的威胁。尽管联合国教科文组织等许多机构都制定了道德人工智能框架,但它们水平很高,缺乏地球科学方面的实际细节,尤其是大型语言模型 (LLM)。当前地球科学人工智能/LLM 的设计、训练和部署方式与核心道德原则不一致就证明了这一点。利用联合国教科文组织和国际科学理事会 (ISC) 的原则和框架,提出了十项建议,以弥合实践与这些道德框架之间的差距。批判现实主义被用作一种基本哲学,它有可能利用判断理性为伦理和道德问题提供合理的建议。这些建议可能有助于国际社会的利益相关者就地质科学中道德人工智能的“良好面貌”得出结论,重点是语言模型及其应用。这可能会为开发商、监管者、政策顾问、期刊编辑、地质调查、协会、机构和工会、出版商、资助机构、地球科学家和决策者提供信息。
2024 年 4 月和 5 月,ICAEW 举办了一系列圆桌会议,旨在为会计行业制定有关人工智能 (AI) 道德使用的指导。这些圆桌会议汇集了来自广泛专业知识领域的参与者,不仅包括会计专业人士,还包括来自技术、道德、法律和学术等领域的专家,以确保尽可能全面和全面的观点。与会者一致认为,随着人工智能迅速进入会计主流并重塑该行业,制定道德原则和指导至关重要且迫切需要。以 ChatGPT 等大型语言模型为代表的易于使用的界面使人工智能应用民主化。虽然人工智能曾经是计算机科学家的专属领域,但现在任何人都可以与先进的人工智能系统交互。这种广泛的可访问性带来了巨大的风险和道德困境。然而,该行业的发展可能受到阻碍,原因不是技术的限制,而是采用的速度以及用户和早期采用者对各种用例的适应程度。信任的重要性,尤其是削弱利益相关者信心的风险,是讨论的中心主题。与会者强调需要区分“传统人工智能”和“生成人工智能”,并指出每种人工智能的具体用例和相关风险。对于生成人工智能,主要问题是技术速度和规模会放大潜在风险。圆桌会议参与者充分认识到这些广泛的风险,包括:
我们的道德文化推动着我们对人工智能的愿景,这主要由我们的五大核心价值观所引导:诚实、信任、大胆、自由和谦虚。这些价值观共同构成了我们的方法。大胆驱使我们像企业家一样行动,发现并追求该领域创新带来的机遇。我们渴望通过赋能、补充和增强人类的认知、社交和文化技能来增加自由,让人们对自己的生活方式有更多的发言权。谦虚让我们牢记降低风险的必要性,构建强大、安全和以人为本的解决方案。诚实支撑着我们对透明度的承诺,以及创造负责任和可控的解决方案。我们认为信任是与客户、用户和我们生态系统的所有成员建立长期相互依存关系的重要基础;我们对信任的重视推动着我们努力创造保护隐私并确保平等访问权和公平待遇的人工智能。
一切始于英国数学家阿兰·图灵提出的问题——“机器能思考吗?”科学家们试图回答这个问题,这催生了人工智能。顾名思义,“人工智能”是机器表现出的非自然智能,与人类和其他动物的自然智能不同。人工智能基于这样的信念:人类智能可以被模仿和计算机生成。自 20 世纪 50 年代以来,人工智能研究发展迅速。图灵关于思考机器的想法得到了麻省理工学院 (MIT) 的美国联合创始人马文·明斯基的进一步发展,他证明了人工神经网络可以自动生成。这反过来又导致了 20 世纪 80 年代个人电脑的兴起,现在又导致了埃隆·马斯克以成功的特斯拉品牌推出自动驾驶汽车。2014 年,日本任命了第一位 AI 董事会成员 VITAL,3 因 AI 能够比人类更快地预测市场趋势而拯救了投资公司 Deep Knowledge Ventures,使其免于破产。围绕 AI 的研究、开发和创新仍在继续,包括预测、图像分析、语音识别、机器学习等,影响着人们、利润和地球。
作为联合国全球契约的签署国,GE在与供应商打交道中致力于不屈不挠的诚信和高标准行为。自2002年以来,通过实施GE广泛的供应商责任治理(SRG)计划,这项承诺已嵌入我们的业务和采购运营中。SRG的目的是建立和不断加强道德,可持续和透明的全球供应链,并为供应商建立明确的社会和环境责任要求。SRG使GE仅与遵守法律并符合我们道德行为守则的供应商合作,可以做出明智的业务决策。我们认为,通过与供应商合作评估和管理其风险,供应商,劳动力和当地社区可以实现经济,社会和环境利益。我们不断修改我们的SRG计划,以确保它有效地解决供应链中不断发展的挑战和风险。我们的采购团队和所有访问供应商地点的员工接受了SRG计划和风险认可的培训。