人工智能 (AI) 是一个不断发展的结构,它能够改变和主宰我们的生活、工作和娱乐方式。商业决策者不断努力解决如何最大限度地提高企业收入和利润以实现利益相关者的满意度,同时最大限度地降低内部和外部组织风险。企业领导者了解他们的 C-Suite 角色,并且通常支持实施 AI;但许多人并没有考虑他们的 AI 决策如何影响组织网络文化和员工的福祉。本文探讨了 AI 对员工的道德影响、领导者将 AI 纳入整体网络文化的决策背后的理念,以及员工对机器人、机器学习、专家系统和语言处理算法如何影响他们生计的主要担忧。我们从社会契约、功利主义、义务论和现象学的几种哲学理论的角度来应对这一研究挑战,以更好地了解每种方法如何影响领导者的明智决策,以确定是否有可能在考虑员工的福利和未来的同时在道德上平衡创新。对文献的解读表明,存在一些关键的潜在哲学主题和模式,这些主题和模式与负责任且合乎道德地实现健康的人工智能网络文化有关。研究结果表明,成功实施工作场所人工智能包括将战略业务目标与开放式沟通和员工培训相结合,以提高人工智能接受度并降低裁员和失业风险。我们推测,支持领导层和员工之间信任和透明的行为实践的混合哲学框架可以产生一种合乎道德的工作场所解决方案,支持人工智能,即成功地将技术融入员工日常生活体验的网络生活世界。关键词:人工智能、网络文化、网络伦理、义务论、社会契约论、功利主义、现象学、网络生活世界、组织工作场所
高级会员、Sovereign Trawlwulwuy 女性和塔斯马尼亚原住民遗产官员 Fiona Hamilton 反思了社会许可 (SLO) 以及与原住民进行有意义的接触的价值(Bossi,2023 年):亲属关系赋予您 SLO。亲属关系由您与其他人以及国家之间关系的深度来定义。对于非原住民来说,这种关系只能通过原住民结构来建立,我指的是文化结构。仪式、承认、公平参与、互惠、以最佳利益行事、可持续性,都嵌入在这种亲属关系中。
摘要 神经科学与人工智能之间的科学关系得到普遍承认,两者长期的合作历史在推动这两个领域的发展中所发挥的作用也经常被强调。除了合作发展所提供的重要科学见解之外,神经科学和人工智能都提出了许多伦理问题,这些问题通常由神经伦理学和人工智能伦理学进行探讨。神经伦理学和人工智能伦理学在过去几十年中越来越受到重视,它们通常由不同的研究团体进行。然而,考虑到人工智能辅助神经技术不断发展的格局以及人工智能与神经科学之间的各种概念和实践交叉——例如人工智能在神经科学研究中的日益广泛的应用、神经和精神疾病的医疗保健以及使用神经科学知识作为人工智能的灵感——一些学者现在呼吁这两个领域之间建立合作关系。本文旨在探讨神经伦理学和人工智能伦理学之间的合作关系如何促进理论和理想的治理工作。首先,我们提出了一些理由,呼吁在神经科学创新和人工智能方面进行伦理反思。接下来,我们探讨一些我们认为可以通过这两个伦理子领域的相互影响而得到加强的方面。我们认为,考虑到神经科学和人工智能在创新发展中的速度和日益融合,不考虑不同伦理子领域的见解的广泛和不明确的责任呼吁,在促进研究和应用方面都只能取得部分成功。关键词 神经伦理学、人工智能伦理、文化、负责任的概念化、治理
组织和机构正在开发涉足深度学习和通用人工智能 (AI) 的技术,这是第五次工业革命的领域 (El Namaki, 2018 ; Petrillo et al., 2018 ; Serrano, 2018 ; Valenduc, 2018 )。技术格局发展速度越来越快,政策制定者和机构正在努力规范人工智能技术,以确保这些技术的道德行为 (Heilinger, 2022 ; The Bureau of National Affairs, 2020 )。因此,参与人工智能技术开发的主体的道德义务问题变得越来越重要,尤其是考虑到与技术相关的自主行为,更重要的是,影响社会的道德结果 (Gibert & Martin, 2022 ; Matthias, 2004 ; Ziewitz, 2016 )。
Overview ................................................................................................................... 4
作为气候科学家,我们在不断变化的环境中运作。在IPCC AR6开始时,2015年,国际合作在可持续性方面取得了重大进展,从而实施了几个新框架,包括减少灾害风险的UN Sendai框架,可持续发展目标,新的城市议程和巴黎协定[2]。在AR6周期内,强烈重视气候变化,生态系统和生物多样性与IPCC和IPBES之间的联合研讨会[3]之间的联合研讨会,以及《联合国生物多样性公约》在2022年实施的生物学多样性公约Kunming-Montre-Montre Montre'al Global Biovorverty框架。在2023年,AR6 IPCC综合报告[4]强调,当前气候行动的步伐和规模不足以限制与气候相关风险的升级,并具有迅速的机会范围,以实现气候弹性的发展,以及共享知识的关键作用以支持变革性变化。随着气候变化的快速变化(图1),气候状态的定期更新对于向社会提供信息至关重要 - 比IPCC报告更多,预计到2028年的AR7结果。已经针对全球碳预算[5]和年度气候[6]和极端事件[7,8]实施了此类努力。基于观测数据集的更新和支持AR6 WGI报告的相同方法[9],新的协调努力为全球气候状况的关键指标提供了年度更新,显示了辐射强迫,地球能量不平衡,人类造成的全球变暖的变化,发生在越来越多的速度[10]。此类年度更新对可归因的全球和区域变暖现在为观察受到约束的全球和区域保护的年度更新打开了可能性[11,12]。与其IPCC 2021估算值相比,与限制全球变暖至1.5°C的剩余碳预算相比已降低了两倍,而IPCC 2021估计[9] [9],缩小至250 gtco2左右,预计在6年内以
本文全面探讨了针对大型语言模型(LLM)的安全威胁引起的道德挑战。这些复杂的数字存储库越来越多地整合到我们的日常生活中,使其成为攻击的主要目标,这些攻击可以损害其培训数据和数据源的机密性。本文深入研究了对社会和个人隐私的这种安全威胁的细微伦理影响。我们仔细检查了五个主要威胁,包括注射注射,越狱,可识别的信息(PII)暴露,性明确的内容和基于仇恨的内容 - 超出了仅仅标识,以评估其关键的道德后果以及他们为强大的防御策略创造的紧迫性。对LLM的不断依赖强调了确保这些系统在道德准则范围内运作的关键需求,尤其是因为它们的滥用可能导致重大的社会和个人伤害。我们提出了概念化和开发针对LLMS量身定制的评估工具,该工具将达到双重目的:指导开发人员和设计师在测试阶段的LLM Chatbot响应的伦理学维度进行审查。通过将LLM的反应与人类在道德背景下的人类期望的反应进行比较,我们旨在辨别AI行为与更广泛的社会所拥有的道德价值一致的程度。最终,本文不仅强调了LLMS带来的道德问题;它还突出了培养对这些系统的信任的道路。
生物伦理学的范围不受时间框架的限制。回顾性地理解过去医疗实践的伦理层面(例如 Lerner 和 Caplan 2016)与解决当前正在发生的生命伦理问题同样重要。然而,还有另一个角度需要考虑,即面向未来的角度。近几十年来生物伦理话语中的迫在眉睫的问题类别(事前伦理)主要以环境问题和可持续医学 1 的概念为特征(Kuře 2008;Schick 2016)。虽然这些生物伦理问题尚未完全体现出来,但它们的重要性在于,引发这些问题的基础要素在当代社会中已经很明显。为了探索医学工程或仍在开发中的复杂技术(如脑机接口 (BMI))的伦理影响,生物伦理学家 (Brody 2003;Chambers 1999)、文学理论家 (Squier 2004;Wald 2008) 以及叙事医学学者 (Charon and Montello 2002) 都要求对此类新兴生物伦理问题进行文学描述。本文探讨了生物伦理学与推想小说的交集,重点关注玛格丽特·阿特伍德的推想小说《羚羊与秧鸡》(2003) 中描绘的基因工程技术的警示元素。本文旨在研究推想小说在解决小说中使用基因改造技术所带来的生物伦理问题方面的作用,并概述推想小说如何进一步促进对新兴技术的伦理、社会和文化影响的更广泛讨论。玛格丽特·阿特伍德的文学作品以思辨性叙事为特点,其中包含科学或社会变革的伦理含义。《使女的故事》(1985)及其续集《遗嘱》(2019a)描绘了一个反乌托邦的未来,生殖技术和父权制破坏了女性自主权。其他作品如《心在最后》(2015)表明阿特伍德倾向于将思辨性与社会批评相结合。《洪水之年》(2009)和《疯狂亚当》(2013a)扩展了《羚羊与秧鸡》中呈现的生物灾难;这三部小说都发生在同一个宇宙中,构成了疯狂亚当三部曲。《羚羊与秧鸡》创造性地探索了基因工程及其随之而来的社会影响,并描绘了围绕生物技术的道德问题、环境破坏和不负责任的科学活动的不利影响。由于它介绍了阿特伍德后期小说中探讨的生物伦理问题,因此关注这部作品可以让我们了解基因工程技术的发展方向。