面对人工智能的替代潜力,McGovern (2018) 断言,拥抱和学习应用人工智能是避免被取代的唯一途径 [29]。Frey 和 Osborne (2017) 建议增强人类的创造性思维和专业技能 [10]。Decker、Fischer 和 Ott (2017) 认为,通过发展与技术变革相结合的技能,人类可以规避潜在的人工智能替代 [7]。Berg、Buffie 和 Zanna (2018) 提出,增强抽象推理能力和扩展独特价值观可以防止人工智能替代 [4]。Atalay、Phongthiengtham、Sotelo 和 Tannenbaum (2018) 认为,通过提高教育水平,人类可以增强非传统分析任务的能力,从而减缓人工智能替代 [2]。Kopytov、Roussanov 和 Taschereau-Dumouchel (2018) 也认为通过获取更高的技能可以减少人工智能替代 [21]。 P. Verma (2018) 认为,只要人类以相同或更快的速度发展能力,就不会被人工智能取代,因为人类的数据可以决定人工智能 [38]。Kaplan 和 Haenlein (2019) 提出,为了适应未来工作灵活性、避免人工智能带来的工作类型变化,员工可以通过终身学习来发展新的专业技能 [20]。Ma 和 Siau (2018) 主张在教育生活中为学生提供培训和获得、发展软技能的机会 [26]。Taddeo 和 Floridi (2018) 强调,在非工作生活中,解决人工智能引起的新问题的关键是对人工智能价值的合理控制和利用 [35]。
英国 1、美国 2、中国 3、新加坡 4、日本 5 和澳大利亚 6 等多个政府的战略明确提到了人工智能能力,这些能力已经部署用于改善关键国家基础设施(如交通、医院、能源和供水)的安全性。北约在其 2020 年关于北约未来的报告中也将人工智能确定为保持对对手优势的关键技术(北约,2020 年)。人工智能在国防中的应用几乎是无限的,从支持物流和运输系统到目标识别、战斗模拟、训练和威胁监控。军事规划者越来越期望人工智能能够更快、更果断地击败对手。与其他领域的使用一样,人工智能的潜力也伴随着严重的道德问题,从可能的冲突升级、大规模监视措施的推广和错误信息的传播,到侵犯个人权利和侵犯尊严。如果这些问题得不到解决,将人工智能用于国防目的可能会破坏民主社会的基本价值观和国际稳定(Taddeo,2014b、2019a、b)。本文通过确定伦理原则为人工智能的设计、开发和用于国防目的提供指导,以解决这些问题。这些原则不应被视为国家和国际法律的替代品;相反,它们为在国防领域使用人工智能提供了指导,其方式与现有法规一致。从这个意义上说,提出的原则表明了应该做什么或不应该做什么。
人工智能 (AI) 的使用继续呈指数级增长,渗透到社会的许多方面 (Schepman and Rodway, 2020)。智能音箱是人们在日常生活中、在家中接触到的人工智能系统的一个突出例子,并且人们有与人工智能系统交互的意识。据估计,2021 年全球智能音箱的出货量超过 1.86 亿台,预计到 2022 年或 2023 年,这一数字可能会增加到 2 亿台以上 (Laricchia, 2021)。同样在 2021 年,英国一半的家庭报告称拥有这样的设备 (Ofcom, 2021)。人工智能的其他用途与人们的日常体验相去甚远。人工智能的发展为军事和国防目的开辟了各种潜在用途( McNeish 等人,2020 年)。人工智能在国防环境中的应用潜力无限,例如包括后勤支持、模拟、目标识别和威胁监控( Taddeo 等人,2021 年)。然而,这种潜力尚未实现,人工智能在国防领域的研究开发和使用尚处于起步阶段,西方世界目前的战略大纲和政策就反映了这一点(国防创新委员会,2019 年;英国国防部,2022 年)。尽管人工智能对社会的安全和保障至关重要,但可以说,在国防领域形成明智和合理态度极其困难。公众面临着不断变化的信息,这些信息来自政府来源、有既得利益的组织、个人网络和大众娱乐。本研究涉及在国防背景下测量对人工智能的态度,作为更好地理解和解释这种态度如何形成的第一步。
《战争法》,这些武器的使用引起了联合国参与国际安全的担忧。15 Marosaria Taddeo和Alexander Blanchard在2021年的研究重点是自主武器系统(AWS)的定义。根据对这些武器系统提出的道德和法律问题的各种方法,该定义涵盖了AWS的各个方面,并根据各州和国际组织(例如红十字会和北大西洋条约组织(北约)提供的AWS的官方定义进行了比较。此策略可能被视为改善AWS理解的不利之处,这可以帮助促进就部署条件和规则(包括使用AWS的基本考虑)达成共识。16根据克里斯·詹克斯(Chris Jenks)的一篇文章,法律已经存在了一段时间,尽管它们主要是防御性和反物质。但是,当更复杂的防御法律(例如复杂的蜂群制度蓬勃发展)时,政府肯定会创造对策。无法排除从防守式操纵到全面反攻纳入的过程。17“新形式的技术武器”一词是由克里斯汀·艾奇斯(Kristen Eichensehr)创造的,他观察到,大多数战争法则主要适用于新开发的技术,而新技术的任何新法律都应是战争法则的一小部分,适用于这种现有技术。18法律是自主武器系统,曾经被激活,完全或几乎完全没有人类控制。这些成本必须作为法律总体评估的一部分,因为这种能力有可能彻底改变警务和战争,并可能对人类福利产生重大,有害的后果。Asif Khan和Maseeh Ullah的另一篇论文回顾了有关制定国际AWS的最新著作。该研究对某些学者的担忧做出了回应,即由于多种原因,这种禁令将很难。这是一个理论基础的理论基础,以基于人权和人道主义关注的道德和法律考虑的这种禁令。在开发各种可能对人们的基本权利构成严重威胁的自动化和自动武器系统之前,作者认为,最好将此职责确立为国际标准并通过条约表达这一职责。19在他的2020年研究中,埃里克·塔尔伯特·詹森(Eric Talbot Jensen)专注于国家的观点,其中许多是由于某些常规武器公约的各州之间的讨论而公开的。 他研究了学者和非政府组织(NGO)所陈述的观点,19在他的2020年研究中,埃里克·塔尔伯特·詹森(Eric Talbot Jensen)专注于国家的观点,其中许多是由于某些常规武器公约的各州之间的讨论而公开的。他研究了学者和非政府组织(NGO)所陈述的观点,
Amis, JM 和 Silk, ML (2008)。定性组织研究中的质量哲学与政治。组织研究方法,11 (3),456 – 480。Bender, EM 和 Friedman, B. (2018)。自然语言处理的数据语句:减轻系统偏见并实现更好的科学。计算语言学协会会刊,6,587 – 604。Bockting, CL、van Dis, EA、van Rooij, R.、Zuidema, W. 和 Bollen, J. (2023)。生成式人工智能的生活指南:为什么科学家必须监督其使用。自然,622 (7984),693 – 696。Code, L. (2001)。理性的想象,负责任的认知:你能从这里看多远?在 N. Tuana 和 S. Morgen (Eds.) 编著的《Engendering rationalities》(第 261 – 282 页)中。纽约州立大学。 Crawford, K. (2021)。是时候规范解读人类情感的人工智能了。《自然》,592 (8),167。 Floridi, L., & Taddeo, M. (2016)。什么是数据伦理?《哲学汇刊 A》,374,2016036020160360。https://doi. org/10.1098/rsta.2016.0360 Gibbs, GR (2018)。分析定性数据。Sage。https://doi.org/10.4135/9781526441867 Gregor, S. (2024)。负责任的人工智能和期刊出版。信息系统协会杂志,25 (1),48 – 60。https://doi.org/10.17705/1jais.00863 Grimes, M.、von Krogh, G.、Feuerriegel, S.、Rink, F. 和 Gruber, M. (2023)。从稀缺到丰富:生成人工智能时代的学者和学术。管理学院杂志,66 (6),1617 – 1624。Hammersley, M. 和 Traianou, A. (2012)。定性研究中的伦理:争议和背景。Sage。Iphofen, R. 和 Tolich, M. (2018)。定性研究伦理的基础问题。在 Iphofen 和 Tolich(编辑)《Sage 定性研究伦理手册》中。Sage。 https://doi.org/10.4135/9781526435446 Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, YJ, Madotto, A., & Fung, P. (2023)。自然语言生成中的幻觉调查。ACM 计算调查,55 (12),1 – 38。Mingers, J. (2008)。管理知识与知识管理:现实主义和真理形式。知识管理研究与实践,6,62 – 76。Oakley, A. (2013)。采访女性:一个矛盾的说法。在 H. Roberts(编辑),进行女权主义研究(第 30 – 61 页)。劳特利奇。Pearlman, R. (2017)。根据美国知识产权法,承认人工智能 (AI) 为作者和投资者。Rich-mond 法律与技术杂志,24,1-38。Susarla, A.、Gopal, R.、Thatcher, JB 和 Sarker, S. (2023)。生成式人工智能的 Janus 效应:为信息系统中负责任地开展学术活动指明道路。信息系统研究,34 (2),399-408。英国社会科学院。(2015 年)。为社会科学研究制定通用伦理原则。https://acss.org。uk/wp-content/uploads//Generic-Ethics-Principles-in-Social-Science-Research-2013.pdf 联合国教科文组织。(2021 年)。关于人工智能伦理的建议。https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence
1 Marwala, T.,2022 年。缩小差距:非洲的第四次工业革命。Pan Macmillan 南非。2 Marwala, T.,2023 年。人工智能、博弈论和政治机制设计(第 41-58 页)。新加坡:Springer Nature 新加坡。3 Roberts, H.、Hine, E.、Taddeo, M. 和 Floridi, L.,2024 年。全球人工智能治理:障碍和前进的道路。国际事务,第 iiae073 页。4 Ali, AE、Venkatraj, KP、Morosoli, S.、Naudts, L.、Helberger, N. 和 Cesar, P.,2024 年。透明的人工智能披露义务:谁、什么、何时、何地、为什么、如何。arXiv preprint arXiv:2403.06823。 5 Hurwitz, E. 和 Marwala, T.,2007 年 10 月。学会虚张声势。2007 年 IEEE 系统、人与控制论国际会议(第 1188-1193 页)。 6 Markowitz, DM 和 Hancock, JT,2024 年。生成式人工智能比人类更偏向真相:核心真值默认理论原则的复制和扩展。语言与社会心理学杂志,43(2),第 261-267 页。 7 Falco, G.、Shneiderman, B.、Badger, J.、Carrier, R.、Dahbura, A.、Danks, D.、Eling, M.、Goodloe, A.、Gupta, J.、Hart, C. 和 Jirotka, M.,2021 年。通过独立审计管理人工智能安全。自然机器智能,3(7),第 566-571 页。 8 Coeckelbergh, M.,2020 年。人工智能伦理。麻省理工学院出版社。 9 Elliott, D. 和 Soifer, E.,2022 年。人工智能技术、隐私和安全。人工智能前沿,5,第 826737 页。 10 Marwala, T.,2024 年。机制设计、行为科学和人工智能在国际关系中的应用。摩根考夫曼。 11 Verbruggen, A. 和 Laes, E.,2015 年。核电可持续性评估:国际原子能机构和政府间气候变化专门委员会框架的话语分析。环境科学与政策,51,第 170-180 页。 12 Marwala, T. 和 Mpedi, LG,2024 年。人工智能与法律。 Palgrave Mcmillan。13 Marwala, T.、Fournier-Tombs, E. 和 Stinckwich, S.,2023 年。使用合成数据训练人工智能模型:可持续发展的机遇和风险。arXiv 预印本 arXiv:2309.00652。14 Sidogi, T.、Mongwe, WT、Mbuvha, R. 和 Marwala, T.,2022 年 12 月。使用具有静态套利损失条件的生成对抗网络创建合成波动率曲面。2022 年 IEEE 计算智能研讨会系列 (SSCI)(第 1423-1429 页)。 15 Tshilidzi Marwala、Eleonore Fournier-Tombs、Serge Stinckwich,“监管跨境数据流:利用安全数据共享实现全球包容性人工智能”,联合国大学技术简报 3(东京:联合国大学,2023 年)。 16 Ebers, M. 和 Gamito, MC,2021 年。算法治理和算法治理。Springer。 17 Marwala, T.,2014 年。用于理性决策的人工智能技术。Springer。 18 Marwala, T. 和 Hurwitz, E.,2017 年。人工智能与经济理论:市场中的天网(第 1 卷)。Cham:Springer International Publishing。 19 Sasikala, P.,2012 年。云计算与电子政务:进步、机遇和挑战。国际云计算应用与计算杂志 (IJCAC), 2 (4), 第 32-52 页。20 Marwala, T., 2023. 政治中的情报、博弈论与机制设计 (第 135-155 页)。新加坡:Springer Nature 新加坡。