道德和人权以及信任/网络安全是重要的领域。技术的快速发展意味着我们仍在努力应对人工智能的道德影响,因此在人工智能不断发展的同时,确保公众的权利得到保护非常重要。爱尔兰应寻求将人工智能发展为国际竞争优势。为了实现这一目标,我们需要: 1.一支受过教育且熟练掌握实际 AI 实施技能的劳动力队伍 2.能够接触到最先进的 AI 技术和学术研究成果 3.最重要的是,管理层要准备好、愿意并能够利用 AI 机会 “另一方面,我们义愤填膺地谴责和厌恶那些被当下的快乐所迷惑和败坏的人,他们被欲望蒙蔽了双眼,无法预见必然会发生的痛苦和麻烦;那些因意志薄弱而未能尽职的人也应受到同样的指责,这就如同说他们逃避辛劳和痛苦一样。这些情况非常简单,很容易区分。在一个空闲的时间里,当我们的选择不受约束时,当没有什么阻止我们做我们喜欢的事情时最好的办法是,欢迎每一份快乐,避免每一份痛苦。但在某些情况下,由于职责的要求或业务的义务,经常会发生快乐必须被拒绝而烦恼必须被接受的情况。因此,明智的人在这些事情上总是坚持这一选择原则:他拒绝快乐以获得其他更大的快乐,或者他忍受痛苦以避免更糟糕的痛苦。”
执行摘要 国家人工智能战略 (NAS) 是一份通常由政府制定的文件,其中阐述了政府对人工智能 (AI) 的广泛战略方针,包括与 AI 相关的特定重点领域和将开展的活动。在此过程中,NAS 试图协调政府政策,以最大限度地提高经济和社会的潜在利益,同时最大限度地降低潜在成本。自 2017 年以来,已有 40 多个国家和区域政府间组织发布了这些战略,还有更多的国家正在制定中。本报告的目的是了解迄今为止人权如何(或尚未)被纳入 NAS,确定区域层面的新兴趋势,并为未来如何纳入人权提供建议。最近 NAS 数量的增加反映了许多国家的政府开始认真思考如何利用人工智能带来的经济和社会利益,并在该技术的全球市场上保持竞争力。至关重要的是,在各国制定战略的同时,它们还应建立一种方法,确保这种创新不会以侵犯人权为代价。人权在国家人工智能战略中的重要性 根据国际人权法,各国有义务保护其领土和管辖范围内所有人的人权,使其免受侵犯,无论是由于其自身政策或做法,还是由于企业或其他个人等第三方的行为。人权考虑适用于政府政策和实践的所有领域,包括政府和社会其他实体使用的人工智能政策和人工智能应用。国家人工智能战略代表着政府(或政府集团)如何处理人工智能的全面路线图。这包括如何监管人工智能,如何支持人工智能领域的创新,以及如何应对人工智能对人们生活和劳动力的影响。随着改善人工智能培训或开发新技术的战略的实施,它可能会在没有充分解决与侵犯人权有关的风险的情况下实现。因此,国家人工智能战略必须阐明如何确保保护人权。尽管在制定人工智能政策时考虑人权至关重要,但迄今为止,很少有国家人工智能战略深入研究这项技术的人权影响。对于一些国家的政府来说,这可能是因为他们在制定政策时并没有将保护人权放在首位。一些政府确实将人权放在首位,但当与政府对人工智能的其他目标形成鲜明对比时,他们可能会发现很难概述保护人权的方法,例如增强经济或地缘政治竞争力。还有一些人可能只是不知道在这个政策领域创建一个尊重权利的 NAS 会是什么样子。然而,国家保护人权的义务不会因为不明确或不方便而消失。一些人提出了人工智能治理的新道德框架。在某些情况下,这是试图完全规避人权框架,或规避政府认为不方便的部分。在其他情况下,这是试图超越人权框架,甚至采取更多的保护措施。至关重要的是要注意,没有什么可以阻止政府在人工智能治理中超越人权框架所保护的范围。然而,有令人信服的理由使用现有的人权
致谢《人工智能 (AI) 战略资源指南》是一份联合国出版物,列出了国家、地区和国际层面上现有的人工智能伦理、政策和战略资源。该指南的工作由刘伟 (经社部) 领导,Richard A. Roehl (经社部) 参与,Shantanu Mukherjee (经社部) 负责监督。该指南代表了合作的努力,反映了技术和创新领域专家的意见和贡献。总体评论和意见来自(按字母顺序排列)联合国教科文组织的 Joe Hironaka、Maksim Karliuk、Prateek Sibal、Rachel Pollack 和柯诗瑶;中国科学院的郭华东;Mario Cervantes、Karin Perset (经合组织);Monika Matusiak 和 Veerle Vandeweerd (欧盟委员会);Naoto Kanehira (世界银行);William Colglazier (美国科学促进会);傅晓兰(牛津大学);陈玉萍(联合国技术特使办公室)和徐正中(国家行政学院)。第二章主要收到来自教科文组织的贡献:Dafna Feinholz、Jo Hironaka、胡先宏、Misako Ito、Melissa Tay Ru Jein、Maksim Karliuk、Shiyao Ke、Rachel Pollack、Sasha Rubel、Prateek Sibal、Cedric Wachholz;Alica Daly(世界知识产权组织);Bob Bell Jr. 和 Pilar Fajarnes Garces(联合国贸易和发展会议);Ewa Staworzynska(国际劳工组织);Inese Podgaiska(北欧工程师协会);Jayant Narayan(世界经济论坛);Merve Hickok(人工智能和数字政策中心);Maria Jose Escobar Silva(智利政府);Majid Al Shehry(沙特数据和人工智能管理局); Miguel Luengo-Oroz(联合国全球脉动计划);Olga Cavalli(南方互联网治理学院);Stephan Pattison(Arm Ltd.)和 Vanja Skoric(欧洲非营利法中心 ECNL)。第 3 章主要由 Charles Michael Ovink(联合国裁军事务厅);世界工程组织联合会(WFEO)的龚克、William Kelly 和李攀以及国际电信联盟的 Preetam Maloor 撰写。第 4 章主要由 Christina Pombo Rivera(美洲开发银行);Elisabetta Zuanelli(电子内容研究与开发中心 (CReSEC));Friederike Schüür(联合国全球脉动计划);罗马大学)和中国科学院的 Yi Zeng 撰写。研究协助由 Adi Gorstein、Catherine Huilin Deng、Kaidi Guo 和 Naomi Hoffman 提供。本资源指南中表达的观点均为作者的观点,不代表联合国或其会员国的官方立场。欢迎对本指南提出书面评论和反馈,请发送至 Wei Liu ( liuw@un.org ) 和 Joe Hironaka ( j.hironaka@unesco.org )。
随着人工智能战略的更新,联邦政府自 2018 年 11 月通过该战略以来,将重点放在人工智能 (AI) 领域的最新发展上。更新旨在加强德国作为具有国际竞争力的人工智能研究、开发和应用中心的地位。这需要进一步建立和扩大德国和欧洲的人工智能生态系统 1,以加强人工智能的广泛应用,同时提高优秀举措和结构的知名度。负责任和面向公共利益的人工智能系统开发和应用应成为“欧洲制造的人工智能”不可或缺的一部分,从而成为其标志。此外,更新还将疫情控制、可持续性(尤其是环境和气候保护)以及国际和欧洲联网置于新举措的核心。实现这一点需要
我们的战略标志着苏格兰与人工智能关系的新篇章。这是一项广泛的咨询和参与计划的结果,该计划涉及学术界、工业界、公共部门和苏格兰人民,他们慷慨地投入时间,为人工智能贡献想法、见解和意见。他们的知识和专长帮助制定了这项战略,我们感谢参与此过程的每个人的投入。
从 1950 年图灵发表《计算机器和智能》到 1990 年代人工智能寒冬逐渐消融,四场针对人工智能基础的独特哲学争论相继出现,短暂地引起了广泛关注,随后逐渐平息。第一场“人工智能战争”始于卢卡斯 [1961],质疑人工智能的逻辑合理性。第二场战争可以追溯到明斯基和帕普特 [1969],涉及不同架构支持者之间的争论。第三场战争由德雷福斯 [1972] 发起,但在塞尔 [1980] 之后最为激烈;它攻击了人工智能系统具有语义的可能性。第四场战争在很多方面都是最微妙的,始于麦卡锡和海斯 [1969],涉及框架问题的含义和影响。这一时期的人工智能战争影响了 20 世纪 60 年代初荒唐的过度乐观主义、20 世纪 70 年代的 Lighthill [1973] 报告和其他灾难、20 世纪 80 年代对专家系统的热情以及 20 世纪 90 年代向人工神经网络 (ANN) 和应用机器人的逐渐过渡,同时也受到了这些影响。到 21 世纪初,人工智能前 50 年的哲学冲突基本结束。它们没有以任何一方的胜利而告终,而是陷入了僵局。取而代之的是,关于意识的本质、人工智能的伦理以及人工智能系统本身是否符合伦理的可能性的新争论出现了。图灵 [1950] 预见到了这两种发展,尽管他不认为它们与他所定义的“智能”有任何关系。在这里,我们要问为什么会发生这种情况,以及它如何影响人工智能和哲学。人工智能战争触及了形而上学、认识论以及心灵、语言和科学哲学等基本问题,在那些参与其中的人看来,它正在重构哲学本身。例如,斯洛曼[1978]自信地预测,“几年之内,如果还有哲学家不熟悉人工智能的一些主要发展,那么指责他们专业无能是公平的”,对人工智能系统的考虑将渗透到学术哲学的教学中。这显然没有发生:许多(如果不是大多数的话)哲学家仍然对人工智能一无所知,大多数哲学教学从未提及它。我们的新书《对人工智能的伟大哲学反对:人工智能战争的历史和遗产》(Bloomsbury,2021)试图纠正这种情况。我们在此总结了其主要论点,同时添加了一些更深入的分析,以便同行研究人员更容易理解。自 2000 年以来,关于人工智能意识和伦理的争论涉及神经科学家、律师和经济学家等,以及人工智能研究人员和哲学家。与 1950-2000 年的“经典”人工智能战争一样,这些新冲突是始于科学革命的普遍文化冲突的一部分。他们的紧迫感部分源于人们日益意识到后工业经济正在迅速转变为人工智能经济,部分源于人们担心后冷战地缘政治体系可能成为人工智能驱动的政治体系。这些辩论挑战了在冷战时期看似自然的假设。
俄罗斯的人工智能战略:国有企业的作用 2020 年 11 月 作者:Stephanie Petrella、Chris Miller 和 Benjamin Cooper 摘要:2017 年,俄罗斯总统弗拉基米尔·普京宣布,无论哪个国家成为人工智能 (AI) 的领导者,“都将成为世界的统治者”。然而,俄罗斯在人工智能能力方面远远落后于中国和美国等竞争对手。俄罗斯促进人工智能技术发展的战略是什么?俄罗斯精英群体在制定这一战略方面扮演什么角色?俄罗斯的人工智能发展战略的独特之处在于,它不是由政府或私营部门主导,而是由国有企业主导。政府对俄罗斯最大的科技公司 Yandex 的不信任,使该公司被排除在国家人工智能规划之外。与此同时,俄罗斯国防集团 Rostec 公开表示,它更关注其他高科技优先事项,而不是人工智能。因此,俄罗斯的人工智能开发被交给了国有银行 Sberbank,该银行牵头制定了政府支持的人工智能投资计划。俄罗斯联邦总统弗拉基米尔·普京在 2017 年宣称,无论哪个国家成为人工智能 (AI) 的领导者,“都将成为世界的统治者”。1 对于普京来说,人工智能带来的广泛能力为增强国家在国际舞台上的实力提供了可能性。人工智能可用于提高军事能力、推进科学和医学发展以及提高工业效率。普京宣称,俄罗斯军方正试图利用人工智能,用“现代武器系统,包括基于数字技术和人工智能的武器系统”取代旧式武器系统。2 尽管官员们大肆宣扬人工智能的好处,但俄罗斯在人工智能能力方面的许多指标都远远落后于其他国家。从 1996 年到 2017 年,俄罗斯的人工智能能力远远落后于其他国家。
该战略将通过四个企业目标提供灵活性,以适应我们对人工智能及其各种定义所包含的技术不断发展的理解。首先,司法部将通过培训、招聘和留任来解决知识、风险和能力方面的差距,培养一支为人工智能做好准备的员工队伍。其次,人工智能模型和算法的使用完全取决于用于设计、验证和测试它们的数据;通过利用司法部数据战略 1 和数据治理委员会 2 制定的数据工作,我们将快速实施人工智能数据标准,并最大限度地适当使用和重复使用训练数据。第三,司法部将根据既定的法律、指导、原则和最佳实践,促进人工智能的道德和有效治理,为司法部各办公室、委员会、部门和局(统称为组成部分)在将人工智能应用于其任务时提供明确的护栏。第四,通过试点和知识共享,司法部将加速人工智能的采用,并允许任务运营商和利益相关者以符合政府范围原则和部门指导的方式实现大大改进的能力。
A. 有利于创新的立法 ................................................................................................ 10 B.政府作为创新的推动者 ................................................................................ 10 C. 政府作为人工智能需求的驱动力 ........................................................................ 10 D. 科学参与、研究与开发和技术促进 ........................................................................ 11 E. 吸引和留住人才 ...................................................................................................... 11 F. 人工智能时代的就业机会 ............................................................................................. 11 G. 人工智能的道德层面 ............................................................................................. 12 H. 意识 ...................................................................................................................... 13 I.人工智能的标准化 ............................................................................................. 13 J.实现可持续发展目标 ............................................................................................. 14 K. 人工智能关键领域 ............................................................................................. 14 L. 人工智能投资 ............................................................................................................. 14 M. 公私伙伴关系 ............................................................................................................. 15 N. SWOT 分析 ................................................................................................................ 15 O.监测和评估 ...................................................................................................... 15 P. 治理 ...................................................................................................................... 15 Q.风险管理计划 ...................................................................................................... 16
属性来分配优先级。这些标准的子集为某些儿童提供了特殊的分配优先级。虽然我们知道某些属性有助于提高儿童的优先级,但确切地说哪些属性的权重最大,以及它们如何组合并不一定会公开。一方面,自动化幼儿园分配问题具有降低成本、节省时间的优势,并且可以提高流程的准确性和透明度。另一方面,算法不能像训练有素的专业人员那样融入直觉和常识。为了成功和有效地实现匹配自动化,自动算法方法和人工智能系统必须足够透明和可解释。挪威国家人工智能战略 (NNSAI) 最近起草的道德原则解决了对人工智能系统的此类要求。总之,成功的分配自动化需要满足以下标准:a) 系统需要自动将儿童分配到幼儿园,尽量减少人为干预;b) 系统需要进行上述分配并遵循现有的国家和地方政策,这些政策在实施时被认为是合乎道德和公平的; c) 系统需要遵守 NNSAI 道德原则。幼儿园名额分配是一个最常见的双边匹配问题。这类问题是 David Gale 和 Lloyd Shapley 于 1962 年提出的原始稳定婚姻问题的衍生问题。由于这是一种广为接受的标准方法 [2, 1, 3],我们使用 Gale-Shapley 算法 [9] 实现了幼儿园分配系统。我们的实施建立在有关目前如何进行幼儿园分配的可用信息之上,并尊重适用于卑尔根市的大多数立法和政策。我们实施的目标不是评估 Gale-Shapley 算法在幼儿园分配方面的表现。这是一个经过充分测试的标准算法。我们构建了一个足够详细的原型,使我们能够测试 NNSAI 原则在匹配类型问题中是否可行。我们的贡献是对 NNSAI 的道德原则进行评估,以了解一个具体的人工智能系统示例。