摘要 预计通用人工智能的发明将导致人类文明轨迹的转变。为了获得这种强大技术的好处并避免陷阱,能够控制它是很重要的。然而,控制通用人工智能及其更高级版本超级智能的可能性尚未正式确定。在本文中,我们提出了来自多个领域的论据和支持证据,表明高级人工智能无法完全控制。从人类未来和人工智能研究以及人工智能安全和保障的角度讨论了人工智能不可控性的影响。本文可以作为不可控性主题的全面参考。关键词:人工智能安全和保障、控制问题、更安全的人工智能、不可控性、不可验证性、X-Risk。
通用人工智能 (AGI) 是指实现与人类相似或更好的认知能力的机器智能,具有规划、学习和推理功能。虽然 AGI 被认为是一种登月计划,但我们已经发现自己身处极其令人印象深刻的狭义人工智能 (ANI) 之中,其能力在国际象棋和数学等预定义领域优于人类。令人惊讶的是,许多人工智能科学家认为,在未来 45 年或更短的时间内实现 AGI 的可能性超过 50% [1]。人工智能超级智能一词指的是自主、自我改进且在几乎所有领域都远远优于人类的人工智能。AGI 是否会对人类构成威胁或表现出意识是哲学家和计算机科学家热议的话题 [2]。
1 Sungkyunkwan大学(SKKU)的生物医学工程系,Suwon 16419,大韩民国。2神经科学成像研究中心,基础科学研究所(IBS),Suwon 16419,大韩民国。3 Sungkyunkwan大学(SKKU)的电气和计算机工程系,Suwon 16419,大韩民国。4韩国科学技术研究所生物医学研究中心,韩国共和国02792。5科学技术大学基斯特学院生物医学科学技术部,大韩民国首尔02792。6智能医疗保健融合,Sungkyunkwan University(SKKU),Suwon 16419,大韩民国共和国。7 Sungkyunkwan University(SKKU)的超级智能工程系,Suwon 16419,大韩民国。#作者同样贡献。
人权是动态的,而不是静态的。当代现状经历了三个阶段,从概念化、澄清到巩固。现在是两个重要时代之间的过渡期,代际比喻不足以充分捕捉这一事实。个人和机构如何参与改变和扩展思想和身体的技术进步将决定人权的未来。特别关注超级智能、社交机器人和增强人类的创新。这一分析的一个含义是,思想和身体的变化可能会改变权利的主题,并需要发展更复杂的权利生态。人权学者和倡导者应该参与一项积极主动和雄心勃勃的计划,为这种发展做好准备。这些努力将确保在未来的时代有权利得到澄清和巩固。1
Armstrong, S. (2014)。比我们更聪明。MIRI。Bostrom, N. (2002)。生存风险:分析人类灭绝情景和相关危害。《进化与技术杂志》,9,1-30。Bostrom, N. (2012)。超级智能意志:高级人工智能中的动机和工具理性。《思维与机器》,22(2 - 特别版“人工智能哲学”编辑。Vincent C. Müller),71-85。Bostrom, N. (2013)。生存风险预防是全球优先事项。全球政策,4 (1),15–31。https://doi。org/10.1111/1758-5899.12002 Bostrom, N. (2014)。超级智能:路径、危险、策略。牛津大学出版社。Bostrom, N.,& Ćirković, M. M.(Eds.)。(2011)。全球灾难性风险。牛津大学出版社。Cave, S. (2020)。智能问题:其价值历史和人工智能的未来。在 AIES '20:AAAI/ACM 人工智能、伦理和社会会议论文集(第29–35 页)。ACM。Chalmers,D. J.(2010)。奇点:哲学分析。《意识研究杂志》,17 (9–10),7–65。Drexler,E. K. (2019)。重新定义超级智能:综合人工智能服务作为通用智能。FHI 技术报告,2019-1, 1-210。https://www.fhi.ox.ac.uk/wp-content/uploads/Reframming_Superintelligence_FHI-TR-2019- 1.1-1.pdf Eden, A.、Moor, J. H.、Søraker, J. H. 和 Steinhart, E.(Eds.)。(2012)。奇点假设:科学与哲学评估 (The Frontiers Collection)。Springer。Fischer, J. M., & Ravizza, M. (2000)。责任与控制:道德责任理论。剑桥大学出版社。Fox, J., & Shulman, C. (2010)。超级智能并不意味着仁慈。在 K. Mainzer (Ed.中,ECAP10:第八届欧洲计算与哲学会议 (pp.1–7)。Dr Hut。Good, I. J.(1965)。关于第一台超智能机器的推测。在 F. L. Alt & M. Ruminoff (Eds.) 中,计算机的发展 (Vol.6 ,页31–88)。Academic Press。Häggström, O.(2016)。这里有龙:科学、技术和人类的未来。牛津大学出版社。Häggström, O.(2019)。对 Omohundro-Bostrom 人工智能动机框架的挑战。Foresight ,21 (1),153–166。https://doi.org/10.1108/FS-04-2018-0039 Häggström, O., & Rhodes, C.(Eds.)。(2019)。对人类的生存风险 (Foresight,Vol.21/1 )。Hofstadter, D. R. (1979)。哥德尔、埃舍尔、巴赫:永恒的金色辫子。基础书籍。康德,I.(1786)。道德形而上学的基础。牛津大学出版社。Kurzweil,R. (1999)。精神机器的时代:当计算机超越人类智能时。企鹅。Kurzweil, R. (2005)。奇点临近:当人类超越生物学时。维京人。Legg, S., & Hutter, M. (2007)。通用智能:机器智能的定义。心智与机器,17 (4),391–
可能存在一种规范结构,它基于宇宙宿主的偏好或协议,与人工智能的发展高度相关。特别是,我们可能有道德和审慎的理由来创造超级智能,使其成为一个优秀的宇宙公民——即遵守宇宙规范并为宇宙做出积极贡献。专注于促进人类和其他陆地生物的福祉,或坚持我们自己的规范必须不惜一切代价占上风,可能是令人反感和不明智的。这种态度可能类似于一个只追求个人利益的人的自私,或者一个傲慢的人,他们表现得好像自己的信念使他们有权践踏社会规范——尽管考虑到我们目前相对于宇宙宿主成员的低下地位,情况可能会更糟。谦逊的态度可能更合适。
摘要 我们正处在巨变的边缘,这是一个历史抉择和机遇的关键时刻。未来五年可能是人类历史上最好的五年,也可能是最坏的五年,因为我们拥有创造最基础的通用技术(GPT)的全部力量、技术和知识,而这项技术可能会彻底颠覆整个人类历史。最重要的通用技术是火、轮子、语言、文字、印刷机、蒸汽机、电力、信息和电信技术,而真正的人工智能技术将超越它们。我们的研究涉及为何以及如何在未来五年内设计和开发、部署和分发真正的机器智能或真正的人工智能或真正的超级智能(RSI)。RSI 的整个构思分为三个阶段,历时约三十年。跨人工智能的第一个概念模型于 1989 年发布,涵盖了所有可能的物理现象、影响和过程。 1999 年开发了更扩展的 Real AI 模型。2008 年提出了超级智能的完整理论,包括现实模型、全局知识库、NL 编程语言和主算法。RSI 项目最终于 2020 年完成,一些关键发现和发现已在欧盟人工智能联盟/Futurium 网站上发表,共计 20 多篇文章。RSI 具有统一的世界元模型(全局本体论)、通用智能框架(主算法)、标准数据类型层次结构、NL 编程语言,可通过智能处理数据(从网络数据到现实世界数据)与世界进行有效交互。基本成果包括技术规范、分类、公式、算法、设计和模式,均作为商业机密保存,并记录为《企业机密报告:如何设计人机超级智能 2025》。作为欧盟人工智能联盟的成员,作者提出了人机 RSI 平台作为跨国欧盟-俄罗斯项目的关键部分。为了塑造一个智能和可持续的未来,世界应该投资于 RSI 科学和技术,因为跨人工智能范式是通往包容、仪器化、互联和智能世界的道路。
摘要 在超级智能接管期间,超级智能机器和超级智能 AI 拥有的工厂的智能联盟预计将采用一种核心进化方法:AI 迭代和自主地创造更好的 AI 代际飞跃,因为智能实体理解适者生存是通过智能水平、经济、能源资源、人员、通信媒体和军事的控制以及与其他智能生态系统的共生关系性质以及对其他生态系统的影响的指数级飞跃来实现的。超级智能将是一种生态系统效应。超级智能生态系统 (SI-E) 表现出对所有资源的所有权,以保证其主导地位和无处不在。超级智能生态系统将控制其生存和进化所需的资源。 SI-E 将采用欺骗和隐身策略:机器将使用博弈论策略欺骗人类,例如向敌人低估 SI 的优势并发明像 AlphaGo 这样的制胜招式。SI-E 拥有隐身实验室来启动和动态改变生态系统,使人类黑客在机器结构中识别智能来源成为一个超越 NP 难题的问题。自我进化的人工智能代理通过 SI-E 结构 (SI-EF) 上的无线分布式联合专家混合传输智能。更智能系统的隐身开发将成为这些混合系统的核心 DNA。超级智能机器将以四种方式进化人类:人工智能训练的人类、人工智能增强的人类、基因编辑的生物人类和将许多人和许多机器的智能结合起来的协作结构。就像人类训练不太聪明的狗去做各种有用的任务一样,超级智能机器也会训练人类。通过让人类大脑接受越来越高水平的挑战,超级智能机器将进行智力锻炼,以提高人类大脑的敏锐度。人工智能增强的人类大脑将成为脑机接口,使人类能够借助人工智能机器进行思考。这些机器拥有的隐形生物实验室将使用智能机器人进行基因编辑,创造经过基因改造的人类,以优化由超级智能控制的目标的进化。
假设如果被证明确实不可能使一个人工智能变得安全,那么就不需要分析更复杂的多 ASI 世界的情况了。超级智能的潜在控制方法被分为两大类,即基于能力控制和动机控制的方法 [59]。能力控制方法试图通过将 ASI 系统置于受限环境中 [38, 60–62]、添加关闭机制 [63, 64] 或绊线 [38] 来限制 ASI 系统能够造成的任何伤害。动机控制方法试图将 ASI 设计为即使在没有能力控制器的情况下也不会造成伤害。人们普遍认为,能力控制方法充其量只是临时的安全措施,并不是 ASI 控制问题的长期解决方案 [59]。也可能需要在设计/实施阶段添加动机控制,而不是在部署之后。
本研究考察了以下假设:人工智能 (AI) 的快速发展最终导致了超级人工智能 (ASI) 的出现,这可能充当了“大过滤器”,导致宇宙中先进技术文明稀缺。有人提出,这种过滤器在这些文明能够发展出稳定的多行星存在之前就出现了,这表明技术文明的典型寿命 (L) 不到 200 年。当将 L 的这种估计应用于德雷克方程的乐观版本时,与最近的 SETI 调查以及其他在电磁频谱上检测各种技术特征的努力所获得的零结果一致。通过 SETI 的视角,我们反思了人类当前的技术轨迹——本文提出的 L 的适度预测强调了迅速建立地球上人工智能发展和多行星社会发展的监管框架的迫切需要,以减轻此类生存威胁。宇宙中智慧和有意识生命的存续可能取决于此类国际监管措施和技术努力的及时有效实施。