在一个由无神论科学家和技术信徒主导的世界里,约翰·伦诺克斯在他的著作《2084:人工智能与人类的未来》中提出了一种关于人工智能和超级智能的差异化观点,考虑到普遍的神圣特征。这种对无神论世界观的批判使用圣经类比和证据为讨论引入了许多新论点,拓宽了对人工智能的视角。约翰·伦诺克斯是英国数学家、哲学家和基督教辩护者,也是牛津大学数学和科学哲学名誉研究员。他出版了许多书籍,探讨了科学与信仰之间的对话,并主张科学与基督教世界观的兼容性。他的生活和工作反映了科学卓越和根深蒂固的信仰的独特结合。与其他关于人工智能或超级智能主题的作品不同,伦诺克斯关注宗教精神论证,而其他主角则强调启蒙理性主义或长期主义。在关于这个主题的讨论中,这无疑是这本书的主要附加价值。手稿的最初部分首先描述了人工智能 (AI) 和超级智能的潜力和内在挑战。第 1 章作为论述的序言,首次介绍了乔治·奥威尔的历史作品,同时也是该书标题的寓言(11-13)。在此背景下,作者明确暗示了人工智能的表现可能带来的危险,同时概述了作者的总体论证框架。Lennox 强调奥威尔的《1984》(出版于 1949 年)是一部开创性的作品,将大规模监视和媒体信息控制作为辩论的关键要素,认为这些是“如今越来越多地与人工智能 (AI) 的发展联系在一起的想法”(13)。Lennox 进一步将反乌托邦小说与奥尔德斯·赫胥黎的《美丽新世界》进行比较分析,并引用了尼尔·波兹曼在《自娱自乐于死》中的见解 (12)。此外,伦诺克斯借鉴了丹·布朗的小说《起源》来描绘反乌托邦的未来,强化了他的主题探索(13)。第 2 章和第 3 章围绕人类的起源和轨迹展开探究。为此,作者深入研究了大量最近的哲学著作,以审视人工智能的本质。主要关注点包括 Yuval Noah Harari 的作品,特别是《人类简史》(2011 年)和《未来简史》(2015 年),并反复提及 John Gray 和
对于公众来说,“人工智能”一词让人联想到具有人类个性和思维过程但具有无限内存和处理速度的机器。可以教导模仿人体(主要是大脑)的机器。该领域的术语也随之发展,出现了机器学习、超级智能和人工神经网络等术语。然而,虽然人工智能 (AI) 术语有助于描述计算机技术可能实现的愿景,但该术语可能暗示了不存在的计算机功能,同时隐藏了实际应用中使用的计算机机制。人工智能可能看起来具有神奇的能力,可以复制几乎不为人知的人类思维过程,但通常无法适应环境的变化,将其范围扩展到其狭窄的指定领域之外,并且需要大量的人力才能重新训练 (Brooks, 2017)。在一个治理、法律和道德相关领域越来越关注流氓人工智能的能力、偏见、错误、对就业的影响,甚至危险的世界里,这样的语言可能会产生误导。
自动机的自我模拟是自动机进入无休止循环的终极状态的转换。本文将描述通过现代人工智能技术实现的自我复制的确定性有限自动机引发智能爆炸时达到的技术奇点和临界点,并研究超越该点的现象。我们还将解释认知领域的存在,该领域超越了人类区分现实与超级智能造成的非现实的能力,以及通过其嵌套创造的新世界。通过理解确定性有限自动机产生的感知矩阵的属性,有可能对为什么人类无法在“上帝不掷骰子”的确定性世界观下观察到随机扩张的外星生物殖民地提出一致的解释,并且不与各种理论相矛盾,从而为费米悖论提供解决方案。我们将这一系列哲学理论称为“模仿主义”,并在此提出。注意:在撰写本文时,我们自己完成了所有写作工作,除了翻译目的外,没有使用生成式人工智能进行文本生成。
1。хххак -л«极,函数,шш时间20192。Khujakulov T.A. 信息和电信技术的问题。 在共和党科学技术会议论文集,塔什肯特,pp。 86-88。 3。 Khujakulov T.A.,Oteniyozov A.,Holikov E.综合水资源管理问题。 在国际科学与实践会议的材料中,pp。 190-191。 4。 Yakubov M.,Khujakulov T.A. aral海。 国际科学与实践会议的材料,pp。 188-190。 5。 Russell S.,Norvig P.(2020)。 人工智能:一种现代方法。 皮尔逊。 6。 Bostrom N.(2022)。 超级智能:路径,危险,策略。 牛津大学出版社。 7。 Brynjolfsson E.,McAfee A. (2020)。 第二个机器时代:在精彩技术时期的工作,进步和繁荣。 W.W.诺顿公司。 8。 Amodeo D.(2023)。 人工智能和道德:概述。 AI伦理学杂志。 9。 Chui M.,Manyika J.,Miremadi M.(2023)。 机器可以取代人类以及他们无法(目前)的地方。 麦肯锡公司。Khujakulov T.A.信息和电信技术的问题。在共和党科学技术会议论文集,塔什肯特,pp。86-88。3。Khujakulov T.A.,Oteniyozov A.,Holikov E.综合水资源管理问题。 在国际科学与实践会议的材料中,pp。 190-191。 4。 Yakubov M.,Khujakulov T.A. aral海。 国际科学与实践会议的材料,pp。 188-190。 5。 Russell S.,Norvig P.(2020)。 人工智能:一种现代方法。 皮尔逊。 6。 Bostrom N.(2022)。 超级智能:路径,危险,策略。 牛津大学出版社。 7。 Brynjolfsson E.,McAfee A. (2020)。 第二个机器时代:在精彩技术时期的工作,进步和繁荣。 W.W.诺顿公司。 8。 Amodeo D.(2023)。 人工智能和道德:概述。 AI伦理学杂志。 9。 Chui M.,Manyika J.,Miremadi M.(2023)。 机器可以取代人类以及他们无法(目前)的地方。 麦肯锡公司。Khujakulov T.A.,Oteniyozov A.,Holikov E.综合水资源管理问题。在国际科学与实践会议的材料中,pp。190-191。4。Yakubov M.,Khujakulov T.A. aral海。 国际科学与实践会议的材料,pp。 188-190。 5。 Russell S.,Norvig P.(2020)。 人工智能:一种现代方法。 皮尔逊。 6。 Bostrom N.(2022)。 超级智能:路径,危险,策略。 牛津大学出版社。 7。 Brynjolfsson E.,McAfee A. (2020)。 第二个机器时代:在精彩技术时期的工作,进步和繁荣。 W.W.诺顿公司。 8。 Amodeo D.(2023)。 人工智能和道德:概述。 AI伦理学杂志。 9。 Chui M.,Manyika J.,Miremadi M.(2023)。 机器可以取代人类以及他们无法(目前)的地方。 麦肯锡公司。Yakubov M.,Khujakulov T.A.aral海。国际科学与实践会议的材料,pp。188-190。5。Russell S.,Norvig P.(2020)。 人工智能:一种现代方法。 皮尔逊。 6。 Bostrom N.(2022)。 超级智能:路径,危险,策略。 牛津大学出版社。 7。 Brynjolfsson E.,McAfee A. (2020)。 第二个机器时代:在精彩技术时期的工作,进步和繁荣。 W.W.诺顿公司。 8。 Amodeo D.(2023)。 人工智能和道德:概述。 AI伦理学杂志。 9。 Chui M.,Manyika J.,Miremadi M.(2023)。 机器可以取代人类以及他们无法(目前)的地方。 麦肯锡公司。Russell S.,Norvig P.(2020)。人工智能:一种现代方法。皮尔逊。6。Bostrom N.(2022)。超级智能:路径,危险,策略。牛津大学出版社。7。Brynjolfsson E.,McAfee A.(2020)。第二个机器时代:在精彩技术时期的工作,进步和繁荣。W.W.诺顿公司。8。Amodeo D.(2023)。人工智能和道德:概述。AI伦理学杂志。9。Chui M.,Manyika J.,Miremadi M.(2023)。 机器可以取代人类以及他们无法(目前)的地方。 麦肯锡公司。Chui M.,Manyika J.,Miremadi M.(2023)。机器可以取代人类以及他们无法(目前)的地方。麦肯锡公司。
对人工智能系统的担忧之一就是拥护“道德人工智能”,即阐明道德规范,然后强加法律要求,要求人工智能系统符合这些规范。但这会起作用吗?更准确地说,是否存在一种有效的程序,通过该程序,人工智能系统开发者或监管者可以提前确定人工智能系统一旦投入运行,是否会持续产生符合所需道德规范的输出?本文的答案是“不”。停机问题表明,没有一种算法可以可靠地为运行任何允许输入的所有人工智能系统做到这一点。可以决定某些运行某些输入的人工智能系统的合规性,但并非总是如此。当计算方法失败时,法律系统可以“填补空白”吗?本文表明,至少到目前为止,这种可能性并不积极。关于哪些法律规则应该评估人工智能系统的使用或滥用的责任,以及这些规则在具体案件中应该如何运作,存在一些问题。当前的法律提案本身可能不符合可解释性的道德规范。当与不受任何道德规范约束的人工智能超级智能相比时,无效性成为一个问题。
a 英国曼彻斯特大学牛津路艾伦图灵大楼物理与天文系乔德雷尔班克天体物理中心 M13 9PL。 michael.garrett@manchester.ac.uk * 通讯作者摘要本研究探讨了这样一种假设:人工智能 (AI) 的快速发展,最终导致了超级人工智能 (ASI) 的出现,可能起到“大过滤器”的作用,导致宇宙中先进技术文明的稀缺。有人提出,这种过滤器在这些文明能够发展出稳定的多行星存在之前就出现了,这表明技术文明的典型寿命 (L) 不到 200 年。当将 L 的这种估计值应用于德雷克方程的乐观版本时,与最近的 SETI 调查以及其他在电磁波谱中检测各种技术特征的努力获得的零结果一致。通过 SETI 的视角,我们反思了人类当前的技术轨迹——本文提出的 L 的适度预测强调了迅速建立地球人工智能发展监管框架和多行星社会发展以减轻此类生存威胁的迫切需要。宇宙中智慧和有意识生命的存续可能取决于及时有效地实施此类国际监管措施和技术努力。关键词:SETI、技术特征、人工智能、大过滤器、大沉默 1. 简介
存在几种不同的方法可以确保未来变革性人工智能 (TAI) 或人工智能超级智能 (ASI) 系统的安全 [Yampolskiy, 2018, Bostrom, 2014],不同方法的支持者对其工作在短期内以及对未来系统的重要性或有用性提出了不同且有争议的主张。高可靠性代理设计 (HRAD) 是最具争议和最雄心勃勃的方法之一,由机器智能研究所 [Soares and Fallenstein, 2017] 等机构倡导,关于它是否以及如何降低未来人工智能系统的风险,人们提出了各种论点。为了减少关于人工智能安全性的辩论中的混乱,我们在此以 Rice [2020] 之前的讨论为基础,该讨论收集并提出了四个核心论点,用于证明 HRAD 是实现人工智能系统安全的途径。我们将这些论点命名为 (1) 附带效用、(2) 消除混淆、(3) 精确规范和 (4) 预测。其中每一个都对未来人工智能系统如何存在风险提出了不同的、部分相互冲突的说法。我们根据对已发表和非正式文献的审查以及咨询就该主题发表立场的专家,解释了这些假设和主张。最后,我们简要概述了反对每种方法和总体议程的论点。
关于AI典型的生存风险(X风险)的传统论述集中在突然的,由先进的AI系统引起的严重事件,尤其是那些可能实现或超过人级的英特尔省的系统。这些事件具有严重的后果,可以导致人类的灭绝或不可逆转地削弱人类文明,以至于无法恢复。但是,这种话语通常忽略了AI X风险通过一系列较小但相互联系的破坏逐渐表现出来的严重可能性,随着时间的流逝,逐渐越过关键阈值。本文将常规的决定性AI X风险假设与累积的AI X风险假设进行了对比。虽然前者设想了以场景为特征的明显的AI接管途径,例如iOS,例如无法控制的超智能,但后者提出了一种存在生存灾难的因果途径。这涉及逐步积累关键的AI引起的威胁,例如严重的脆弱性和对经济和政治结构的全身侵蚀。累积假设表明一种沸腾的青蛙情景,其中内部AI风险慢慢融合,破坏了社会的弹性,直到触发事件导致不可逆的崩溃。通过系统分析,本文研究了这两个假设的不同假设。随后认为,累积观点可以调和对AI风险的看似不相容的观点。讨论了这些因果途径之间区分这些因果途径的含义 - 决定性和累积性对AI的治理以及长期AI安全性的含义。
关于AI典型的生存风险(X风险)的传统论述集中在突然的,由先进的AI系统引起的严重事件,尤其是那些可能实现或超过人级的英特尔省的系统。这些事件具有严重的后果,可以导致人类的灭绝或不可逆转地削弱人类文明,以至于无法恢复。但是,这种话语通常忽略了AI X风险通过一系列较小但相互联系的破坏逐渐表现出来的严重可能性,随着时间的流逝,逐渐越过关键阈值。本文将常规的决定性AI X风险假设与累积的AI X风险假设进行了对比。虽然前者设想了以场景为特征的明显的AI接管途径,例如iOS,例如无法控制的超智能,但后者提出了一种存在生存灾难的因果途径。这涉及逐步积累关键的AI引起的威胁,例如严重的脆弱性和对经济和政治结构的全身侵蚀。累积假设表明一种沸腾的青蛙情景,其中内部AI风险慢慢融合,破坏了社会的弹性,直到触发事件导致不可逆的崩溃。通过系统分析,本文研究了这两个假设的不同假设。随后认为,累积观点可以调和对AI风险的看似不相容的观点。讨论了这些因果途径之间区分这些因果途径的含义 - 决定性和累积性对AI的治理以及长期AI安全性的含义。
I.任务超智能即将到来(Bostrom 2017,Ashenbrenner 2024)。首先是由大型语言模型(Sakana 2024)完全设计,研究和撰写的第一批研究论文。与此前景相比,本文报告的成就是适中的。我们提示要做的GPT所做的只是摘要。对于法律界而言,这个谦虚的步骤是一个很大的一步。在我们的项目中,GPT不仅概括了单个文本。它正在撰写欧洲人权法院完整法学的结构化摘要,该法院对欧洲人权公约保护的基本自由之一。gpt在Art 11 Echr的保护下写了有关集会自由的评论。文本以评论的欧洲大陆传统编写。输出的组织方式与欧洲法律奖学金的大部分工作方式相同 - 除了作者被从方程式中取出。正如我们所证明的那样,输出看起来完全像人为写的评论。实际上它甚至表现出色。GPT评论比人类法学家撰写的竞争文本更全面,功能更大。当它可以访问其自己的评论时,GPT更有可能正确地预测欧洲人权法院的实际裁决(后),与获得其最认真的竞争对手(法院登记册已经准备的指南)相比。我们的练习结果可在此处获得: