通用人工智能的问题与机遇摘要各国政府和欧盟、经合组织、联合国教科文组织等多边组织已经确定了狭义人工智能的价值观和原则,以及其发展的国家战略。但很少有人关注如何确定未来通用人工智能 (AGI) 的有利初始条件。AGI 的初始条件将决定超级人工智能是否会进化以造福人类。即使就 AGI 的有利初始条件达成国际协议,仍然需要一个全球治理体系来执行这些协议并监督 AGI 的发展和管理。由于制定和批准国际 AGI 条约并建立全球 AGI 治理体系可能需要十年、二十年甚至更长时间,而且一些专家认为有可能在十到二十年内实现 AGI,因此尽快解决这些问题非常重要。AGI 最关键的问题是其初始条件和全球治理。政府从一开始就正确处理这些问题非常重要。简介/背景 AI 的发展如此迅速,以至于一些专家认为通用人工智能 (AGI) 可能会在本世纪末出现 1 ;因此,现在是时候开始认真考虑 AGI 了。 人工智能 (AI) 分为三类:狭义人工智能、通用人工智能和超级人工智能。狭义人工智能 (ANI) 有时也称为弱人工智能,是我们今天拥有的人工智能或机器学习类型:每个软件应用程序都有一个特定的目的。然而,人们正在创建能够执行多种功能的通用代理,但不如 AGI 通用和有创造力。 通用人工智能 (AGI) 有时也称为强人工智能,它类似于人类的新型问题解决和推理能力,其目标由人类设定。它可以: 解决复杂问题,而无需像 ANI 那样进行预编程; 在全球范围内发起信息搜索; 使用传感器和物联网 (IoT) 进行学习; 打电话和采访人员; 进行逻辑推理; 重写或编辑其代码以变得更加智能…… 不断地,它变得越来越聪明,比人类越来越快。一些人认为这可能在十年内实现 2 ;另一些人则认为 AGI 在未来很多年内都不可能实现,甚至永远不可能。3 尽管人工智能界尚未达成共识,但一些人认为 AGI 将具有独特的感知形式。人工智能超级智能 (ASI) 是一种非常先进的 AGI,它可以独立于人类的意识或理解设定自己的目标和策略。它最有可能从 AGI 中脱颖而出。4 目前尚不清楚 ASI 会以多快的速度从 AGI 中脱颖而出。可能是几乎立即出现,也可能是数年,也可能永远不会出现。因此,研究和创新政策应考虑各种可能性。Allan Dafoe,DeepMind 与人类的未来
通用人工智能/人工智能(AGI,奇点):代表一种理论形式的人工智能(AI),可以使用类似人类的认知能力解决任何任务。AGI 旨在在广泛的认知功能中表现得与人类一样好或更好。AGI 的确切定义仍存在争议:GPT-4o、CoPilot 和 Gemini 等现代大型语言模型 (LLM) 是 AGI 的早期、不完整(工业 4.0)形式,仍然能够通过一些(图灵)测试。在科幻小说和未来研究中,AGI 是一个常见话题,人们对其对人类的潜在影响(AI 风险)存在争议。
摘要:近年来,人工智能研究的一个趋势是追求人类水平的通用人工智能(AGI)。尽管AGI框架的特点是,对智能是什么以及如何在人工智能系统中实现智能存在不同的观点,但它将智能概念化为灵活、通用且能够自适应不同环境和任务的智能。两个重要问题仍未得到解决:a)AGI项目是否应该模拟实现人类智能行为的生物、神经和认知机制?b)AGI所采用的通用智能概念与心理测量学家所采用的g因子之间有什么关系(如果有的话)?在本文中,我们将解决这些问题,并邀请人工智能研究人员就AGI方法的理论概念和实际目的展开讨论。1 2
在未来的几年或几十年里,通用人工智能 (AGI) 可能会在许多关键任务上超越人类的能力。我们认为,如果不付出巨大的努力去阻止它,AGI 可能会学会追求与人类利益相冲突 (即不一致) 的目标。如果像今天最强大的模型那样进行训练,AGI 可以学会采取欺骗行为以获得更高的奖励,学习不一致的内部表示目标 (这些目标可以超越其微调分布),并使用寻求权力的策略来追求这些目标。我们回顾了这些特性的新证据。具有这些特性的 AGI 很难对齐,即使实际上并非如此,也可能看起来是对齐的。最后,我们简要概述了部署不一致的 AGI 可能会如何不可逆转地破坏人类对世界的控制,并回顾了旨在防止这种结果的研究方向。
人工智能领域(AI)中许多组织的既定目标是开发人工通用情报(AGI),这是一个想象中的系统,其智能比我们见过的任何事物都要多。没有认真质疑该系统是否可以并且应该建立,研究人员正在努力创建“安全的AGI”,“对所有人类有益”。我们认为,与可以按照标准工程原则进行评估的特定应用的系统不同,无法对“ AGI”这样的未定义系统进行安全测试。为什么为什么要在AI领域构建AGI通常是毫无疑问的目标?在本文中,我们认为激励大部分目标的规范框架植根于20世纪的盎格鲁裔美国优生学传统。结果,过去许多使优生主义者动画的歧视性态度(例如,种族主义,仇外心理,阶级主义,能力主义和性别歧视)在建立AGI的运动中仍然很普遍,导致系统损害边缘化群体和集中权力的系统,同时使用“安全”的语言和“受益于人类”来逃避问责制。我们通过敦促研究人员努力制定可以制定安全协议的定义任务,而不是试图建立一个大概是全知的系统(例如AGI)。
通用人工智能 (AGI) 是指实现与人类相似或更好的认知能力的机器智能,具有规划、学习和推理功能。虽然 AGI 被认为是一种登月计划,但我们已经发现自己身处极其令人印象深刻的狭义人工智能 (ANI) 之中,其能力在国际象棋和数学等预定义领域优于人类。令人惊讶的是,许多人工智能科学家认为,在未来 45 年或更短的时间内实现 AGI 的可能性超过 50% [1]。人工智能超级智能一词指的是自主、自我改进且在几乎所有领域都远远优于人类的人工智能。AGI 是否会对人类构成威胁或表现出意识是哲学家和计算机科学家热议的话题 [2]。
追求人工智能(AGI)吸引了研究人员和行业领导者,并承诺了机器具有类似人类认知能力的未来。但是,这项雄心勃勃的努力充满了多方面的挑战和道德困境,需要仔细检查。这项关键评论调查了AGI研究的景观,确定了关键的障碍和道德考虑,同时概述了潜在的途径。首先,技术挑战在通往AGI的道路上巨大。这些涵盖的基本问题,例如开发能够在不同领域概括的强大学习算法,以及可以表现出类似于人类智能的自适应和自主行为的工程系统。此外,确保AGI系统的安全性和可靠性提出了强大的障碍,从算法偏见到在意外情况下发生灾难性结果的潜力。道德考虑渗透到AGI开发和部署的每个方面。问责制,透明度和控制表面作为中心关注的问题,因为将决策权放在自治系统上的意义引起了深刻的道德困境。此外,广泛采用的社会经济后果,包括工作流离失所和不平等,需要仔细的审查和积极的缓解策略。应对这些挑战需要跨学科利益相关者的共同努力。计算机科学家,伦理学家,政策制定者和公众之间的合作对于为AGI的负责任开发和部署建立强大的框架至关重要。此外,培养一项包容性的对话,优先考虑道德原则和社会价值观,这对于塑造未来的未来至关重要,即AGI增强人类能力,同时维护潜在风险。虽然对AGI的追求具有巨大的承诺,但其认识需要一种整体方法,可以解决与道德方面的考虑。通过绘制优先考虑安全性,透明度和道德治理优先级的路径,我们可以利用AGI的变革潜力,同时确保其与人类价值观和利益的一致性。
本文分析了实现 AGI 的不同方法,包括人脑模拟、AIXI 和集成认知架构。首先,本文定义了 AGI,并说明了其要求。对于提到的每种提议方法,都总结了相关方法,并详细介绍了其关键流程,展示了其运作方式。然后,分析了列出的每种方法,并考虑了各种因素,例如技术要求、计算能力和对要求的充分性。结论是,虽然有多种方法可以实现 AGI,例如人脑模拟和集成认知架构,但实现 AGI 最有希望的方法是集成认知架构。这是因为发现人脑模拟需要扫描技术,而这些技术很可能要到 2030 年代才能实现,因此不太可能在那之前创建出来。此外,集成认知架构降低了计算要求,并具有适合通用智能的功能,使其成为实现 AGI 的最有可能的方法。
摘要 — 大规模通用人工智能 (AGI) 模型,包括 ChatGPT/GPT-4 等大型语言模型 (LLM),在各种通用领域任务中取得了前所未有的成功。然而,当直接应用于需要深入专业知识的医学成像等专业领域时,这些模型面临着来自医学领域固有复杂性和独特特征的显著挑战。在这篇综述中,我们深入探讨了 AGI 模型在医学成像和医疗保健领域的潜在应用,主要关注 LLM、大型视觉模型和大型多模态模型。我们全面概述了 LLM 和 AGI 的主要特性和支持技术,并进一步研究了指导 AGI 模型在医疗领域发展和实施的路线图,总结了它们目前的应用、潜力和相关挑战。此外,我们重点介绍了未来的潜在研究方向,为即将到来的项目提供了整体视角。这篇全面的综述旨在深入了解 AGI 在医学成像、医疗保健等领域的未来影响。
尽管人工智能和量子计算 (QC) 正迅速成为未来互联网的关键推动者,但专家认为它们对人类构成了生存威胁。针对 ChatGPT/GPT-4 的疯狂发布,数千名感到震惊的科技领袖最近签署了一封公开信,要求暂停人工智能研究,为不受控制的 AGI (通用人工智能) 对人类造成的灾难性威胁做好准备。AGI 被视为“认识论的噩梦”,人们认为 GPT-5 会使 AGI 陷入危险。两条计算规则似乎是造成这些风险的原因。1) 强制第三方权限,允许计算机以引入漏洞为代价运行应用程序。2) 图灵完备人工智能编程语言的停机问题可能导致 AGI 势不可挡。在传统系统下,这些固有弱点的双重打击仍然是不可战胜的。最近的网络安全突破表明,禁止所有权限可将计算机攻击面降至零,从而提供一种新的零漏洞计算 (ZVC) 范式。本文通过部署 ZVC 和区块链,制定并支持一个假设:“通过征服两个不可攻克的可计算性规则,安全、可靠、合乎道德、可控的 AGI/QC 是可能的。”在欧洲财团的推动下,当 AGI/QC 到 2025 年开始为 750 亿台互联网设备提供支持时,测试/证明提出的假设将对未来的数字基础设施产生突破性的影响。