简介 “人工智能”(AI)一词由科学家约翰·麦卡锡于 1956 年提出。他将人工智能定义为“制造智能机器的科学和工程”。在接下来的几十年里,人们对人工智能的兴趣有高潮也有低谷。 2011年,由于深度学习技术的发展,人工智能再次复兴。 Andrew Ng、Geoffrey Hinton、Yoshua Bengio、Yann LeCun等研究人员也因此推动了算法的智能化。之前被认为不可能的人工智能应用突然变得可行。例如,超级计算机沃森(IBM)肯轻松击败了他的人类对手詹宁斯和布拉德·鲁特,这两位选手曾在电视智力竞赛节目《危险边缘!》中打破纪录,而谷歌则利用人工智能从我们的点击行为中学习,以区分狗和猫。此外,2016 年,谷歌开发的 AlphaGo 在围棋比赛中击败了世界冠军李世石,而我们当时认为围棋只有依靠人类的智慧(和直觉)才能达到高水平。在高等教育领域,人工智能正在全球范围内取得重大进展。高等教育机构在实施人工智能 1 时取得了可衡量的成果。因此,人们对人工智能的作用寄予厚望,例如在教师工作量、个性化学习、数字学习资源的有效性以及对学生表现的切实见解方面2。目前已建造了许多成功的原型。我们现在面临的挑战是扩大这些原型并将其集成到整个机构的系统中 3 。为此,我们必须重新审视当前的决策。我们利用人工智能获得的新数据、分析、技术和服务如果以传统的决策方式应用,将不会有效且可持续。在本次黑客马拉松期间,我们将探索人工智能在当代教育实践中的实际可能性。我们专注于教育中的认知任务的自动化,特别是教师和学生的作用和后果。
(2022 年 8 月) 简介 本文件提供了与人工智能相关的发明(即,与 AI 相关的发明)的拟议类别定义以及每个类别的相应示例。为了确保更好地理解类别定义并促进连贯的对话,我们在下面提供了 AI 技术的高级、无争议的描述。由于该术语固有的无定形性和多种解释,我们竭力避免对 AI 的明确定义采取立场。相反,我们认为定义与 AI 相关的发明类别将提供足够的框架,以促进继续开展 AI 政策问题的工作。对于大多数情况而言,当代用语中的 AI 本质上是自动化的同义词。从理论的角度来看,AI 有三种类型:狭义 AI(或弱 AI)、通用 AI(或强 AI)和超级 AI。在这些类别中,只有狭义人工智能是当今存在的,而且大多数人认为,这是可预见的未来唯一存在的人工智能类型。1 狭义人工智能仅涉及归纳推理,而通用人工智能和超级人工智能涉及演绎推理和溯因推理——这些技能目前只有人类才具备。狭义人工智能描述的是擅长执行一组定义的任务的计算机程序(例如,与下棋或围棋或提出购买建议、销售预测或天气预报相关的任务)。从最广泛的意义上讲,当今的人工智能包括自动执行传统人类任务的非学习系统(例如,基于规则的专家系统)。机器学习是当前人工智能的一个子集,其中硬编码算法被基于示例输入输出对训练的模型所取代,以预测以前未见过的输入的输出。深度学习是机器学习的一个子集,它采用庞大的人工神经元网络。通用人工智能是一个纯粹假设的计算机程序,可以像人类一样理解和推理其环境。同样是纯粹假设的,超级人工智能描述的是一种计算机程序,它比几乎所有领域的所有人类智能总和都要聪明得多。
两架波音 737-Max 商用客机最近坠毁,引发了人们对嵌入式计算系统 (MCAS) 的重要质疑,该系统的安装是为了让新的 737 机型在人类飞行员眼中更像旧机型 [ 1 ]。提出的关键问题之一是,人类飞行员并不知道该系统的存在,而且该系统的“智能”容易出现单点故障(迎角传感器)[ 1 ]。人工智能 (AI) 将在这种系统中发挥越来越重要的作用,尤其是当自主机器在太空或深海等遥远而恶劣的环境中运行时 [ 2 ]。在这种恶劣的环境下,当发生故障时,准确评估问题所在至关重要,这样设计人员才能从故障中吸取教训。同时,当此类系统做出基于证据的决策时,解释为什么以及如何做出某个决策至关重要。欧盟法律要求对此类解释进行解释,这是 2016 年颁布的“解释权”的一部分,主要是在对公民产生不利影响的决策背景下。现代人工智能系统利用嘈杂且通常不确定的数据来代表人类做出决策。当这些系统发挥作用时,它们具有很大的实用性,可用于自动驾驶汽车和在恶劣环境中运行的自主机器人等。除了实用性之外,这些系统还可以采用自学模式,使它们在国际象棋和围棋等游戏中超越人类的能力 [ 3 – 5 ]。然而,与人类智能一样,人工智能有时也未能实现目标。一个众所周知的失败案例是特斯拉 Model S,由于人工智能对白色卡车的特征提取和智能理解不准确,导致汽车在“自动驾驶模式”下发生致命车祸 [6]。人工智能的失败并不令人惊讶。智能是基于不确定性做出决策的行为。这一事实将人工智能与基于流程图设计的非智能决策系统区分开来,就像大多数计算机程序一样 [7]。对于人类来说,在童年和成年时期,许多类型的学习都需要这样的失败。大多数机器学习 (ML) 人工智能算法还依赖于“训练阶段”,在此阶段,工件在人类标记的数据集上进行指导,并从失败中学习,然后才被允许在非标记数据上“野外”运行 [8]。
最近,我们越来越多地听到人工智能这个词。因为人工智能的研究已经进行了很多年,但并不总是取得成功,但随着近年来深度学习的出现,终于有可能使这成为现实。人工智能研究,即利用机器执行人类智力活动的实践,几乎与计算机的出现同时开始,并且自 1956 年达特茅斯会议以来一直在认真开展。最初人们认为这可以借助计算机的强大计算能力来实现,但是并没有成功。此外,人们还研究是否可以通过对一切进行编程来实现智能,但所得到的结果还远远称不上智能。这个时代的技术仍在今天的智能扬声器和 Pepper 机器人中使用,但在与它们短暂交谈之后,人们很快就会厌倦它们,并且在很多情况下停止使用它们。基于这些经验的反思,通过模拟控制人类智力的大脑的功能来实现人工智能的想法诞生,并提出了神经网络和模糊概念。我当时也参与了这些领域的研究,虽然也取得了一些成果,但很多成果很难称得上是突破性的。深度学习就是在这样的历史背景下诞生的。这本质上是一个多层神经网络,研究发现,与当时使用的三到五层的神经网络相比,多层可以显著提高性能。多层化之所以困难,主要原因是当时计算机的计算能力较差,无法在实际的计算时间内完成多层神经网络所需要的大量计算。多层神经网络中的计算涉及大量的乘法和加法运算,但大多数运算都是独立的,没有顺序依赖性,从而可以实现并行运算。因此,利用近年来个人计算机中搭载的具有大量计算单元的GPU,以实用的计算时间和成本进行计算是高效的,这也是深度学习在许多应用领域得到应用的原因之一。另外,由于优化深度学习的机器学习部分是类似旅行商问题的优化问题,因此也可以使用量子计算机。因此,基于深度学习的人工智能现在可以以实际的计算时间和成本实现,并且正在用于各种应用领域。人工智能的应用开始出现在广泛的领域,包括超越人类大师的围棋和将棋程序、自动驾驶汽车、图像识别、语音识别、翻译以及文本、音乐和绘画的创作。这使得机器能够在很多领域做出智能决策,这在过去并不是完全可能的。
早上好。主席布里格林、排名成员坦格曼和委员会的其他杰出成员,感谢你们邀请我参加今天的听证会。我叫安东尼·阿吉雷,是加州大学圣克鲁斯分校的教授,也是未来生命研究所的联合创始人和联席主任,该研究所是一个非营利组织,汇集了学术界、企业界和非营利组织的杰出人物,研究、讨论和分享有关人工智能等重大社会塑造新技术影响的见解。除了今天的证词外,我还想就我们准备的关于 H.140 和 H.263 的具体评论进行记录。突然间,从几年前开始,机器学习和人工智能系统无处不在——从驾驶路线到不久后将自动驾驶的汽车,包括识别人脸、翻译文本、识别语音方向、组织新闻提要、击败国际象棋和围棋大师、撰写文本和协助科学研究的系统。 2017 年 1 月,该研究所在加利福尼亚州阿西洛马召开了一次会议,召集人工智能和相关领域的推动者讨论一个紧迫的问题:鉴于机器学习和人工智能能力和应用的近期爆炸式增长,我们如何确保人工智能不仅功能强大,不仅有利可图,而且对消费者、用户和整个社会都有益。我们为这个小组设定了一项具体任务:寻找、制定、辩论并希望采用一套可以指导技术人员、政策制定者和其他人实现这一目标的原则。这个过程从阅读和综合所有现有的人工智能政策提案开始——这是当时可以做的事情,然后在会议前几周撰写和辩论具体的可能性,然后亲自讨论和完善它们几天。这超出了我们的预期。我们能够制定 23 项原则,并得到整个领域的一致支持。他们得到了来自谷歌 DeepMind、Facebook、OpenAI、谷歌大脑、苹果等公司人工智能研究负责人的支持,总共超过 1000 名人工智能研究人员,以及科技行业的领导者,如埃隆·马斯克和萨姆·奥特曼,学术界人士,从已故的斯蒂芬·霍金到 Stuart Russell 和 Peter Norvig,他们实际上编写了人工智能教科书,还有许多非营利组织和政策界人士。我们之所以能够获得这种程度的支持和共识,是因为这个问题具有重大意义
最小最大算法 Alpha-Beta 剪枝 人工智能中的最小最大算法 最小最大算法是一种递归或回溯算法,用于决策和博弈论。它为玩家提供最佳走法,假设对手也发挥最佳。最小最大算法使用递归来搜索游戏树。 最小最大算法主要用于人工智能中的游戏,如国际象棋、跳棋、井字游戏、围棋和各种双人游戏。该算法计算当前状态的最小最大决策。在这个算法中,两个玩家玩游戏,一个称为 MAX,另一个称为 MIN。两个玩家都进行战斗,因为对手玩家获得最小利益,而他们获得最大利益。游戏的两个玩家都是对方的对手,其中 MAX 将选择最大值,而 MIN 将选择最小值。最小最大算法执行深度优先搜索算法来探索完整的游戏树。极小最大算法一直进行到树的终端节点,然后以递归的方式回溯树。 极小最大算法的工作原理 可以用一个例子轻松描述极小最大算法的工作原理。下面我们举一个代表双人游戏的游戏树的例子。在这个例子中,有两个玩家,一个叫做最大化者,另一个叫做最小化者。最大化者将尝试获得最高可能的分数,而最小化者将尝试获得最低可能的分数。该算法应用 DFS,因此在这个游戏树中,我们必须一直穿过叶子才能到达终端节点。在终端节点,给出了终端值,因此我们将比较这些值并回溯树,直到初始状态发生。 Alpha-beta 剪枝 Alpha-beta 剪枝是极小最大算法的修改版本。它是极小最大算法的一种优化技术。正如我们在极小最大搜索算法中看到的那样,它必须检查的游戏状态数量在树的深度上呈指数增长。由于我们无法消除指数,但可以将其减半。因此,有一种技术可以计算出正确的极小极大决策,而无需检查博弈树的每个节点,这种技术称为剪枝。这涉及两个阈值参数 Alpha 和 beta,用于未来扩展,因此称为 alpha-beta 剪枝。它也被称为 Alpha-Beta 算法。
2023 年 4 月 摘要:适当监管人工智能是一项紧迫的政策挑战。立法机构和监管机构缺乏将公众需求转化为法律要求所需的专业技术知识。过度依赖行业自律无法让人工智能系统的生产者和用户对民主要求负责。有人提出了监管市场,即政府要求监管对象从私人监管机构购买监管服务。这种人工智能监管方法可以克服命令和控制监管和自我监管的局限性。监管市场可以使政府为人工智能监管制定政策优先事项,同时依靠市场力量和行业研发努力来开创最能实现政策制定者既定目标的监管方法。 1. 简介 过去十年见证了人工智能领域取得的惊人成就。这十年始于图像分类的突然进步(He 等人,2019 年)。五年后,深度强化学习在围棋等狭窄任务中表现出意想不到的能力(Silver 等人,2016 年)。最近,拥有数十亿个参数并经过数十亿个单词和图像训练的大型生成模型已经展现出令人惊讶的基础能力,可以编写合理的文本或计算机代码、阐明想法、根据命令生成图像、回答复杂问题等等(Goodfellow 等人,2020 年;Wei 等人,2022 年)。过去十年,围绕人工智能治理的讨论也发生了变化。早期认识到(Sweeney,2013 年;Buolamwini 和 Gebru,2018 年)基于随意选择的数据(从互联网上抓取的图像或文字、招聘决策历史)训练的不透明分类系统将重现并可能放大种族和性别偏见,这引发了全球关于人工智能伦理的讨论。很快,行业和民间社会组织就出现了一系列原则和指导方针(Jobin 等人,2019 年)。现在,各国政府已经开始探索(在某些情况下是出台)立法来管理已经通过人工智能驱动的互联网平台和设备嵌入日常生活的技术的开发和使用。然而,治理人工智能的挑战是巨大的。任何新技术都面临着“步调”问题(Marchant 2011),即创新速度落后于行业实验室,治理速度落后于政治和官僚机构,人工智能也不例外。但治理人工智能的挑战不仅仅是延迟,而是传统治理工具的能力与我们需要的解决方案的性质之间的根本不匹配,以确保一项技术能够
人工智能“是指通过分析环境并采取行动(具有一定程度的自主性)来实现特定目标而表现出智能行为的系统”(European-Commission 2018)。因为这个定义足够正式和通用,能够涵盖该领域的大多数常见理解,所以它是一个有用的起点。事实上,正是基于这种理解,欧盟委员会高级专家组对人工智能进行了更为细致的定义,即“由人类设计的系统,在给定复杂目标的情况下,通过感知环境、解释收集到的结构化或非结构化数据、根据从这些数据中获得的知识进行推理并决定为实现既定目标而采取的最佳行动(根据预定义参数)来在物理或数字世界中行动。人工智能系统还可以通过分析环境如何受到其先前行为的影响来学习调整其行为”(AIHLEG 2018)。除了有关人工智能定义的现有争议之外,我们可以确定以下对其功能至关重要的要素:通过传感器感知环境;根据感知到的数据进行推理/决策;通过执行器进行驱动。如此构想的人工智能为从医学到军事的不同领域开辟了多种可能性,从而引发了多重伦理问题。简而言之,人工智能和自动化的进步可能使对人员及其活动的监视、监控和跟踪更加普遍,以及信息在世界范围内更快地传播,这带来了许多安全和隐私挑战(Stahl and Wright 2018 )。此外,人工智能在医学、军事和自主武器发展中的潜在促进作用引发了关于不可靠性和问责制的问题(Hammond 2015 ;Hallaq et al. 2017 ;Horowitz 2018 )。此外,人工智能和自动化一起,可能会带来深远的经济和社会变革,对整个劳动力市场产生影响(Aicardi 等人,2018 年)。哪些类型的工作可能受到影响仍存在争议,但人们一致认为,人工智能将改变工作需求以及依赖人类能力和技能的职位的性质(Perisic,2018 年)。它可能会创造新的职位并消除现有的职位(EGE,2018 年),并通过预测分析等方式对传统的招聘和招募实践产生重大影响。在最先进的人工智能研究类型之一:自学习人工智能中,也出现了紧迫的伦理问题。自学习人工智能可以通过强化学习,不需要人类数据、指导或基本规则以外的领域知识(Silver 等人,2017 年)。据其开发人员称,自学习人工智能无需任何先前的专业知识即可“在具有挑战性的领域达到超人的水平”(Silver 等人,2017 年)。迄今为止,这种人工智能已在有限的环境中成功应用,特别是在国际象棋、围棋和扑克等游戏中,所有相关变量都可以预测,即使通过极其复杂的计算。这些系统在现实环境中的应用(例如自动驾驶汽车)提出了尚未解决的具有挑战性的问题,尽管我们不能排除它们的解决只是时间问题的可能性(Sokol 2018)。如果不考虑关注大规模潜在场景(例如超级智能 AI 接管)的“大伦理”问题(Muller 2016),很明显
人工智能“是指通过分析环境并采取行动(具有一定程度的自主性)来实现特定目标而表现出智能行为的系统”(European-Commission 2018)。因为这个定义足够正式和通用,能够涵盖该领域的大多数常见理解,所以它是一个有用的起点。事实上,正是基于这种理解,欧盟委员会高级专家组对人工智能进行了更为细致的定义,即“由人类设计的系统,在给定复杂目标的情况下,通过感知环境、解释收集到的结构化或非结构化数据、根据从这些数据中获得的知识进行推理并决定为实现既定目标而采取的最佳行动(根据预定义参数)来在物理或数字世界中行动。人工智能系统还可以通过分析环境如何受到其先前行为的影响来学习调整其行为”(AIHLEG 2018)。除了有关人工智能定义的现有争议之外,我们可以确定以下对其功能至关重要的要素:通过传感器感知环境;根据感知到的数据进行推理/决策;通过执行器进行驱动。如此构想的人工智能为从医学到军事的不同领域开辟了多种可能性,从而引发了多重伦理问题。简而言之,人工智能和自动化的进步可能使对人员及其活动的监视、监控和跟踪更加普遍,以及信息在世界范围内更快地传播,这带来了许多安全和隐私挑战(Stahl and Wright 2018 )。此外,人工智能在医学、军事和自主武器发展中的潜在促进作用引发了关于不可靠性和问责制的问题(Hammond 2015 ;Hallaq et al. 2017 ;Horowitz 2018 )。此外,人工智能和自动化一起,可能会带来深远的经济和社会变革,对整个劳动力市场产生影响(Aicardi 等人,2018 年)。哪些类型的工作可能受到影响仍存在争议,但人们一致认为,人工智能将改变工作需求以及依赖人类能力和技能的职位的性质(Perisic,2018 年)。它可能会创造新的职位并消除现有的职位(EGE,2018 年),并通过预测分析等方式对传统的招聘和招募实践产生重大影响。在最先进的人工智能研究类型之一:自学习人工智能中,也出现了紧迫的伦理问题。自学习人工智能可以通过强化学习,不需要人类数据、指导或基本规则以外的领域知识(Silver 等人,2017 年)。据其开发人员称,自学习人工智能无需任何先前的专业知识即可“在具有挑战性的领域达到超人的水平”(Silver 等人,2017 年)。迄今为止,这种人工智能已在有限的环境中成功应用,特别是在国际象棋、围棋和扑克等游戏中,所有相关变量都可以预测,即使通过极其复杂的计算。这些系统在现实环境中的应用(例如自动驾驶汽车)提出了尚未解决的具有挑战性的问题,尽管我们不能排除它们的解决只是时间问题的可能性(Sokol 2018)。如果不考虑关注大规模潜在场景(例如超级智能 AI 接管)的“大伦理”问题(Muller 2016),很明显