在20世纪末,由于其较高的计算能力,计算机科学中的模拟系统已被数字系统广泛取代。然而,直到现在,这个问题一直在吸引人:大脑模拟还是数字化?最初,后者受到青睐,将其视为像数字计算机一样工作的图灵机。最近,最近,数字和模拟过程已结合在一起,将人类行为植入机器人中,从而赋予了人工智能(AI)。因此,我们认为将数学模型与大脑中计算的生物学进行比较是及时的。为此,突出了中枢神经系统中细胞和分子相互作用中明确鉴定的数字和模拟过程。,但在此期间,我们试图查明将计算机计算与生物计算显着特征区分开的原因。首先,在电气突触和通过间隙连接中观察到了真正的模拟信息处理,后者在神经元和星形胶质细胞中均观察到。显然与此相反的是,神经元动作电位(AP)或尖峰明显代表数字事件,例如Turing Machine的是/否或1/0。然而,尖峰很少均匀,但幅度和宽度可能会有所不同,这对突触前末端的发射机释放具有显着的差异作用,尽管量化(囊泡)释放本身是数字的。相反,在突触后神经元的树突部位,有许多计算的模拟事件。此外,信息的突触传播不仅是神经元的,而且由星形胶质细胞紧密地影响大脑中的大多数突触(三方突触)。至少在这一点上,LTP和LTD修改了突触可塑性,并被认为可以诱导短期和长期记忆过程,包括合并(等效于电子设备中的RAM和ROM)。当前有关大脑存储和检索记忆如何包括各种选项的知识(例如,神经元网络振荡,Engram细胞,星形胶质细胞合成菌)。表观遗传特征在记忆形成及其巩固中也起着至关重要的作用,这必然指导了基因转录和翻译等分子事件。总而言之,大脑计算不仅是数字或类似物,还是两者的组合,而且涵盖了并行的功能,并且具有更高的复杂性。
了解计算基础设施对人工智能政治经济的影响至关重要:它影响谁可以开发人工智能、开发什么样的人工智能以及谁从中获利。它定义了科技行业的集中度,激励了人工智能公司之间的恶性竞争,5 并深刻影响了人工智能的环境足迹。6 它使占主导地位的公司能够从依赖其服务的消费者和小型企业中获取租金,并在系统因单点故障而发生故障或失灵时造成系统性危害。最令人担忧的是,它扩大了拥有计算能力的公司的经济和政治权力,巩固了已经主导科技行业的公司的控制权。
计算能力或“计算”对于人工智能 (AI) 功能的开发和部署至关重要。因此,政府和公司已开始利用计算作为管理 AI 的手段。例如,政府正在投资国内计算能力,控制计算流向竞争国家,并补贴某些部门的计算访问。但是,这些努力只是触及了如何使用计算来管理 AI 开发和部署的表面。相对于 AI 的其他关键输入(数据和算法),与 AI 相关的计算是一个特别有效的干预点:它是可检测的、可排除的和可量化的,并且是通过高度集中的供应链生产的。这些特征,加上计算对于尖端 AI 模型的独特重要性,表明管理计算有助于实现共同的政策目标,例如确保 AI 的安全和有益使用。更准确地说,政策制定者可以使用计算来促进人工智能的监管可见性,分配资源以促进有益的结果,并实施对不负责任或恶意的人工智能开发和使用的限制。然而,虽然基于计算的政策和技术有可能在这些领域提供帮助,但它们的实施准备程度存在很大差异。一些想法目前正在试行,而另一些想法则因需要进行基础研究而受到阻碍。此外,幼稚或范围不明确的计算治理方法在隐私、经济影响和权力集中等领域存在重大风险。最后,我们建议采取护栏措施,以尽量减少计算治理带来的这些风险。
计算能力或“计算”对于人工智能 (AI) 功能的开发和部署至关重要。因此,政府和公司已开始利用计算作为管理 AI 的一种手段。例如,政府正在投资国内计算能力,控制计算流向竞争国家,并为某些部门提供计算访问补贴。然而,这些努力只是触及了如何使用计算来管理 AI 开发和部署的表面。相对于 AI 的其他关键输入(数据和算法),与 AI 相关的计算是一个特别有效的干预点:它是可检测的、可排除的和可量化的,并且是通过高度集中的供应链生产的。这些特征,加上计算对尖端 AI 模型的独特重要性,表明管理计算有助于实现共同的政策目标,例如确保 AI 的安全性和有益的使用。更准确地说,政策制定者可以使用计算来促进 AI 的监管可见性,分配资源以促进有益的结果,并实施对不负责任或恶意的 AI 开发和使用的限制。然而,尽管基于计算的政策和技术有可能在这些领域提供帮助,但它们的实施准备程度却存在很大差异。一些想法目前正在试点,而另一些则因需要进行基础研究而受到阻碍。此外,幼稚或范围不明确的计算治理方法在隐私、经济影响和权力集中等领域会带来重大风险。最后,我们建议采取护栏措施,以最大限度地降低计算治理带来的这些风险。
我们的客户对其行业和挑战有着丰富的了解,为了充分利用人工智能,他们需要一个像他们一样了解其业务的合作伙伴;一个拥有满足监管需求经验的合作伙伴。能够为他们提供一流人才、技术、计算能力和联盟的合作伙伴。这些都是让人工智能成为现实的必要元素。
自成立以来,NASA 率先开发了许多已成为标准的高端计算 (HEC) 技术和技巧。HEC 或超级计算提供关键的处理能力和省时功能,使 NASA 能够从大量数据中获得洞察力,而普通计算机则需要更长时间才能评估这些数据。广泛的员工、研究人员、合作伙伴、外部合作者和 NASA 任务理事会都在使用该机构的 HEC 功能。例如,NASA 目前正在使用 HEC 功能来模拟该机构计划的人类登陆火星,以及处理和分析成功登陆所必需的物理和环境数据。NASA 的两个主要 HEC 设施是位于戈达德太空飞行中心的 NASA 气候模拟中心和位于艾姆斯研究中心的 NASA 高级超级计算设施,但由于远程访问和云计算,NASA 的 HEC 资源被世界各地的 NASA 中心和授权的外部合作伙伴使用。
皮质锥体神经元的电活动由结构稳定、形态复杂的轴突树突树支持。轴突和树突在长度或口径方面的解剖差异反映了神经信息输入或输出的底层功能特化。为了正确评估锥体神经元的计算能力,我们分析了 NeuroMorpho.Org 数据库中的大量三维数字重建数据集,并量化了小鼠、大鼠或人类大脑皮层不同区域和层次的基本树突或轴突形态测量值。根据获得的形态测量数据对参与神经元电脉冲的离子总数和类型的物理估计,结合活动大脑消耗的葡萄糖所驱动的神经递质释放和信号传导的能量,支持在热力学允许的 Landauer 极限下进行高效的大脑计算,从而实现不可逆的逻辑运算。电压感应 S4 蛋白 Na + 、K + 或 Ca 2+ 离子通道 α 螺旋中的单个质子隧穿事件非常适合用作单个 Landauer 基本逻辑运算,然后通过穿过开放通道孔的选择性离子电流进行放大。这种计算门控的小型化允许在人类大脑皮层中每秒执行超过 1.2 个 zetta 逻辑运算,而不会因释放的热量而燃烧大脑。
近十年来,基于人工脉冲神经网络的神经形态架构兴起,例如 SpiNNaker、TrueNorth 和 Loihi 系统。这些架构中的大规模并行性以及计算和内存的共置可能使能耗比传统的冯·诺依曼架构低几个数量级。然而,到目前为止,由于缺乏正式的机器模型和神经形态计算的计算复杂性理论,因此无法将其与更传统的计算架构进行比较(特别是在能耗方面)。在本文中,我们迈出了建立这种理论的第一步。我们引入脉冲神经网络作为机器模型,与我们所熟悉的图灵机不同,信息及其操作共置在机器中。我们引入了典型问题,定义了复杂性类的层次结构,并提供了一些初步的完整性结果。
人工智能 (AI) 正在改变经济,并为生产力、增长和复原力带来新机遇。各国纷纷出台国家人工智能战略,以利用这些转变。然而,目前没有一个国家拥有足够的国家人工智能计算能力数据或有针对性的计划。这一政策盲点可能会危及国内经济目标。本报告为政策制定者提供了第一份蓝图,帮助评估和规划提高生产力和充分发挥人工智能经济潜力所需的国家人工智能计算能力。它为政策制定者提供了如何从三个维度制定国家人工智能计算计划的指导:能力(可用性和使用)、有效性(人员、政策、创新、访问)和复原力(安全、主权、可持续性)。该报告还定义了人工智能计算,盘点了衡量国家人工智能计算能力的指标、数据集和代理,并确定了衡量和对标各国国家人工智能计算能力的障碍。