首先,我们来明确一点——我不太喜欢把 MLA 称为“AI”,我更不想把这些当代“艺术”MLA 称为“AI”,因为这会让那些数学知识不太丰富的人将实际作用的机制混为一谈,认为它们在某种程度上与人类具有相同的机械能力,而事实并非如此。如果你想要争辩说当前的 MLA 可以有意识,我要告诉你,他们的生成网络充其量只是有机网络的类似网络表示的异形网络,但只代表一个子集,并且除了通过该同态之外,在拓扑上并不等同。如果你不太清楚这是什么意思,那也没关系。事实上,广为人知的“AI”研究故意忽视了他们的神经网络与生物神经网络的数学模型之间的拓扑分析,而将两者等同起来的大部分研究都是通过勾勒出他们达到预期结果的方法来实现的。也就是说:“人工智能”作为一个领域,充满了希望当前技术比现在更伟大的人,并且为了避免再次陷入人工智能寒冬,它可以带来大量资金,所以人们会撒谎,而这些谎言来自该领域受过良好教育的人,因此该领域之外的人就会相信他们,你就得到了一个永久的谎言。
摘要:人工智能 (AI) 和机器学习 (ML) 已成为环境科学家和工程师在研究和应用方面的重要工具。虽然这些方法近年来变得相当流行,但它们并不是新鲜事物。AI 方法的使用始于 20 世纪 50 年代,环境科学家在 20 世纪 80 年代开始采用它们。虽然“AI 寒冬”暂时减缓了增长速度,但最近的复苏又使其强劲回归。本文通过 AMS 人工智能环境科学应用委员会的视角讲述了 AI 在该领域的发展历程。环境科学拥有许多问题,可以通过智能技术进行改进。我们回顾了一些早期的应用以及当时的 ML 方法,以及它们的发展如何影响这些科学。虽然 AI 方法已经从 20 世纪 80 年代的专家系统转变为神经网络和其他数据驱动方法,以及最近的深度学习,但所解决的环境问题仍然相似。我们讨论了由于使用人工智能而取得最大进步的应用类型,以及它们在过去几十年中的发展情况,包括天气预报、概率预测、气候估计、优化问题、图像处理和改进预测模型等主题。最后,我们探讨了人工智能在环境科学中的应用前景,并思考了如何最好地将其与物理/动态建模方法相结合,以进一步推动我们的科学发展。
人工智能 (AI) 被认为是一门革命性的、改变世界的科学,尽管它仍然是一个年轻的领域,在确立可行的理论之前还有很长的路要走。每天都有新的知识以难以想象的速度产生,大数据驱动的世界已经到来。人工智能已经开发出各种各样的理论和软件工具,在解决困难和具有挑战性的社会问题方面取得了显著的成功。然而,该领域也面临着许多挑战和缺点,导致一些人对人工智能持怀疑态度。人工智能面临的主要挑战之一是相关性和因果关系之间的区别,这在人工智能研究中起着重要作用。此外,虽然控制论这个术语应该是人工智能的一部分,但它在人工智能研究中被忽视了很多年。为了解决这些问题,本文首次提出并分析了控制论人工智能 (CAI) 领域。尽管人们对人工智能充满乐观和热情,但它的未来可能会成为整个世界的“灾难性寒冬”,这取决于谁控制着它的发展。地球生存的唯一希望在于控制论人工智能和明智的人类中心革命的快速发展。本文提出了实现这两个目标的具体解决方案。此外,本文强调了区分职业/个人道德和永恒价值观的重要性,并强调了它们在未来人工智能应用中对于解决具有挑战性的社会问题的重要性。最终,人工智能的未来在很大程度上取决于接受某些道德价值观。
摘要 目的 尽管人工智能 (AI) 在医学中的作用得到越来越多的研究,但大多数患者并没有受益,因为大多数 AI 模型仍处于测试和原型环境中。临床 AI 模型的开发和实施轨迹复杂,缺乏结构化的概述。因此,我们提出了一个循序渐进的概述,以增强临床医生的理解并提高医学 AI 研究的质量。 方法 我们总结了开发和安全实施医学 AI 所需的关键要素(例如当前指南、挑战、监管文件和良好实践)。 结论 本概述对其他框架进行了补充,使利益相关者无需事先具备 AI 知识即可访问,因此提供了一种循序渐进的方法,其中包含实施所必需的所有关键要素和当前指南,从而有助于将 AI 从字节转移到床边。
人工智能已成为日常生活中司空见惯的事情。通过网络获取信息、消费新闻和娱乐、金融市场的表现、监控系统识别个人的方式、驾驶员和行人如何导航以及公民如何领取福利金,这些只是人工智能渗透到人类生活、社会机构、文化实践以及政治和经济进程中的无数例子。用于实现人工智能的算法技术的影响是深远的,激发了相当多的时代炒作和希望,以及反乌托邦的恐惧,尽管它们在技术专家的社交网络之外仍然很大程度上不透明且理解甚少(Rieder 2020)。然而,人工智能的深刻社会和伦理影响正变得越来越明显,并成为人们关注的重要对象。人工智能是争议的焦点,例如,工作场所和公共服务的自动化;算法形式的偏见和歧视;不平等和劣势的自动再现;以数据为中心的监视和算法分析制度;无视数据保护和隐私;政治和商业微目标定位;以及科技公司控制和塑造其渗透的所有部门和空间的权力,从整个城市和公民群体到特定的集体、个人甚至人体(Whittaker 等人,2018 年)。已经制定了许多道德框架和专业行为准则,试图减轻人工智能在社会中的潜在危险和风险,尽管关于它们对公司的具体影响或这些框架和准则如何保护商业利益的重要争论仍然存在(Greene、Hofferman 和 Stark,2019 年)。目前,人工智能在网络、智能手机、社交媒体和通过互联物体和传感器网络在空间中的实例化的历史比最近一些划时代的说法所暗示的要长得多。人工智能的历史至少可以追溯到 20 世纪 40 年代计算机科学和控制论的诞生。 “人工智能”这一术语本身是在 20 世纪 50 年代中期达特茅斯学院的一个项目和研讨会中提出的。从 20 世纪 60 年代到 90 年代,人工智能经历了一段“寒冬”,其研究和开发首先侧重于对人类推理的编码原理进行模拟,然后侧重于“专家系统”,即基于定义的知识库模拟专家的程序性决策过程。2010 年之后,人工智能逐渐以一种新范式回归,不再是模拟人类智能或可编程专家系统,而是能够通过对大量“大数据”进行分类和关联来学习和做出预测的数据处理系统。计算过程包括数据分析、机器学习、神经网络、深度学习和强化学习是大多数当代人工智能的基础。人工智能可能只是一系列统计、数学、计算和数据科学实践和发展的新的总称,它们各自都有复杂且相互交织的谱系,但它也标志着这些历史脉络的独特联系(Schmidhuber 2019 , 2020 )。现代人工智能的重点不是创造计算“超级智能”(“强人工智能”),而是理想情况下致力于开发能够从自身经验中学习、适应变化的机器。
从 1950 年图灵发表《计算机器和智能》到 1990 年代人工智能寒冬逐渐消融,四场针对人工智能基础的独特哲学争论相继出现,短暂地引起了广泛关注,随后逐渐平息。第一场“人工智能战争”始于卢卡斯 [1961],质疑人工智能的逻辑合理性。第二场战争可以追溯到明斯基和帕普特 [1969],涉及不同架构支持者之间的争论。第三场战争由德雷福斯 [1972] 发起,但在塞尔 [1980] 之后最为激烈;它攻击了人工智能系统具有语义的可能性。第四场战争在很多方面都是最微妙的,始于麦卡锡和海斯 [1969],涉及框架问题的含义和影响。这一时期的人工智能战争影响了 20 世纪 60 年代初荒唐的过度乐观主义、20 世纪 70 年代的 Lighthill [1973] 报告和其他灾难、20 世纪 80 年代对专家系统的热情以及 20 世纪 90 年代向人工神经网络 (ANN) 和应用机器人的逐渐过渡,同时也受到了这些影响。到 21 世纪初,人工智能前 50 年的哲学冲突基本结束。它们没有以任何一方的胜利而告终,而是陷入了僵局。取而代之的是,关于意识的本质、人工智能的伦理以及人工智能系统本身是否符合伦理的可能性的新争论出现了。图灵 [1950] 预见到了这两种发展,尽管他不认为它们与他所定义的“智能”有任何关系。在这里,我们要问为什么会发生这种情况,以及它如何影响人工智能和哲学。人工智能战争触及了形而上学、认识论以及心灵、语言和科学哲学等基本问题,在那些参与其中的人看来,它正在重构哲学本身。例如,斯洛曼[1978]自信地预测,“几年之内,如果还有哲学家不熟悉人工智能的一些主要发展,那么指责他们专业无能是公平的”,对人工智能系统的考虑将渗透到学术哲学的教学中。这显然没有发生:许多(如果不是大多数的话)哲学家仍然对人工智能一无所知,大多数哲学教学从未提及它。我们的新书《对人工智能的伟大哲学反对:人工智能战争的历史和遗产》(Bloomsbury,2021)试图纠正这种情况。我们在此总结了其主要论点,同时添加了一些更深入的分析,以便同行研究人员更容易理解。自 2000 年以来,关于人工智能意识和伦理的争论涉及神经科学家、律师和经济学家等,以及人工智能研究人员和哲学家。与 1950-2000 年的“经典”人工智能战争一样,这些新冲突是始于科学革命的普遍文化冲突的一部分。他们的紧迫感部分源于人们日益意识到后工业经济正在迅速转变为人工智能经济,部分源于人们担心后冷战地缘政治体系可能成为人工智能驱动的政治体系。这些辩论挑战了在冷战时期看似自然的假设。