人工智能最初是认知科学中对人类智能的研究与计算机科学的方法和理论的综合。1 总体目标是制定人类智能的计算模型,并基于这些模型实现系统以模拟自然形式的智能。在人工智能发展的中期(1980-2010 年),这一最初的动机大部分时间都被搁置,重点转向超智能人工智能(Bostrom,2014 年),这种人工智能可以超越特定应用领域中普通人类的解决问题的能力,例如大规模规划(Bonet 和 Geffiner,2001 年)、数据分析和数据挖掘(Nisbet 等人,2018 年)。过去十年,人工智能重新回归其早期目标,即理解和构建以认知兼容和协同方式与人类运作的类人智能系统。 2 这在很大程度上是由市场对人工智能系统日益增长的需求推动的,这些系统可以充当人类用户的(专家)同伴或同伴。“旧人工智能”的重新出现,现在被称为以人为中心的人工智能(HCAI),旨在在自然或常识智能领域提供服务,以支持和增强用户在从组织日常工作到确保合规等任务中的自然能力
存在几种不同的方法可以确保未来变革性人工智能 (TAI) 或人工智能超级智能 (ASI) 系统的安全 [Yampolskiy, 2018, Bostrom, 2014],不同方法的支持者对其工作在短期内以及对未来系统的重要性或有用性提出了不同且有争议的主张。高可靠性代理设计 (HRAD) 是最具争议和最雄心勃勃的方法之一,由机器智能研究所 [Soares and Fallenstein, 2017] 等机构倡导,关于它是否以及如何降低未来人工智能系统的风险,人们提出了各种论点。为了减少关于人工智能安全性的辩论中的混乱,我们在此以 Rice [2020] 之前的讨论为基础,该讨论收集并提出了四个核心论点,用于证明 HRAD 是实现人工智能系统安全的途径。我们将这些论点命名为 (1) 附带效用、(2) 消除混淆、(3) 精确规范和 (4) 预测。其中每一个都对未来人工智能系统如何存在风险提出了不同的、部分相互冲突的说法。我们根据对已发表和非正式文献的审查以及咨询就该主题发表立场的专家,解释了这些假设和主张。最后,我们简要概述了反对每种方法和总体议程的论点。
有很多书都在讨论人工智能的影响。关于权力概念的书并不多。Rajiv Malhotra 雄辩地写下了他对人工智能如何改变社会结构的见解,这反过来又彻底改变了人们对权力一词的理解。首先,这本书是供一般阅读的,而不是专门为技术科学家的社会科学专家设计的。因此,这部作品不应与 Nick Bostrom、Andrew NG 或李开复的作品进行比较。这本书以五个战场为结构,不要与地缘政治争斗相混淆。它们代表经济和就业;心理学;全球力量、形而上学和印度的未来。这本书似乎是作者自己在建构主义和物质决定论之间的哲学争论中产生的。作者没有明确地引入西方的科学、技术和社会 (STS) 学术,而是将他的建构主义建立在印度传统知识体系之上。像《摩诃婆罗多》、《薄伽梵歌》这样的书籍和像 Sant Ramdas、Tukaram 这样的学者经常被引用。他主张人工智能的发展和部署必须与印度传统知识保持一致。这让人想起了印度外交部长 Subramanian Jaishankar 的新书,他在书中对外交政策的设计也有类似的看法 (Jaishankar, 2020, p. 112)。
5 计算能力的提高推动了最近的许多进展。这表明,即使没有根本性的突破,通过利用额外的计算能力,我们也可能取得进一步的进展(尽管对于这能让我们走多远还存在争议)。见 Sutton 2019;Hoffmann 等人 2022;Lohn & Musser 2022。6 奇点是这种情况的一个极端版本,它涉及递归改进,迅速从人类水平的人工智能发展到超人的人工智能(见 Chalmers 2010;Bostrom 2014:第 4 章;Thorstad 未发表)。然而,我关注的是更广泛的可能性,包括人工智能系统在人工智能研发中发挥作用的平凡方式,也许是通过提高人类程序员的效率或帮助发现新的算法。与此相关的是,我并不认为这些反馈循环必须涉及独立于人类输入运行的人工智能系统。7 收益递减可能会破坏这些反馈回路,因此加速进步并非不可避免。不过,这还是有可能的。8 看似超人的人工智能系统可能会以人类永远不会出现的方式失败(参见 Wang 等人,2023 年)。不过,从各方面来看,这些系统可能都超越了人类的能力。9 目前还不清楚如何区分人工智能系统,从而对其进行计数,但就我的目的而言,许多系统是否可以同时运行,或者是否有许多令牌或系统线程可以同时运行,这并不重要。
I.任务超智能即将到来(Bostrom 2017,Ashenbrenner 2024)。首先是由大型语言模型(Sakana 2024)完全设计,研究和撰写的第一批研究论文。与此前景相比,本文报告的成就是适中的。我们提示要做的GPT所做的只是摘要。对于法律界而言,这个谦虚的步骤是一个很大的一步。在我们的项目中,GPT不仅概括了单个文本。它正在撰写欧洲人权法院完整法学的结构化摘要,该法院对欧洲人权公约保护的基本自由之一。gpt在Art 11 Echr的保护下写了有关集会自由的评论。文本以评论的欧洲大陆传统编写。输出的组织方式与欧洲法律奖学金的大部分工作方式相同 - 除了作者被从方程式中取出。正如我们所证明的那样,输出看起来完全像人为写的评论。实际上它甚至表现出色。GPT评论比人类法学家撰写的竞争文本更全面,功能更大。当它可以访问其自己的评论时,GPT更有可能正确地预测欧洲人权法院的实际裁决(后),与获得其最认真的竞争对手(法院登记册已经准备的指南)相比。我们的练习结果可在此处获得:
人工智能 (AI) 是社会上的一个热门话题,因为它似乎扩展并挑战了人类的认知能力。然而,令人惊讶的是,人类智能研究尤其是心理学研究迄今为止对正在进行的人工智能辩论以及相关的超人类主义和后人类主义哲学运动贡献甚微。超人类主义促进了旨在大力增强人类心理(尤其是智力)能力的技术的发展,通过应用神经科学方法实现,例如经颅电/磁刺激 (TES, TMS)、脑机接口 (BCI)、深部脑刺激 (DBS)、药理学甚至纳米技术方法,旨在修复大脑或增强大脑可塑性。目标是实现一个“后人类未来”,最终解决人类当前的问题。在本文中,我将 (1) 描述旨在增强人类智能的当前神经科学和药理学方法以及它们目前的成功程度; (2) 概述认知增强技术的更广泛应用可能产生的影响(从社会角度和个体差异的进化角度来看);(3)概述人类智能与人工智能概念之间的共性和差异;(4)讨论(人工)“超级智能”的前景和风险(Nick Bostrom 定义);(5)思考心理学可以或应该如何为这种“超级智能”的发展做出贡献。最后,我将尝试回答这个问题:我们对心理特征(例如认知和社会/情感特征、价值观)个体差异的了解对于人工智能的进一步发展有何影响?
机器已经走了很长一段路。他们继续填补工厂的地板和制造工厂,但它们的功能不仅仅是手动活动,直到最近才能进行性能。评判歌曲竞赛,驾驶汽车和检测欺诈性交易是机器现在能够模拟的复杂任务的三个示例。,但是这些非凡的壮举引发了一些观察者的恐惧。他们的恐惧的一部分坐落在生存主义不安全感的脖子上,并引起了一个深厚的问题,即如果什么?如果智能机器在优胜党的斗争中打开我们该怎么办?如果智能机器具有人类从未打算授予机器的能力的后代,该怎么办?如果奇点的传说是真的?另一个值得注意的恐惧是对工作保障的威胁,如果您是出租车司机或会计师,则有一个有效的理由担心。根据英国广播公司(BBC)在2015年出版的国家统计局的联合研究,包括律师工作的职业职业(77%),服务员(90%),特许会计师(95%),接待员(96%)(96%)和出租车司机(57%)在20335年度的自动化机会很高。[1]然而,应仔细阅读有关机器和人工智能(AI)未来进化的计划工作自动化和水晶球的研究。在超级智能中:路径,危险,策略,作者尼克·博斯特罗姆(Nick Bostrom)讨论了对人工智能目标的持续重新部署,以及“二十年来是一个美好的地方……足以引起人们的注意和相关性,但足以使一系列突破……可能发生了。” (
对人工智能伦理的担忧比人工智能本身更古老。“人工智能”一词最早由麦卡锡及其同事于 1955 年使用(McCarthy et al.1955 )。然而,1920 年,恰佩克已经发表了他的科幻剧,其中遭受虐待的机器人反抗人类的暴政(Capek 2004 ),到 1942 年,阿西莫夫提出了他著名的三条“机器人定律”,即机器人不伤害人类、不伤害其他机器人、不伤害自己(Asimov 1950 )。在上个世纪的大部分时间里,当人工智能主要局限于研究实验室时,对人工智能伦理的担忧大多局限于未来主义小说和幻想作家。在本世纪,随着人工智能开始渗透到生活的几乎所有方面,对人工智能伦理的担忧也开始渗透到主流媒体。在本专栏中,我简要分析了关于人工智能的三大类伦理问题,然后强调了另一个尚未引起足够重视的问题。关于人工智能伦理的第一类担忧——我们称之为超级智能类——涉及对机器有朝一日可能变得比人类更聪明并损害人类利益的担忧。在这种担忧的极端情况下,人们担心人工智能代理可能会接管世界,然后奴役或消灭人类。仅举一个例子,Bostrom ( 2014 ) 想象了一个未来世界,其中超级智能机器人被要求制作回形针,机器人追求这一目标,直到它消耗掉地球上的所有资源,从而危及人类的生存。一些对超级智能机器的恐惧似乎源于对智能的机械“算法观点”,其中智能存在于代理的大脑中,而让机器超级智能则等待着主算法的发明。然而,智能一般是
摘要 本文评估了与现有开放式社交聊天机器人相关的计算同理心主张,以及这些聊天机器人将在最近出现的混合现实环境中发挥作用的意图,由于对元宇宙的兴趣而受到重视。在社会中孤独感日益增加以及使用聊天机器人作为解决这一问题的潜在解决方案的背景下,本文考虑了两个当前领先的社交聊天机器人 Replika 和微软的小冰,它们的技术基础、同理心主张和属性,这些属性可以扩展到元宇宙(如果它能保持一致)。在寻找人类从社交聊天机器人中受益的空间时,本文强调了依赖自我披露来维持聊天机器人的存在是有问题的。本文将微软的共情计算框架与元宇宙推测和构建所依据的哲学思想联系起来,包括惠勒的“它来自比特”论题,即存在的所有方面都可以计算,查尔默斯的哲学主张,即虚拟现实是真正的现实,博斯特罗姆的提议和挑衅,即我们可能已经生活在模拟中,以及长期主义者的信念,即未来的复杂模拟需要受到保护,免受今天做出的决定的影响。鉴于对当前和新兴社交聊天机器人的要求、对基于比特的可能和预测未来的信念以及工业界对这些哲学的认同,本文回答了计算共情是否真实存在。本文发现,当考虑到不同的共情解释时,虽然在“它来自比特”的共情解释中不可挽回地丢失了一些东西,但缺失的部分不是准确性,甚至不是人类经验的共性,而是共情的道德维度。
随着人工智能在一系列领域的应用取得了重大进展,人工智能伦理[1]和安全[2]等领域也获得了关注。人工智能伦理和安全涉及多种问题,其中价值观一致问题可能是最重要的,也可能是最难的[3,4]。简而言之,它是关于确保人工智能系统,特别是尚未开发超级智能的通用人工智能系统,追求的目标和价值观与人类的目标和价值观相一致。本文对上述定义中的“人类”一词提出质疑,因为这意味着如果人工智能系统不一定与其他生物的利益一致,那也没关系。特别是,本文关注非人类动物的利益。因此,我们主张将上述定义扩大到人类和非人类动物的目标和价值观。在人类历史上,许多伦理观点已经发生改变和发展。 Bostrom 和 Yudkowsky 指出,人工智能伦理不应该是一成不变的,而应该接受变化,如果人类认识到以前的道德错误 [5]。如后所述,对待非人类动物就是一个道德问题的典型例子,它会随着时间的推移而发生变化或正在发生变化。因此,我们的目标是将非人类动物纳入人工智能伦理的持续研究中。除了极少数的尝试外,关于人类对非人类动物的道德义务的审议直到 20 世纪后期才开始获得动力 [6],例如通过契约主义的方法 [7]。主要标准是承认(许多物种的)非人类动物是有感知的,因此能够感受到痛苦 [8]。这也导致了“物种歧视”一词的传播,Horta 将其定义为“对那些不属于某一物种的物种进行不合理的不利考虑或待遇”[9](第 1 页)。道德方面的进步也开始体现在法规方面。如今,许多国家的国内法都承认非人类动物具有感知和痛苦(https://www.globalanimallaw.org/database/national/index. html,2021 年 4 月 11 日访问),而《世界动物福利宣言》仍处于提案阶段(https://www.globalanimallaw.org/database/universal.html,2021 年 4 月 11 日访问),而《生物多样性公约》等全球协议