摘要 AI 系统在塑造和规范全球数百万人类的生活中发挥着越来越重要的作用。人们普遍呼吁此类系统具有更大的透明度。然而,“透明度”的实际含义以及更大的透明度可能意味着什么存在相当大的模糊性。虽然根据一些争论,透明度要求看透工件或设备,但普遍要求透明度意味着看透 AI 系统的不同方面。这两个概念显然相互矛盾,并且它们出现在两个活跃但基本上不相关的争论中。在本文中,我们旨在进一步分析这些要求透明度的内容,并在此过程中阐明我们应该希望 AI 系统具有哪些类型的透明度。我们通过提供一种对不同透明度概念进行分类的分类法来实现这一点。在仔细探索了透明度的不同种类之后,我们展示了这种分类法如何帮助我们驾驭人与技术互动的各个领域,并更有效地讨论技术透明度与人类能动性之间的关系。我们最后认为,在设计更符合道德规范的人工智能系统时,应该考虑所有这些不同的透明度概念。
摘要 在系统发育分类法带来巨变之前,传统分类学将生物分为两个不同的界:动物界和植物界。西方科学植根于“自然主义”宇宙观,其理论体系主要基于古代亚里士多德思想,建立在这种二分法之上。如今,尽管我们采用了将生物统一为亲属的达尔文范式,但“生物等级”的概念仍然构成了我们对生物物种的分析和理解。我们的目标是结合系统发育学的发展、生物学的最新进展以及对植物能动性的重新关注,以形成对生物界的跨学科立场。植物或动物起源的分界线具有可追溯到约 39 亿年前的共同进化历史,两者之间的间隔仅为 16 亿年前。从生物物种历史的系统发育角度来看,植物和动物属于姊妹群。利用与植物神经生物学领域相关的最新数据,我们的目的是讨论一些社会文化障碍,主要是在西方自然主义认识论中,这些障碍阻碍了生物体作为亲属的整合,同时提出一些主要受其他本体论实践启发的途径,这些途径可以帮助克服这些障碍并在不同的生命联系方式之间架起桥梁。
摘要:生命最显著的特征之一是它能够处理新事物,即茁壮成长并适应新情况以及环境和内部成分的变化。了解这种能力对于几个领域至关重要:形式和功能的进化、生物医学有效策略的设计以及通过嵌合和生物工程技术创造新的生命形式。在这里,我们回顾了生物体解决各种问题的有启发性的例子,并提出了在任意空间中有效导航作为思考进化过程中认知扩展的不变量。我们认为,我们天生识别陌生伪装下的能动性和智慧的能力远远落后于我们在熟悉的行为环境中检测它的能力。生命的多尺度能力对于自适应功能至关重要,可以增强进化并为自上而下的控制(而不是微观管理)提供策略以应对复杂的疾病和伤害。我们提出了一种以观察者为中心的观点,该观点与规模和实施无关,说明了进化如何利用类似的策略来探索和利用代谢、转录、形态以及最终的 3D 运动空间。通过概括行为的概念,我们获得了关于进化、系统级生物医学干预策略以及生物工程智能构建的新视角。该框架是与高度陌生的实施方式中的智能相关的第一步,这对于人工智能和再生医学的进步以及在越来越多地由合成、生物机器人和混合生物组成的世界中蓬勃发展至关重要。
机器人和人工智能 (AI) 系统的道德地位已成为规范研究中广泛争论的话题。然而,这场讨论主要集中在那些为社会功能而开发的系统上,例如社交机器人。鉴于社会与非社会机器的相互依存日益加深,研究如何将现有的规范性主张扩展到特定的混乱领域,如艺术行业,已变得势在必行。受到 Gunkel 和 Coeckelbergh 提出的将机器的道德地位建立在社会关系基础上的提议的启发,本研究提出了在线实验 (N 448),测试与人工智能生成的艺术作品的互动是否以及如何影响人们感知到的其创作者(即人工智能生成系统)的道德地位。我们的结果表明,评估人工智能系统是否缺乏心智可能会影响人们随后对人工智能生成的艺术作品的评价。我们还发现,对人工智能生成的图像的高估可能会对其创作者感知到的能动性产生负面影响。然而,我们的实验并未表明与人工智能生成的艺术作品互动对机器的道德地位有任何显著影响。这些发现表明,人工智能权利的社会关系方法可能与基于财产的道德地位论点交织在一起。我们通过揭示公众对这一问题的看法,阐明了实证研究如何为人工智能和机器人权利辩论做出贡献。
自大约七十年前诞生以来,人工智能取得了巨大的进步。自动驾驶汽车、在复杂游戏中击败专家的程序以及能够帮助需要护理的人的智能机器人只是机器智能的成功案例。这种进步可能会诱使我们设想一个由能够在不久的将来执行与人类相同任务的自主机器人组成的社会。这一前景似乎仅受当前计算设备的功能和复杂性的限制,而这些设备正在快速改进。然而,这条道路上有几个重大障碍。一般智能包括情境推理、采取观点、选择目标以及处理模糊信息的能力。我们观察到,所有这些特征都与识别和利用新可供性(代理实现其目标的道路上的机会(或障碍))的能力有关。可供性的一般示例是代理手中物体的使用。我们表明,不可能预先定义此类用途的列表。因此,它们无法通过算法处理。这意味着“人工智能代理”和生物体在利用新能力的能力上有所不同。只有生物体才能做到这一点。这意味着真正的 AGI 在当前人工智能研究的算法框架中是无法实现的。这对进化论也有重要影响。我们认为,通过彻底的涌现,真正开放的进化必须严格要求有机体能动性。我们讨论了这一论点的多种影响,不仅在人工智能研究和进化中,而且在科学哲学中。
摘要:生命最显著的特征之一是它能够处理新事物,即茁壮成长并适应新情况以及环境和内部成分的变化。了解这种能力对于几个领域至关重要:形式和功能的进化、生物医学有效策略的设计以及通过嵌合和生物工程技术创造新的生命形式。在这里,我们回顾了生物体解决各种问题的有启发性的例子,并提出了在任意空间中有效导航作为思考进化过程中认知扩展的不变量。我们认为,我们天生识别陌生伪装下的能动性和智慧的能力远远落后于我们在熟悉的行为环境中检测它的能力。生命的多尺度能力对于自适应功能至关重要,可以增强进化并为自上而下的控制(而不是微观管理)提供策略以应对复杂的疾病和伤害。我们提出了一种以观察者为中心的观点,该观点与规模和实施无关,说明了进化如何利用类似的策略来探索和利用代谢、转录、形态以及最终的 3D 运动空间。通过概括行为的概念,我们获得了关于进化、系统级生物医学干预策略以及生物工程智能构建的新视角。该框架是与高度陌生的实施方式中的智能相关的第一步,这对于人工智能和再生医学的进步以及在越来越多地由合成、生物机器人和混合生物组成的世界中蓬勃发展至关重要。
多达 80% 的寻求治疗的个人无法戒除毒瘾。这项研究调查了 1) 通过脑机接口 (BCI) 增强的认知矫正疗法 (CRT) 计划是否会影响大脑性能指标,通过恢复认知控制性能来提高参与者的自我能动性;2) 这种能力的提高是否会使戒毒率提高,高于公布的治疗率。该研究采用回顾性图表审查,旨在复制一种转换复制方法(即候补名单组),使用前测和后测概况分析准实验设计。参与者的记录被分为治疗组和非治疗组。成年多物质使用者是从美国的酒精和其他药物 (AOD) 使用门诊计划和 AOD 使用治疗中心招募的。参与者自愿参加未接受治疗的前后测试(n = 121)或选择参加治疗计划(n = 200)。治疗组参加了 48 个疗程的 BCI/CRT 增强治疗计划。治疗前后的测量包括 Woodcock-Johnson 认知能力 III 评估表中的 14 个方面。为期 18 个月的跟踪评估测量了清醒度的维持情况。在测试了测试组之间所有变量随时间变化的差异后,发现了显著的多变量效应。此外,在治疗后 18 个月,治疗组有 89% 的人保持清醒,而非治疗组只有 31%。与成瘾神经行为失衡模型一致,传统的治疗方案加上 BCI/CRT 训练,重点是提高认知控制能力,可能会增强自我控制能力并提高清醒率。
人工智能伦理框架强调技术能够促进社会公益,但另一方面又强调人工智能与人类的关系,这一点令人不安,正如它在迄今为止部署人工智能最为复杂的场所之一——亚马逊的配送中心所展现的那样。人工智能应该促进人类的福祉,这是“良好人工智能社会”伦理框架提出的五项原则中的第一项(Floridi 等人,2018 年)。该框架宣称人工智能从四个基本方面为提升人类尊严和繁荣提供了机会:通过促进自主自我实现,“我们能成为谁”,通过促进人类能动性,“我们能做什么”,通过增强个人和社会能力,“我们能取得什么成就”,通过促进社会凝聚力,“我们如何彼此互动、如何与世界互动”。仓库机器人也被赋予了类似的乐观态度。亚马逊全球消费者业务前首席执行官 Jeff Wilke 在推特上表示,这种机器人让仓库工作“变得更好、更安全”,他还表示,它们让“人们能够发挥与生俱来的创造力,而不是一遍又一遍地重复死记硬背的工作”(Evans 2020 )。时任亚马逊运营总监的 Dave Clark 表示:“这对每个人来说都更好”,2014 年,亚马逊加州仓库配备了新机器人(Evans 2020 )。这些机器人使用基于云端的人工智能软件在仓库内进行感知和导航。现实情况比这更复杂。人工智能技术有两个特点在这种情况下尤为重要:它们在灵活性方面有相当大的局限性,而在分析人类行为数据方面有相当大的能力。亚马逊机器人履行总监 Scott Anderson 表示
数字生活正在扩大人类的极限并扰乱老年人的生活。代码驱动的系统已经扩展到环境数据和网络的大多数世界人口,提供了以前无法预测的风险。随着算法驱动的人工智能 (AI) 不断发展,人类的处境会比现在更好吗?专家们预测人工智能将提高人类的效率,但也会损害人类的独立性、能动性和能力。他们提出了广泛的可能性;计算机可能在多项决策、思考和学习、精细分析和示例识别、视觉敏锐性、高级分析和模式解释等任务上与人类的智力和能力相媲美甚至超越人类。他们中的许多人将乐观的评论集中在医疗保健上,以及人工智能在治疗和诊断患者方面可能创造的机会,以及让老年人的生活更轻松、更快乐。他们还对人工智能在基于大量数据建立的广泛健康计划中的作用感到兴奋,这些数据可能在未来时代被捕获,包括从个人基因组到营养等各方面。此外,其中一些专家预计人工智能将促进正式和非正式教育系统的预期变化。然而,无论乐观与否,大多数专家都对这些新设备对人类基本要素的长期影响表示担忧。许多专家表示,随着人工智能 (AI) 的发展,人类的独立性和行动将面临危险。一场巨大的社会变革将扰乱我们在人类社会中的生活方式。人类必须富有成效才能谋生,但在人工智能的帮助下,我们可以简单地对机器进行编程,让它为我们做某事,而无需拿起仪器。随着人工智能将取代对人类的依赖,人类的亲密关系将不断减少
在本章中,我们邀请读者思考背景在人工智能和虚拟大学的历史和演变中的重要性。这些术语既有历史,也有它们所指的内容。因此,上世纪末出现的虚拟大学在范围和愿景上与当代实践截然不同。同样,Gartner 的“技术成熟度曲线”也存在不同的理论观点,它是众多方法之一,可提供对人工智能驱动的技术创新进步阶段的看法。我们讨论的重点是突出对该领域的质疑。众多关键问题中的一个关键问题涉及人工智能在未来几十年为虚拟大学带来的机遇和挑战。大学必须为基于人工智能的学生记录完整性审计做好准备。人工智能可以帮助发现抄袭和伪造身份证,并支持学术诚信。政策制定者可能会使用人工智能来发现可能导致重罚的潜在不可能情况。但随着人工智能融入我们的环境,它不再只是一种工具,新的伦理和社会问题也随之产生。人工智能和机器学习系统中已经存在着殖民偏见。现在有哪些切实可行的选择?每所虚拟大学都可能考虑合作确保使用人工智能的操作系统的可信度。欧盟的《人工智能法》等新兴公共政策为构建可靠的人工智能生态系统提供了法律机制。人工智能以及虚拟大学未来所需的服务类型的研究和创新正在激增。许多未来都是可能的。从教育角度来看,在下一个时代发展人类能动性应该成为当务之急。学生可以学习如何使用人工智能支持的工具来解决日益具有挑战性的问题。他们提出的问题则更为重要。