GOFAI 对应于第 7 章中描述的最简单的逻辑代理设计,我们在那里看到,在一组必要和充分的逻辑规则中捕捉适当行为的每一种偶然性确实很困难;我们称之为资格问题。但正如我们在第 12 章中看到的,概率推理系统更适合开放式领域,正如我们在第 21 章中看到的,深度学习系统在各种“非正式”任务上表现出色。因此,批评不是针对计算机本身,而是针对一种使用逻辑规则对计算机进行编程的特定风格——这种风格在 20 世纪 80 年代很流行,但已被新方法所取代。
还应该对最近的两篇研究感兴趣,它们采用了“以计算为中心的框架”来估计人工智能系统需要多长时间才能达到人类水平的能力(Cotra,2020;Davidson,2023)。这种方法首先估计训练具有给定能力水平的系统需要多少计算能力,然后构建一个模型,说明我们何时可能使用这么多计算能力来训练系统。我们认为有用的一种思考以计算为中心的模型的方法是更详细地阐明优化能力和顽固性之间的关系在未来可能如何发展。
作者................................................................................................................................................. 41
首先,上述论点设想的人工智能系统至少具有人类水平的认知能力,但其行为方式让我们觉得反复无常且在道德上格格不入,追求无限的权力以实现任意目标。这令人惊讶。也许这也是难以置信的。随着人工智能系统发展出与我们类似的认知能力,它们的动机也可能会趋同于类似我们的东西(参见 Müller 和 Cannon 2021)。灾难性的权力追求可能会很少见。与这种思路相反,正交论认为,任意高水平的智力可以与或多或少任何最终目标相结合(Bostrom 2012)。如果这是真的,那么一个系统就可以超级智能,而无需受到有利于人类繁荣的关注的驱动。我们将在第 3 节中进一步讨论这些问题。
自从“人工智能”这个名词短语被创造出来以来,人们一直在争论人类是否能够利用技术创造智能。我们从热力学和数学的角度对这个问题进行了新的阐述。首先,我们定义了什么是可以成为人工智能载体的代理(设备)。然后我们表明,由 Hutter 等人提出的、至今仍被人工智能界接受的“智能”的主流定义太弱,甚至无法捕捉到当我们将智能归因于昆虫时所涉及的内容。然后,我们总结了 Rodney Brooks 提出的非常有用的基本(节肢动物)智能定义,并根据此定义确定了人工智能代理需要具备的属性,才能成为智能的载体。最后,我们表明,从创建这种代理所需的学科(即数学和物理学)的角度来看,这些属性既不能通过隐式或显式的数学设计来实现,也不能通过设置一个人工智能可以自发进化的环境来实现。
法院,找出缺陷,并将其提交给负责对案件作出判决的指定人员。 参考文献 [1] Jobin, A., Ienca, M. 和 Vayena, E.,2019 年。人工智能伦理指南的全球格局。《自然机器智能》,1(9),第 389-399 页。 [2] Dawson, D. 等人。《人工智能:澳大利亚的伦理框架》,2019 年。 [3] Maya Medeiros,《人工智能的法律框架》,《社交媒体法律公报》,2019 年。可在线获取:https://www.socialmedialawbulletin.com/2019/11/a-legal-framework-for-artificial-intelligence/?utm_source=Mondaq&utm_medium=syndication &utm _campaign=LinkedIn-integration [4] Doshi-Velez, F., Kortz, M., Budish, R., Bavitz, C., Gershman, S., O'Brien, D., Scott, K., Schieber, S., Waldo, J., Weinberger, D. and Weller, A., 2017. Accountability of AI under the law: The role of interpretation. arXiv preprint arXiv:1711.01134 . [5] Adadi, A. and Berrada, M., 2018. Peeking inside the black-box: A survey on Explainable Artificial Intelligence (XAI). IEEE Access,6,第 52138-52160 页。[6] Schneeberger, D.、Stöger, K. 和 Holzinger, A.,2020 年 8 月。欧洲医疗 AI 法律框架。在国际机器学习和知识提取跨领域会议上(第 209-226 页)。Springer,Cham。
尽管 AMLO 的立场不同,可再生能源仍然发挥着重要作用,并且在墨西哥的未来具有巨大的潜力。以下由 John McNeece 撰写的论文介绍了“墨西哥可再生能源的经济和战略论据”。除其他外,该论文表明太阳能和风能项目可以以低于传统燃气发电的成本提供电力,并提供经济发展效益。此外,借助电池储能和可用的电网管理工具,可以管理可再生能源的间歇性并将其有效地整合到输电网和配电网中。我们很高兴能够共同发布这份报告,并感谢 John 准备了这份严谨的分析,并为墨西哥目前正在进行的有关可再生能源、机构和国家作用的公共政策辩论做出了重要贡献。
摘要 本章讨论了人工智能与法律领域的三种法律推理方式:基于规则的推理、基于案例的推理和基于论证的推理。在基于规则的推理中,除非规则有例外,否则只有在满足规则条件时才会得出结论。在基于案例的推理中,当当前案件与先例类似时,将遵循先例案件的判决,但可能存在相关区别。在基于论证的推理中,当结论得到没有被反驳的论点支持时,就会得出结论。以荷兰的侵权法为例,说明了基于规则、基于案例和基于论证的推理。本章最后提出了有关人工智能与法律研究的进一步阅读建议。
本文有批判性和建设性的部分。第一部分基于伦理考虑,提出了政治要求:到 2050 年,全球应该暂停合成现象学,严格禁止所有直接针对或故意冒着在后生物载体系统上出现人工意识的风险的研究。第二部分为一个开放式过程奠定了第一个概念基础,目的是逐步完善最初的禁令,将其与一套更加细致、合理、基于证据、并有望在伦理上令人信服的约束条件联系起来。由这一过程定义的系统研究计划可能导致对最初禁令的逐步重新表述。这可能会导致在 2050 年之前废除禁令,在 2050 年之后继续实施严格禁令,或者逐步发展、更加实质性和符合伦理道德地看待我们想要在人工智能系统中实现哪种类型的意识体验(如果有的话)。
最近,包括 Weld 和 Bansal (2018) 177 在内的多位 HCI 社区成员都认为,对话式解释系统是实现可解释的人机交互的最佳途径。这一建议通常没有支持论据,因此我们着手撰写这篇论文,以阐明对话式可解释人工智能 (XAI) 系统背后的呼声。首先,我们调查了有关人工智能系统对解释的需求以及模型提供解释的能力的研究。其次,我们提出了一系列解释和理解这些解释的障碍,并通过借鉴人机交互、机器学习、认知科学和教育理论的几项研究结果来解释这些障碍。最后,我们考虑到这些障碍来论证对话式解释系统,并提出了一个绿野仙踪 (WoZ) 实验来检验我们的一些假设。