虚构人工智能与当前人工智能之间的另一个主要区别是它们的自主性。虚构人工智能系统(如《2001:太空漫游》中的 HAL 9000)能够在没有人类干预的情况下自行做出决策。而当前的人工智能则需要人类的监督和干预。如果将虚构人工智能与当前人工智能进行比较,它们之间最重要的区别之一就是自主性水平。电影和文学作品中呈现的虚构人工智能通常被描绘成具有完全独立性和决策能力的人类。而当前的人工智能旨在执行特定任务,虽然它可以“学习”并随着时间的推移而发展,但仍然需要人类的干预和监督。
Google Docs:虽然 Google Docs 并不是一个专门的写作辅助工具,但它使用人工智能帮助用户更有效地写作。它提供语法和拼写检查等功能,以及措辞和句子结构建议。
虽然通常可以用一些人类可理解的规则来近似深度神经网络的输入输出关系,但双下降现象的发现表明,这种近似不能准确捕捉深度神经网络的工作机制。双下降表明深度神经网络通常通过在数据点之间平滑插值而不是提取一些高级规则来运行。因此,在复杂的现实世界数据上训练的神经网络本质上很难解释,如果被要求进行推断,则容易失败。为了说明我们如何能够信任人工智能,尽管存在这些问题,我们探索了自我解释人工智能的概念,它既提供预测,也提供解释。我们还认为,人工智能系统应该使用适用性领域分析和异常检测技术来包含一个“警告灯”,以便在要求模型在其训练分布之外进行推断时警告用户。
^在新兴的艺术状态下存在各种技术。用于评估LLM公平性的常见指标是大胆的(开放式语言生成数据集中的偏见),其中包含与职业,性别,种族,宗教信仰和政治意识形态相关的23,679个互联网源提示,并衡量LLM对每个提示的响应的情感。retaroxicityPrompts是另一个包含超过1万提示的库,当它与文本中的常见毒性检测器配对时,可用于对响应这些提示进行基准测试LLM行为的毒性。这些技术继续发展。
尽管人工智能在改变企业和组织方面具有巨大潜力,但人们对其兑现承诺的能力仍存在一些不确定性。将人工智能能力转化为真正的经济成功的困难部分来自于对人工智能的不信任以及对其可能对就业、环境或民主生活产生不利影响的担忧。2023 年 11 月在布莱切利园举行的人工智能安全峰会正是针对人工智能的生存风险及其缓解方法,以解决这些问题。随后的《布莱切利宣言》确认,人工智能应该以安全、以人为本、值得信赖和负责任的方式进行设计、开发、部署和使用。
在这项规模最大的同类调查中,我们调查了 2,778 名曾在顶级人工智能 (AI) 领域发表过论文的研究人员,询问他们对 AI 进步速度以及高级 AI 系统的性质和影响的预测。总体预测显示,到 2028 年,AI 系统实现几个里程碑的可能性至少为 50%,包括从头开始自主构建支付处理网站、创作一首与流行音乐家的新歌难以区分的歌曲,以及自主下载和微调大型语言模型。如果科学继续不受干扰地发展,到 2027 年,无人辅助的机器在所有可能的任务中胜过人类的可能性估计为 10%,到 2047 年为 50%。后者的估计比我们一年前进行的类似调查得出的结果早了 13 年 [Grace et al., 2022]。然而,预计到 2037 年,所有人类职业完全自动化的可能性将达到 10%,到 2116 年将达到 50%(而 2022 年的调查结果为 2164 年)。大多数受访者对人工智能进步的长期价值表示了很大的不确定性:虽然 68.3% 的人认为超人类人工智能带来好结果的可能性大于坏结果,但在这些净乐观主义者中,48% 的人认为出现人类灭绝等极坏结果的可能性至少为 5%,而 59% 的净悲观主义者认为出现极好结果的可能性为 5% 或更高。37.8% 至 51.4% 的受访者认为高级人工智能导致人类灭绝等糟糕结果的可能性至少为 10%。关于人工智能进步更快还是更慢对人类未来更有利,存在分歧。超过一半的人认为,有必要对六种不同的人工智能相关情景表示“极大”或“极度”担忧,包括虚假信息的传播、独裁人口控制和不平等加剧。然而,人们普遍认为,旨在最大限度地降低人工智能系统潜在风险的研究应该得到优先考虑。
1. 人工智能 2. 问题解决 3. 知识与推理 4. 不确定知识与推理 5. 机器学习 6. 交流、感知和行动 7. 人工智能的哲学与伦理
正如 ALLAI 指出的 17 ,通用系统应该纳入该法案的范围,以避免让这些系统符合《人工智能法案》的负担完全落在通用人工智能系统的“下游”用户身上。否则,下游用户将是使系统符合高风险人工智能要求的人。这可能是一个巨大的负担,特别是对于中小企业和初创企业而言,甚至可能在技术上是不可能的。即使在通用人工智能开发商愿意支持下游用户努力遵守《人工智能法案》的情况下,后者也完全依赖于开发商,当所涉通用人工智能系统造成损害时,他们没有适当的手段寻求补救。