对传统人工智能伦理的一个反对意见是,它减缓了创新。本演讲通过将伦理重新配置为创新加速器来应对。关键要素来自对稳定人工智能的扩散和 OpenAI 的 Dall-E 的对比。通过分析它们对立的开发和部署策略背后的不同价值观,确定了加速伦理的五个共同概念。不确定性被理解为积极的和令人鼓舞的,而不是令人沮丧的。创新被认为是内在有价值的,而不是只有通过社会效应才有价值。人工智能问题通过更多的人工智能来解决,而不是更少的人工智能。管理人工智能的许可和限制来自一个分散的过程,而不是一个统一的权威。伦理工作嵌入在人工智能的开发和应用中,而不是从外部发挥作用。这些态度和实践共同将伦理重塑为激发人工智能而不是限制人工智能。
微软和 OpenAI 最近筹集了 1 亿美元的种子基金,用于开发有助于提高人类生产力的 AI 工具。他们当然不是第一批投资的人 - Gartner 写道“尽管 COVID-19 在全球范围内产生了影响,但根据 Gartner 的一项民意调查,自疫情开始以来,47% 的人工智能 (AI) 投资保持不变,30% 的组织实际上计划增加此类投资。只有 16% 的人暂时停止了 AI 投资,只有 7% 的人减少了投资。”为什么 OpenAI 和其他公司在 AI 游戏中如此“晚”地投入大量资金。我们可以首先看看他们最近在 AI 工具方面取得的三项进展,以了解文本生成、图像生成和自监督“AI”将在哪里发生颠覆。但首先,我们需要找到 Gartner 炒作周期反转的根本原因。我们是否真的处于一个超级周期中,短暂的整合期构成了下一次增长的基础?
我们建议 NIST 考虑将与人类价值观和意图的一致性纳入其指导原则中。1 一致的人工智能系统能够可靠地完成人类希望它们做的事情,因此一致性的概念 2 与指导原则的首要关注点直接相关,即维护“表明社会优先事项的更广泛的社会规范和价值观”。我们认为,一致性是人工智能发展的一个重要指导原则,特别是对于那些将定期与个人互动并随着时间的推移将越来越多地融入我们的经济和社区的人工智能系统而言。随着人工智能系统变得越来越强大,由一致性失败引起的风险可能会非常大。3 NIST 完全有能力强调这一点,这是人工智能风险管理面临的重要挑战。