详细内容或原文请订阅后点击阅览
为什么在人工智能战争中“人类参与其中”是一种幻想
人工智能在战争中的可用性是 Anthropic 与五角大楼之间法律斗争的核心。这场辩论变得紧迫,人工智能在当前与伊朗的冲突中发挥着比以往任何时候都更大的作用。人工智能不再只是帮助人类分析情报。现在它是...
来源:MIT Technology Review _人工智能人工智能系统和人类操作员之间的这种“意图差距”正是我们犹豫在民用医疗保健或空中交通管制中部署前沿黑匣子人工智能的原因,也是为什么它与工作场所的整合仍然令人担忧——但我们却急于将其部署到战场上。
更糟糕的是,如果冲突一方部署以机器速度和规模运行的完全自主武器,保持竞争力的压力将迫使另一方也依赖此类武器。这意味着在战争中使用日益自主且不透明的人工智能决策只会增加。
解决方案:推进人工智能意图科学
人工智能科学必须包括构建高性能人工智能技术和理解该技术的工作原理。在创纪录的投资的推动下,开发和构建更强大的模型已经取得了巨大进步——Gartner 预测仅到 2026 年这一投资就将增长到约 2.5 万亿美元。相比之下,了解该技术如何运作的投资却微乎其微。
我们需要大规模的范式转变。工程师正在构建功能越来越强大的系统。但理解这些系统如何工作不仅仅是一个工程问题,它需要跨学科的努力。我们必须构建工具来描述、衡量和干预人工智能代理的意图,然后再采取行动。我们需要绘制驱动这些代理的神经网络的内部路径,以便我们能够对它们的决策建立真正的因果理解,而不仅仅是观察输入和输出。
一个有希望的前进方向是将机械可解释性技术(将神经网络分解为人类可理解的组件)与意图神经科学的见解、工具和模型相结合。另一个想法是开发透明、可解释的“审计”人工智能,旨在实时监控功能更强大的黑匣子系统的行为和紧急目标。
