OpenAI 的新国防合同完成了其军事转型

2024 年初,OpenAI 对武装部队如何使用其技术的规则非常明确。该公司禁止任何人将其模型用于“武器开发”或“军事和战争”。这种情况在 1 月 10 日发生了变化,当时 The Intercept 报道称 OpenAI 已经放宽了这些限制,禁止任何人使用该技术“伤害……

来源:MIT Technology Review _人工智能

“我们认为,民主的人工智能愿景对于充分发挥其潜力和确保广泛共享其利益至关重要,”OpenAI 写道,这与白宫备忘录中的类似措辞相呼应。 “我们认为,民主国家应该继续在人工智能发展中发挥主导作用,以自由、公平和尊重人权等价值观为指导。”

它提供了 OpenAI 可以帮助实现这一目标的多种方式,包括努力“简化翻译和总结任务,研究和减轻平民伤害”,同时仍然禁止其技术被用于“伤害他人、破坏财产或开发武器”。 最重要的是,这是 OpenAI 发出的信息,表明它参与了国家安全工作。

AI Now Institute 首席人工智能科学家、安全研究员 Heidy Khlaaf 表示,新政策强调“灵活性和遵守法律”,她在 2022 年与 OpenAI 共同撰写了一篇关于其技术在包括军事在内的环境中可能存在的危害的论文。她说,该公司的转型“最终表明,在五角大楼和美国军方认为合适的情况下,该公司可以开展与军事和战争相关的活动”。

论文 50 亿美元损失 广告

OpenAI 关于国家安全的声明可能引发的问题比它们解答的还多。该公司希望减轻对平民的伤害,但是为了哪些平民?向击落无人机的计划贡献 AI 模型不算开发可能伤害人类的武器吗?

“防御性武器仍然确实是武器,”Khlaaf 说。它们“通常可以根据任务的地点和目标被定位为进攻性武器。”