详细内容或原文请订阅后点击阅览
Google 和 OpenAI 员工:“这不是我们签约的目的。”
本周硅谷发生了明显的变化。超过 200 名 Google 和 OpenAI 员工呼吁雇主更好地界定人工智能用于军事目的的限制。明确地说。高声。在 Axios 的私下推送中,工作人员明确表示,他们对正在开发的人工智能工具的部署方式越来越感到不安。老实说?你可以明白为什么。人工智能不再仅仅帮助撰写电子邮件和生成图形。人们正在谈论与战场上的战争后勤、监视和自主武器有关的问题。这很严重。至少一个人 [...]
来源:AI 2 People本周硅谷发生了明显的变化。
200 多名 Google 和 OpenAI 员工呼吁其雇主更好地界定人工智能用于军事目的的限制。明确地说。高声。在 Axios 的私下推送中,工作人员明确表示,他们对正在开发的人工智能工具的部署方式越来越感到不安。
说实话?你可以明白为什么。
人工智能不再仅仅帮助撰写电子邮件和生成图形。人们正在谈论与战场上的战争后勤、监视和自主武器有关的问题。这很严重。至少有一位参与这项工作的人大声质疑,这些公司支票是否足够,或者它们是否仅仅代表了在面对政治紧急情况时可以在需要时改变的雄心勃勃的散文。
之所以感觉似曾相识,是因为我们以前来过这里。 2018 年,谷歌员工反对该公司从事 Project Maven,这是一个五角大楼分析无人机镜头的项目。谷歌以人工智能原则做出回应,承诺该公司不会开发用于武器或武器监视的人工智能。问题是,技术的发展速度快于原理的发展速度,2018 年看起来明显超出范围的事情到 2023 年可能会显得不那么明确。
OpenAI 还拥有可公开访问的禁止武器使用的用例政策。从纸面上看,这是令人放心的。但员工们似乎正在寻找一个更加模糊的问题的答案:如果人工智能技术具有双重用途怎么办?如果它可以帮助医生进行研究,同时也可以用于武器工作呢?界限是什么?
如果你退一步,你会看到地缘政治背景:人工智能已被指定为国防部优先现代化的首要领域之一,并且首席数字和人工智能办公室有一个完整的网站。他们声称人工智能将能够更快地做出决策、最大限度地减少生命损失并阻止威胁。一切都非常“实用”。
