详细内容或原文请订阅后点击阅览
五角大楼的争端增强了人类的声誉,但引发了对人工智能在军事领域准备情况的质疑
Anthropic 对美国军事使用人工智能的道德立场暴露了人们日益认识到聊天机器人可能不足以应对战争行为。
来源:美国国防新闻网__工业Anthropic 对美国军事使用人工智能的道德立场正在重塑领先人工智能公司之间的竞争,但也暴露了人们日益认识到聊天机器人可能不足以应对战争行为。
根据市场研究公司 Sensor Tower 的数据,本周,Anthropic 的聊天机器人 Claude 在美国手机应用程序下载量方面首次超过了竞争对手 ChatGPT,这表明消费者在与五角大楼的对峙中支持 Anthropic 的兴趣日益浓厚。
在 Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 拒绝改变公司的道德保障措施以防止该技术应用于自主武器和国内大规模监视之后,特朗普政府于周五下令政府机构停止使用 Claude,并将其指定为供应链风险。 Anthropic 表示,一旦收到正式的处罚通知,它将在法庭上向五角大楼提出质疑。
尽管许多军事和人权专家对阿莫迪坚持道德原则表示赞赏,但一些人也对多年来说服政府将技术应用于高风险任务的人工智能行业营销感到沮丧。
“他造成了这场混乱,”前海军战斗机飞行员米西·卡明斯 (Missy Cummings) 说道,她现在是乔治梅森大学机器人和自动化中心的负责人。 “他们是第一家对这些技术的能力进行荒谬炒作的公司。而现在,突然之间,他们想要成为现实。他们想告诉人们,‘哦,等一下。我们真的不应该在武器中使用这些技术。’”
Anthropic 没有立即回应置评请求。国防部以行动安全为由,拒绝评论是否仍在使用克劳德,包括在伊朗战争中。
“你会杀死非战斗人员,”卡明斯周二在接受美联社采访时说道。 “你会杀死自己的军队。我不清楚军方是否真正了解这些限制。”
