详细内容或原文请订阅后点击阅览
Anthropic 与五角大楼就人工智能安全问题发生冲突 - 这是您需要了解的所有内容
随着 Anthropic 发布其迄今为止最自主的代理,与军方日益激烈的冲突揭示了全球扩张和“安全第一”精神之间的不可能选择
来源:LiveScience2月5日,Anthropic发布了其最强大的人工智能模型Claude Opus 4.6。该模型的新功能之一是能够协调自主代理团队——多个人工智能,它们可以划分工作并并行完成工作。 Opus 4.6 发布 12 天后,该公司放弃了 Sonnet 4.6,这是一种更便宜的型号,几乎与 Opus 的编码和计算机技能相匹配。 2024 年末,当 Anthropic 首次推出可以控制计算机的模型时,它们几乎无法操作浏览器。据 Anthropic 称,现在 Sonnet 4.6 可以导航 Web 应用程序并以人类水平的能力填写表格。两种型号的工作内存都足够大,可以容纳一个小型库。
企业客户目前约占 Anthropic 收入的 80%,该公司上周完成了一轮 300 亿美元的融资,估值为 3800 亿美元。无论从哪方面衡量,Anthropic 都是历史上规模扩张最快的科技公司之一。
但在大型产品发布和估值的背后,Anthropic 面临着严重的威胁:五角大楼已表示可能会将该公司指定为“供应链风险”——这个标签通常与外国对手联系在一起——除非该公司放弃对军事用途的限制。这样的指定可能会有效地迫使五角大楼承包商剥夺克劳德的敏感工作。
这次碰撞暴露了一个问题:一旦一家为防止人工智能灾难而成立的公司最强大的工具——能够处理大量数据集、识别模式并根据结论采取行动的自主代理——在机密军事网络内运行,它还能坚持自己的道德底线吗? “安全第一”的人工智能是否与想要能够在军事规模上自行推理、计划和行动的系统的客户兼容?
将世界上最迷人的发现直接发送到您的收件箱。
我们的安全和国家安全怎么样?
