采取会造成伤害的立场

当有权势的人威胁某人或公司,让他们做他们想做的事情时,就会出现道德价值观问题。通常,这是由最弱者采取的行动,他们无法独自站立。一家公司对皮特·赫格斯 (Pete Hegseth) 采取立场,大西洋人类 PBC 是 […] 采取会伤害的立场的帖子首先出现在《愤怒的熊》上。

来源:愤怒的熊

愤怒的熊|2026 年 2 月 27 日上午 8:30

当有权势的人威胁某人或公司,让他们做他们想做的事情时,就会出现道德价值观问题。通常,这是由最弱者采取的行动,他们无法独自站立。

一家公司对《大西洋月刊》的皮特·赫格斯 (Pete Hegseth) 采取立场

Anthropic PBC 是一家人工智能安全和研究公司。 Anthropic 在其一款产品 Claude 中进行了某些限制。国防部在访问委内瑞拉时聘请了 Anthropic 的克劳德。 克劳德可以说是一个问题解决者。它旨在解决难题、应对复杂的挑战、分析数据、编写代码并思考您最困难的工作。

作为与 Anthropic 签订的 2 亿美元合同的一部分,五角大楼几个月来一直在使用该公司的旗舰产品 Claude。国防部希望将其用于其他事情,即被阻止的事情(可能是编程)。到目前为止,Anthropic 的首席执行官在允许更多功能方面并没有让步。作为CEO的镜头版本并不愿意开放更多的能力。

国防部长皮特·赫格斯 (Pete Hegseth) 与达里奥·阿莫迪 (Dario Amodei)(领先人工智能公司 Anthropic 的首席执行官)坐在一起,进行了有关道德的对话。你认为皮特想利用克劳德进行其他事业。如果允许这样做,它就不能用于促进对美国人的监视,这种技术用于完全自主的武器中,由计算机(而不是人类)做出关于杀死谁的最终决定。

Petey 说得很清楚,如果 Anthropic 在周五下午之前没有消除这两个护栏,可能会发生两件事:

  • 国防部可以使用冷战时期的法律《国防生产法》来从本质上征用更宽松的人工智能迭代,或者
  • 它可能会给 Anthropic 贴上“供应链风险”的标签,这意味着任何与美国军方有业务往来的人都将被禁止与该公司有联系。