来自社区 | Anthropic 诉 DoW 案敲响了警钟:斯坦福大学必须在人工智能和民主方面发挥领导作用

斯坦福大学有效利他主义主席阿维·帕拉克 (Avi Parrack) 呼吁采取行动限制人工智能在军事行动和国内监视中的使用。来自社区的帖子 | 《Anthropic v. DoW》敲响了警钟:斯坦福大学必须在人工智能领域处于领先地位,民主首先出现在《斯坦福日报》上。

来源:斯坦福大学日报

Avi Parrack 是一名博士。物理学学生和斯坦福大学有效利他主义主席。

战争部 (DoW) 对 Anthropic 的行动揭示了我们民主护栏上的断层,并预示着当我们面对前所未有的人工智能能力时,如何保持权力平衡,将会面临更大的压力。如果有哪个社区有资格和专业知识来领导这项工作,那就是斯坦福大学。

2 月 27 日,战争部长皮特·赫格斯 (Pete Hegseth) 在 X 上发帖称,“任何与美国军方有业务往来的承包商、供应商或合作伙伴不得与 Anthropic 进行任何商业活动”,并宣布他打算将该公司指定为“对国家安全构成供应链风险”的公司,这一分类历来是为中国华为等外国对手保留的,此前从未适用于美国公司。该指定已正式公布,促使 Anthropic 计划在法庭上提出质疑。

这一事件是战争部滥用权力的行为,它引发的有关人工智能在军事行动和国内监视中的问题太过严重,无法仅通过行政行动来解决。他们要求国会监督和公众审议。

Anthropic 是由斯坦福大学校友 Dario Amodei ‘06 创立的人工智能公司,是五角大楼机密网络的主要人工智能提供商。该公司的合同包括两项限制:第一,克劳德不得用于对美国公民进行大规模国内监视;第二,克劳德不得被用于对美国公民进行大规模国内监视;其次,克劳德不能在没有人类监督的情况下用于完全自主的武器,这意味着克劳德不能在没有人类做出最终决定的情况下授权发动袭击。

然而,该公司无论如何都坚持其红线,因为正如 Amodei 所解释的那样,当今的人工智能系统太不可靠,不能被信任来做出生死攸关的决定。当一家公司放弃经济利益并承受政治惩罚来警告你它自己的产品还没有准备好时,我们应该倾听。