国防部官员表示,五角大楼正计划让人工智能公司进行机密数据训练

据《麻省理工科技评论》获悉,五角大楼正在讨论为生成型人工智能公司建立安全环境的计划,以根据机密数据训练其模型的军事专用版本。像 Anthropic 的 Claude 这样的人工智能模型已经被用来回答机密环境中的问题;应用包括分析伊朗的目标。但允许模型训练......

来源:MIT Technology Review _人工智能

一位美国国防官员在接受《麻省理工科技评论》采访时表示,基于机密数据的人工智能模型训练版本预计将使其在某些任务中更加准确和有效。这一消息发布之际,人们对更强大模型的需求很高:五角大楼已与 OpenAI 和埃隆·马斯克的 xAI 达成协议,在机密环境中运行他们的模型,并随着与伊朗的冲突升级,正在实施一项新议程,成为“一支‘人工智能优先’的作战力量”。 (截至发稿时,五角大楼尚未对其人工智能培训计划发表评论。)

据两位熟悉此类操作运作方式的人士透露,培训将在一个安全的数据中心进行,该数据中心被认可可以托管机密政府项目,并且将人工智能模型的副本与机密数据配对。这位官员表示,尽管国防部仍将是这些数据的所有者,但人工智能公司的人员如果拥有适当的安全许可,在极少数情况下可能会访问这些数据。

不过,这位官员表示,在允许这项新的训练之前,五角大楼打算评估模型在非机密数据(例如商用卫星图像)上训练时的准确性和有效性。

军方长期以来一直使用计算机视觉模型(一种较旧的人工智能形式)来识别从无人机和飞机收集的图像和镜头中的对象,联邦机构已向公司授予合同,根据此类内容训练人工智能模型。构建大型语言模型 (LLM) 和聊天机器人的人工智能公司已经创建了针对政府工作进行微调的模型版本,例如 Anthropic 的 Claude Gov,旨在跨更多语言和在安全的环境中运行。但这位官员的评论首次表明,OpenAI 和 xAI 等建立法学硕士的人工智能公司可以直接在机密数据上训练政府特定版本的模型。