基础模型最终可能会引入多种破坏国家安全的途径:事故、无意升级、非故意冲突、武器扩散和干扰人类外交只是众多途径中的一小部分。OpenAI 地缘政治团队和加州大学伯克利风险与安全实验室主办的人工智能信任建立措施研讨会汇集了一个多利益相关方小组,共同思考减轻基础模型给国际安全带来的潜在风险的工具和策略。信任建立措施 (CBM) 起源于冷战,是减少敌对情绪、防止冲突升级和增进各方信任的行动。CBM 的灵活性使其成为应对基础模型格局快速变化的关键工具。与会者确定了以下直接适用于基础模型的 CBM,并在本次会议论文集中进行了进一步解释:1. 危机热线 2. 事件共享 3. 模型、透明度和系统卡 4. 内容来源和水印 5. 协作红队和桌面演习 6. 数据集和评估共享。由于大多数基础模型开发者都是非政府实体,因此许多 CBM 需要让更广泛的利益相关者社区参与进来。这些措施可以由人工智能实验室或相关政府参与者实施。
主要关键词