Loading...
机构名称:
¥ 2.0

• 对抗性攻击:这些攻击通过向输入数据添加精心设计的小扰动来利用 AI 模型中的漏洞。目标是欺骗模型做出错误的预测。• 逃避攻击:旨在在推理过程中欺骗 AI 系统。攻击者修改输入数据以逃避检测或分类。• 推理攻击:针对数据输出而不是模型本身。通过观察响应,对手可以推断出有关训练数据或模型行为的敏感信息。

揭开人工智能治理的面纱

揭开人工智能治理的面纱PDF文件第1页

揭开人工智能治理的面纱PDF文件第2页

揭开人工智能治理的面纱PDF文件第3页

揭开人工智能治理的面纱PDF文件第4页

揭开人工智能治理的面纱PDF文件第5页

相关文件推荐