Loading...
机构名称:
¥ 2.0

对抗性攻击会操纵输入数据以造成错误或错误分类,从而绕过安全措施并控制 AI 系统的决策过程。对抗性攻击有多种形式,其中最常见的两种类型是逃避攻击和模型提取攻击。逃避攻击试图设计逃避 AI 系统防御检测的输入,并允许攻击者实现其目标(例如绕过安全措施或生成错误结果)。由于输入对 AI 系统来说似乎是合法的,因此这些攻击可能会产生不正确或意外的输出,而不会触发任何检测或警报。模型提取攻击试图从组织窃取经过训练的 AI 模型以将其用于恶意目的。某些应用程序特别容易受到这些攻击。对抗性攻击的影响因用例和行业而异,但可能包括:

控制人工智能网络安全风险

控制人工智能网络安全风险PDF文件第1页

控制人工智能网络安全风险PDF文件第2页

控制人工智能网络安全风险PDF文件第3页

控制人工智能网络安全风险PDF文件第4页

控制人工智能网络安全风险PDF文件第5页