1. 规避:修改输入以影响模型的攻击,例如对图像进行修改以影响分类。此技术可用于规避模型在下游任务中正确分类情况。2. 模型中毒:对手可以训练性能良好的机器学习模型,但包含后门,当输入包含对手定义的触发器的输入时,会产生推理错误。可在推理时利用此后门模型进行规避攻击。3. 训练数据:修改训练数据的攻击会添加另一个后门,例如,训练数据中不可察觉的模式会创建可以控制模型输出的后门。4. 提取:窃取专有模型的攻击,例如,攻击可以定期对模型发起查询,以提取有价值的信息来揭示其属性。5. 推理:获取有关私人数据的信息的攻击,例如,攻击。