生成式人工智能的网络安全考虑因素
机构名称:
¥ 1.0

训练数据中毒 训练数据中毒是指恶意操纵 LLM 的训练数据或微调程序,从而引入漏洞、后门或偏见,这些漏洞、后门或偏见可能会破坏模型的安全性、有效性或道德规范。通过篡改训练数据或微调程序,攻击者可以注入微妙但有影响力的修改,从而破坏 LLM 的预期行为。这可能包括在训练数据中引入恶意模式、有偏见的信息或故意误导的示例,旨在歪曲模型的决策过程或损害其有效概括的能力。

生成式人工智能的网络安全考虑因素

生成式人工智能的网络安全考虑因素PDF文件第1页

生成式人工智能的网络安全考虑因素PDF文件第2页

生成式人工智能的网络安全考虑因素PDF文件第3页