Loading...
机构名称:
¥ 6.0

代码(CODELM)的语言模型已成为与代码相关任务的强大工具,表现优于传统方法和标准的机器学习方法。但是,这些模型容易受到安全漏洞的影响,引起了诸如软件工程,人工智能和网络安全等领域的越来越多的研究注意力。尽管越来越多的研究集中在Codels的安全性上,但该领域的全面调查仍然没有。为了解决这一差距,我们系统地审查了67篇相关论文,并根据攻击和防御策略组织它们。此外,我们还提供了常用的语言模型,数据集和评估指标的概述,并突出显示开源工具和有希望的方向,以确保CODELM的未来研究。

语言模型的安全性

语言模型的安全性PDF文件第1页

语言模型的安全性PDF文件第2页

语言模型的安全性PDF文件第3页

语言模型的安全性PDF文件第4页

语言模型的安全性PDF文件第5页

相关文件推荐

2024 年
¥5.0
2025 年
¥23.0