点击购买,资源将自动在新窗口打开.
获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
现有研究表明,在实验条件下,AI代码生成模型经常输出不安全的代码。但是,评估AI生成代码的安全性的过程非常复杂,并且包含许多相互依存的变量。为了进一步探索不安全的AI编写代码的风险,我们评估了五个LLMS生成的代码。每个模型都具有相同的提示,这些提示旨在测试可能产生越野车或不安全代码的情况。我们的评估结果表明,这五种不同模型生成的代码段中几乎一半包含通常会影响的错误,并且可能导致恶意剥削。这些结果仅限于我们评估的狭窄范围,但我们希望它们可以为围绕AI代码生成模型的影响的更大的研究做出贡献。
主要关键词