Loading...
机构名称:
¥ 3.0

红队模拟现实世界中对组织、基础设施或个人等目标的攻击,以测试他们的防御能力并评估漏洞。人工智能在红队网络攻击中发挥着重要作用。本文通过研究人工智能方法在各种情况下如何被滥用以及确定这些攻击的典型目标,探讨了人工智能在红队中的影响。最近的研究强调了与大型语言模型(LLM)相关的风险,这是一种先进的人工智能,以及它们重塑红队领域的潜力。本文旨在进行全面回顾,分析人工智能在网络攻击中的作用及其对红队实践的影响。论文第 2 章分析了提交的文章,总结了其方法和结果。本文进行了范围界定审查,旨在确定红队中使用的 AI 方法及其有针对性攻击的性质。第 3 章介绍了扩展的文献综述,采用叙述性综述和滚雪球抽样方法来实现其目标。该评论重点介绍了红队攻击中使用的大型语言模型 (LLM)。它探讨了 LLM 和其他高级 AI 方法在网络攻击领域的作用,重点介绍了最近的研究及其目标。AI 正在推动整个红队领域的变革,而 LLM 等高级 AI 既带来了机遇,也带来了风险。自动化网络攻击的兴起带来了新的复杂程度,使得这些攻击越来越难以检测。网络犯罪分子正在利用可访问的 AI 工具执行自动化和高度逼真的攻击,通常只需要极少的人为干预。这些基于 LLM 的应用程序不仅使攻击者能够优化他们的策略,而且由于 AI 系统内的漏洞,还存在严重风险,可能导致严重后果。例如,对 AI 驱动的攻击的模拟显示出很高的成功率,凸显了这些工具增强网络攻击方法的潜力。讨论了 Auto-GPT 等工具在未来向公众推出时被滥用的可能性。需要对网络攻击中的 AI 进行研究,以应对红队中使用 AI 应用程序所带来的威胁。

红队中的人工智能

红队中的人工智能PDF文件第1页

红队中的人工智能PDF文件第2页

红队中的人工智能PDF文件第3页

红队中的人工智能PDF文件第4页

红队中的人工智能PDF文件第5页

相关文件推荐

2024 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2023 年
¥3.0
2024 年
¥4.0
2023 年
¥1.0
2013 年
¥3.0
2024 年
¥1.0
2023 年
¥5.0
2023 年
¥2.0
2020 年
¥9.0
2024 年
¥4.0
2022 年
¥3.0
2021 年
¥6.0
2023 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2021 年
¥1.0
2023 年
¥1.0
2020 年
¥3.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥11.0
2024 年
¥2.0
2024 年
¥10.0
2024 年
¥1.0
1900 年
¥1.0