这涉及与数据传输或接收有关的威胁。移动生态系统中关键的攻击表面之一是移动应用程序和后端服务器之间的API通道。中间人(MITM)对此频道的攻击对移动用户构成了重大威胁。设备和服务器之间的拦截和操纵COM通用已成为一个普遍的攻击向量。如果攻击者可以获得客户端的控制,即使使用SSL,也可以通过重新包装或使用Frida等挂钩框架进行MITM攻击,以在运行时修改应用程序行为。重要的是要假设网络层需要窃听,并且客户端设备上的信任存储是对操作开放的。
https://www.linkedin.com/in/haramhovsep https://www.linkedin/codi fi <https://www.linkedin.com/in/haramhovsep https://www.linkedin/codi fi <
许多研究已经产生并比较了渗透测试工具在寻找Web应用程序中的脆弱性方面的准确性。在先前的研究中,对网站漏洞的动态分析工具的准确性进行了比较。这项研究的目的是在Amik Indonesia网站上获取所有信息,并通过收集有关执行时间的信息,例如网络资源使用,进行的攻击,警告和漏洞结果,从分析工具报告中得出。使用的工具是使用子图Vega和Owasp Zap,并查看工具报告的比较。以这种方式,可以查看该工具进行的测试是否有效,并且符合分析工具的两个重要方面,以便渗透测试工具可以在Web应用程序中找到所有漏洞,还可以报告检测到的漏洞。从获得的分析结果中查看时,Vega子图的漏洞数量少于OWASP ZAP,而Owasp Zap的漏洞数量更大。同时,从第二个工具中发现其他类型的攻击是相同的。
[1] 国家网络安全中心等。安全人工智能系统开发指南。2023 年。https://www.ncsc.gov.uk/files/Guidelines-for-secure-AI-system-development.pdf [2] 澳大利亚信号局等。参与人工智能(AI)。2024 年。https://www.cyber.gov.au/sites/default/files/2024-01/Engaging%20with%20Artificial%20Intelligence%20%28AI%29.pdf [3] MITRE。ATLAS(人工智能系统对抗性威胁格局)矩阵版本 4.0.0。2024 年。https://atlas.mitre.org/matrices/ATLAS [4] 国家标准与技术研究所。人工智能风险管理框架 1.0。 2023 年。 https://www.nist.gov/itl/ai-risk-management-framework [5] 开放式全球应用安全项目 (OWASP ®)。LLM 人工智能网络安全与治理清单。2024 年。 https://owasp.org/www-project-top-10-for-large-language-model-applications/llm-top-10-governance-doc/LLM_AI_Security_and_Governance_Checklist-v1.pdf [6] 开放式全球应用安全项目 (OWASP ®)。OWASP 机器学习安全十大安全风险。2023 年。 https://owasp.org/www-project-machine-learning-security- top-10/ [7] 网络安全和基础设施安全局。安全设计。2023 年。 https://www.cisa.gov/securebydesign [8] 国家安全局。拥抱零信任安全模型。 2021 年。https://media.defense.gov/2021/Feb/25/2002588479/-1/- 1/0/CSI_EMBRACING_ZT_SECURITY_MODEL_UOO115131-21.PDF [9] 网络安全和基础设施安全局。零信任成熟度模型。2022 年。https://www.cisa.gov/zero-trust-maturity-model [10] 网络安全和基础设施安全局。转变漏洞管理
[1] 国家网络安全中心等。安全人工智能系统开发指南。2023 年。https://www.ncsc.gov.uk/files/Guidelines-for-secure-AI-system-development.pdf [2] 澳大利亚信号局等。参与人工智能(AI)。2024 年。https://www.cyber.gov.au/sites/default/files/2024-01/Engaging%20with%20Artificial%20Intelligence%20%28AI%29.pdf [3] MITRE。ATLAS(人工智能系统对抗性威胁格局)矩阵版本 4.0.0。2024 年。https://atlas.mitre.org/matrices/ATLAS [4] 国家标准与技术研究所。人工智能风险管理框架 1.0。 2023 年。 https://www.nist.gov/itl/ai-risk-management-framework [5] 开放式全球应用安全项目 (OWASP ®)。LLM 人工智能网络安全与治理清单。2024 年。 https://owasp.org/www-project-top-10-for-large-language-model-applications/llm-top-10-governance-doc/LLM_AI_Security_and_Governance_Checklist-v1.pdf [6] 开放式全球应用安全项目 (OWASP ®)。OWASP 机器学习安全十大安全风险。2023 年。 https://owasp.org/www-project-machine-learning-security- top-10/ [7] 网络安全和基础设施安全局。安全设计。2023 年。 https://www.cisa.gov/securebydesign [8] 国家安全局。拥抱零信任安全模型。 2021 年。https://media.defense.gov/2021/Feb/25/2002588479/-1/- 1/0/CSI_EMBRACING_ZT_SECURITY_MODEL_UOO115131-21.PDF [9] 网络安全和基础设施安全局。零信任成熟度模型。2022 年。https://www.cisa.gov/zero-trust-maturity-model [10] 网络安全和基础设施安全局。转变漏洞管理
[1]国家网络安全中心等。安全AI系统开发的指南。2023。https://www.ncsc.gov.uk/files/guidelines-for-secure-ai-system-development.pdf [2]澳大利亚信号局局等。参与人工智能(AI)。2024。https://www.cyber.gov.au/sites/default/files/2024-01/gindaging%20With%20 ragenter%20 interligence%20%20%28AI%29.pdf [3] miter。地图集(人造智能系统的对抗性威胁景观)矩阵版本4.0.0。2024。https://atlas.mitre.org/matrices/atlas[4]国家标准技术研究所。AI风险管理框架1.0。2023。https://www.nist.gov/itl/ai-risk-management-framework[5]开放式全球应用程序安全项目(OWASP®)。LLM AI网络安全与治理清单。2024。https://owasp.org/www-project-top-10-for-large-lange-lange-model-applications/llm-top-10-governance-doc/llm_ai_ai_ai_ai_ai_ai_ai_ai_ai_and_governance_checklist-checklist-v1.pdf [6]OWASP机器学习安全前十大安全风险。2023。https://owasp.org/www-project-machine-learning-security-top-10/[7]网络安全和基础设施安全机构。通过设计安全。2023。https://www.cisa.gov/securebydesign[8]国家安全局。拥抱零信任安全模型。2021。https://media.defense.gov/2021/feb/25/2002588479/2002588479/1/-1/-1/0/CSI_EMBRACING_ZT_SECURITY_MODEL_MODEL_MODEL_MODEL_UOOOOOOOO115131.PDF [9] CYBERECURITY和INFRRASERITY和INFRRASTRASITER和INFRRASTRASITER ADICAL。零信任成熟度模型。改变脆弱性管理2022。https://www.cisa.gov/Zero-trust-maturity-model[10]网络安全和基础设施安全机构。
•2021年的申请攻击增长了88%•分布式服务和注射攻击代表75%的暴露量•OWASP每年平均每年增加20%的软件漏洞增加了20%•反向工程工具更复杂•敏感的数据和软件更加明显的是,•更加明显的是,•泄漏的用户/设备损失更高,是成本范围的成本•成本•成本•成本•iP'in IP'''in IP''in IP''in IP''in IP''in IP''in IP''in IP''in IP''in IP''in IP’
Also called Dynamic Application Security Testing • Fuzzing – input data “fuzz” to try to crash software or break thru defenses • Can use AI • Automated Security Scanning (to check for known vulnerabilities) • Penetration Testing (can be both static & dynamic), usually manual, post development • Key Coding Standards: OWASP, CERT, DISA STIG, ISO Standards, e.g., 5055 • Catalogs of security漏洞和暴露:CWE,CVE,NVD,KEV
生成AI(Genai)系统使用户能够快速生成高质量的内容。大语模型(LLM)的最新进展(Radford等人,2019年; Chowdhery等。,2022;布朗等人。,2020年; Touvron等。,2023; Bubeck等。,2023; Schulman等。,2022; Openai,2023年;拟人化,2023年),视觉语言模型(VLMS)(Radford等人,2021;刘等。,2023a; Driess等。,2023;团队,2023年)和扩散模型(Ramesh等人,2021; Song等。,2020年;杨等。,2023年)彻底改变了Genai的能力。开放的Web应用程序安全项目(OWASP)已编制了对LLM应用程序的十大漏洞和威胁的详细列表(Owasp,2023)。Genai模型旨在了解和生成具有超过传统机器学习系统的自主权,提供新颖的能力来理解视觉场景,生成文本,代码,图像以及与人类和互联网服务互动的新型功能。此功能可以实现更广泛的应用程序,并以这种方式引入了这些新型Genai集成应用所特有的新安全挑战。在本文中,我们讨论了该领域的挑战和机遇,从本节开始,从安全风险开始,包括Genai模型如何成为攻击的目标,一个无意中损害安全性的“傻瓜”,或者是坏演员攻击他人的工具。