#1中的包含标准:本文的标题和摘要包含一对确定的搜索关键字;在#2中:将大型语言模型(例如Bert,GPT,T5)应用于安全任务的论文;在#3中:提出了基于大语言模型的安全任务的新技术或模型的论文;在#4中:评估大语模型在安全环境中的性能或有效性的论文。排除标准Ex#1:重复论文,与同一作者的多次反复差异很小的研究;例如2:短论文小于8页,工具演示,主题演讲,社论,书籍,论文,讲习班论文或海报论文;例如3:未在确定的会议或期刊上发表的论文,也没有作为Arxiv的预印本;例如4:不关注安全任务的论文(例如,一般域中的自然语言处理任务);例如5:使用传统的机器学习或深度学习技术的论文,而无需大型语言模型;例如6:中学研究,例如SLR,审查或调查;例如7:论文未用英语写;例如8:论文专注于LLM的安全性,而不是使用LLMS进行安全任务。
作为实地转型的一部分,设立了几个新职位,包括中部、东部、中大西洋和西部地区的四名新区域主任。这些区域主任的职责是监督整个地区的行政、后勤和跨任务信息共享。在各自的区域内,他们将负责领导支持反情报、背景调查和工业安全任务的实地工作人员。区域主任将与任务总部和实地行动助理主任密切合作,管理行政和后勤职能,带头整合任务和区域,并专注于实地和总部之间的有效沟通。DCSA 已聘用了四名区域主任中的三名,以下是这些人员的简要介绍。东部地区区域主任的招聘正在进行中。
海关当局必须在合法贸易的促进与国际安全的义务之间取得平衡。随着多年来国际贸易的数量增加,各州采取了许多步骤来提高贸易便利和欺诈活动的效率。仍然存在各州确定战略商品非法贸易实例的能力的差距。世界海关组织(WCO)将战略产品定义为“大规模杀伤性武器(WMD),常规武器以及所涉及的此类武器及其交付系统所涉及的相关物品”(WCO,2019,pp。8–9)。在包括少量总体国际贸易的同时,这些商品代表了国际海关安全任务的重要组成部分。
安全和国防工业不仅在安全和国防政策方面具有战略意义,而且在技术和工业政策方面也具有战略意义。这些公司在向民政当局和承担安全任务的组织以及德国联邦国防军提供设备方面发挥着特别重要的作用,因此为保护德国和欧洲的公民做出了重大贡献。这使得安全和国防工业成为国家和欧洲利益的工业部门。创新、强大和有竞争力的安全和国防工业也是德国和欧盟在联盟内(特别是在北约内)合作和履行义务能力的基本要素。在此背景下,军备项目的欧洲化旨在提高联盟内部队的互操作能力,同时保留关键的国家技术,并通过规模经济降低成本。在这方面,与北约能力规划的密切一致性至关重要。
Condor女士自2021年10月以来一直担任该公司的首席运营官,并自2021年8月以来担任公司董事之一。在担任首席运营官之前,Condor女士自2021年8月以来担任太空服务和地球情报总经理,自2013年2月以来,Condor女士还担任Legacy Spire的执行副总裁,Legacy Spire的太空服务和地球情报总经理,除了担任Legacy Spire的各种其他角色外,并一直担任Legacy Spire自2015年11月以来的董事之一。Pelaz女士,现年46岁,将从Hensoldt AG加入该公司,自2024年4月以来,她一直担任首席运营官,并自2021年7月以来担任管理委员会成员。。Pelaz女士,现年46岁,将从Hensoldt AG加入该公司,自2024年4月以来,她一直担任首席运营官,并自2021年7月以来担任管理委员会成员。在担任首席运营官之前,她从2021年7月至2024年3月担任首席战略官,并于2018年4月至2022年8月担任Spectrum Dominance&Airborne Soluthe司的负责人。Hensoldt AG于2017年从空中客车集团中雕刻出来,并着重于用于国防和安全任务的传感器技术。
本文标志着人工智能(AI)在信息安全性中的使用,其中注意到其优点,缺点以及意外的负面结果。它考虑了基于AI的模型,这些模型可以增强或破坏结构功能并组织网络。此外,文章还深入研究了AI在网络安全软件开发中的作用,以及对可以预料和挫败AI-AI-创建脆弱性的AI-ROSIRICT策略的需求。该文件还谈到了AI在网络安全方面出现的社会经济后果。研究了AI和安全性,该报告概述了包括提出威胁检测精度,扩展安全操作效率和预防安全任务的好处。同时,它强调了人工智能的积极方面,但它也显示了潜在的限制,例如数据偏见,缺乏可解释性,道德问题和安全缺陷。这项工作类似地着重于滥用和复杂的网络攻击的特征。这项研究提出了减少AI生成的方法的方法,其中包括道德AI的发展,稳健的安全措施以及持续的审核和更新。关于网络安全的AI应用,在社会经济问题方面既有利弊,又有缺点,以实现,工作流离失所,经济增长和所需劳动力技能的变化。
摘要 - LARGE语言模型(LLM)被认为具有自动化安全任务的有希望的潜力,例如在安全操作中心(SOCS)中发现的任务。作为评估这种感知潜力的第一步,我们调查了LLM在软件pentesting中的使用,其中主要任务是自动识别源代码中的软件安全漏洞。我们假设基于LLM的AI代理可以随着时间的推移而改进,因为人类操作员与之互动,可以为特定的安全任务进行特定的安全任务。可以通过第一个步骤来通过工程提示根据产生的响应提示为LLM提供的第一个步骤,以包括相关的上下文和结构,以便模型提供更准确的结果。如果经过精心设计的提示在当前任务上产生更好的结果,也会为未来的未知任务产生更好的结果,则此类工程工作将变得可持续。为了审查这一假设,我们利用OWASP基准项目1.2,其中包含2,740个手工制作的源代码测试案例,其中包含各种类型的漏洞。我们将测试用例分为培训和测试数据,在该数据中,我们根据培训数据(仅)来设计提示,并在测试数据上评估最终系统。我们将AI代理在测试数据上的性能与没有及时工程的代理商的性能进行了比较。我们还将AI代理的结果与Sonarqube的结果进行了比较,Sonarqube是一种用于安全测试的静态代码分析器。结果表明,使用LLMS是一种可行的方法,用于构建用于填充软件的AI代理,可以通过重复使用和及时的工程来改进。我们使用不同的现成的LLMS(Google的Gemini-Pro)以及OpenAI的GPT-3.5-Turbo和GPT-4-Turbo(带有聊天完成和Assistant Apis)构建并测试了AI代理的多个版本。