摘要 - LARGE语言模型(LLMS)已被用来用于自动化漏洞维修中,但是台上标记表明它们可以始终如一地识别与安全性相关的错误。因此,我们开发了Secllmholmes,这是一个完全拟定的评估框架,该框架迄今为止对LLMS是否可以可靠地识别和有关安全相关的错误进行了最详细的调查。我们构建了一组228个代码方案,并使用我们的框架分析了八个不同调查维度的八个最有能力的LLM。我们的评估表明LLM提供了非确定性的反应,不正确且不忠的推理,并且在现实世界中的表现不佳。最重要的是,我们的发现在最先进的模型(例如“ Palm2”和“ GPT-4”(GPT-4')中揭示了明显的非舒适性:仅通过更改函数或可变名称,或通过在源代码中添加库函数,这些模型分别在26%和17%的情况下可以产生错误的答案。这些发现表明,在将LLMs用作通用安全助理之前,需要进一步的LLM前进。
安全漏洞维修是一项艰巨的任务,迫切需要自动化。两组技术已显示出希望:(1)已在诸如代码完成诸如诸如代码完成之类的任务的源代码上预先培训的大型代码语言模型(LLMS),以及(2)使用深度学习(DL)模型自动修复软件错误的自动化程序修复(APR)技术。本文是第一个研究和比较LLMS和基于DL的APR模型的Java漏洞的修复功能。的贡献包括我们(1)应用和评估五个LLM(Codex,Codegen,Codet5,Plbart和Incoder),四个微调LLM和四个基于DL的APR技术,对两个现实World Java脆弱性基准(VUL4J和VJBENCE)(vul4j和vjbench),(2)设计代码(2)设计了一定的批准(2),(2)设计了一定范围,(2)设计了一定范围,(2)设计了一定的量码(2),(2)设计了一定范围(2),(2)设计了一定范围(2)设计(2),(2)设计了一定的划分(2),(3脆弱性维修台上VJBENCH及其转换版本VJBENCH-TRANS,以更好地评估LLM和APR技术,以及(4)评估VJBENCH-TRANS转换漏洞的LLMS和APR技术。我们的发现包括(1)现有的LLM和APR模型修复了很少的Java漏洞。Codex修复了10.2(20.4%),最多的漏洞。许多生成的补丁都是不可编译的补丁。(2)一般APR数据的微调改善了LLMS的漏洞固定功能。(3)我们的新VJBENCH表明,LLMS和APR模型无法修复许多常见的弱点(CWE)类型,例如CWE-325缺少加密步骤和CWE-444 HTTP请求走私。(4)Codex仍然修复了8.7转换的漏洞,表现优于所有其他LLMS
therapeutic approaches for treatment of NF1-associated tumors Kyle B. Williams 1 , Alex T. Larsson 1 , Bryant J. Keller 1 , Katherine E. Chaney 2 , Rory L. Williams 1 , Minu M. Bhunia 1,3 , Garrett M. Draper 1 , Tyler A. Jubenville 1 , Sue K. Rathe 1 , Christopher L. Moertel 1 , Nancy Ratner 2 , David A. Largaespada 1,3。1,明尼苏达州明尼阿波利斯大学共济会癌症中心儿科,美国,美国省55455,美国。 2实验血液学和癌症生物学,辛辛那提儿童医院,俄亥俄州辛辛那提,美国45229,美国。 3明尼阿波利斯,明尼阿波利斯,明尼苏达州,明尼苏达州,明尼苏达州55455,遗传学,细胞生物学与发展系,美国。 通讯作者凯尔·威廉姆斯(Kyle Williams),明尼苏达州明尼阿波利斯大学共济会癌症中心儿科系,美国明尼苏达州55455(kbwillia@umm.unm.edu)运行标题:NF1的合成药物敏感性1,明尼苏达州明尼阿波利斯大学共济会癌症中心儿科,美国,美国省55455,美国。2实验血液学和癌症生物学,辛辛那提儿童医院,俄亥俄州辛辛那提,美国45229,美国。3明尼阿波利斯,明尼阿波利斯,明尼苏达州,明尼苏达州,明尼苏达州55455,遗传学,细胞生物学与发展系,美国。 通讯作者凯尔·威廉姆斯(Kyle Williams),明尼苏达州明尼阿波利斯大学共济会癌症中心儿科系,美国明尼苏达州55455(kbwillia@umm.unm.edu)运行标题:NF1的合成药物敏感性3明尼阿波利斯,明尼阿波利斯,明尼苏达州,明尼苏达州,明尼苏达州55455,遗传学,细胞生物学与发展系,美国。通讯作者凯尔·威廉姆斯(Kyle Williams),明尼苏达州明尼阿波利斯大学共济会癌症中心儿科系,美国明尼苏达州55455(kbwillia@umm.unm.edu)运行标题:NF1的合成药物敏感性
1978 年《监察长法》,5 U.S.C.§§ 401-424(经修订)授权我们及时接触我们认为必要的人员和材料,以进行监督。您可以从国防部指令 5106.01“国防部监察长 (IG DoD)”和国防部指令 7050.03“国防部监察长办公室访问记录和信息”(2013 年 3 月 22 日,经修订)中获取有关国防部监察长办公室的信息。我们的网站是 www.dodig.mil 。
由于防御机制不足。例如,HAL-036语言模型的透明度和幻觉[14]可能会影响037对场景的可靠理解,从而导致机器人系统中不希望的038动作。另一个风险来源是039是LLMS/VLMS无法解决文本或图像提供的040上下文信息的歧义[35,52]。041由于当前语言模型通常遵循模板-042的提示格式来执行任务[16,29],因此缺乏043在解决自然044语言的变体和同义词时缺乏灵活性也可能导致045个提示的误解[24,43]。此外,在提示046中使用多模式的输入增加了上下文理解的难度和047推理的难度,这可能导致更高的失败风险[8,18]。048在实际应用中,这些风险将对机器人系统的鲁棒性和安全构成重大挑战。050我们的目标是分析语言模型和机器人技术的可信度和可靠性051。在这方面,我们的目标是052通过广泛的实验提高对机器人应用程序054的最先进语言模型的安全问题的认识。我们表明,需要对该主题进行进一步的研究055,以安全地部署基于LLM/VLM的056机器人,以实现现实世界应用程序。我们的主要重点是057
基于CISA研究结果的补充,基于授权组织在事件响应活动和可用行业报告中的观察结果,作者建议,网络辩护者最安全的行动方案是假设参与者可能会在设备上部署rootkit级别的持久性,以使其重新安置和休息性的时间,以供量身定期。例如,正如中国国家赞助的参与者妥协并保持对美国关键基础设施的持续访问所述的那样,长期以来,复杂的参与者可能会在妥协的网络上保持沉默。授权组织强烈敦促所有组织在确定是否继续在企业环境中继续操作这些设备时,考虑了对手访问和坚持的对手的重大风险。
摘要 - 本研究研究了云计算中的重大漏洞和威胁,分析其对企业的潜在后果,并提出了效率解决方案,以减轻这些脆弱性。本文讨论了以快速数据扩展和技术进步为特征的时间,云安全的意义增加。本文研究了云计算中普遍的漏洞,包括云错误配置,数据泄漏,共享技术威胁和内部威胁。它强调采用积极而全面的方法来确保云安全性。该报告非常重视共同责任范式,遵守行业法律以及网络安全威胁的动态性质。情况是,研究人员,网络安全专业人员和企业的合作需要主动解决这些困难。该合作伙伴关系旨在为旨在加强其云安全性措施并保护不断发展的数字景观的有价值数据的组织提供详尽的手册。
逆增强学习(IRL)是一组模仿学习的技术,旨在学习合理的专家演示的奖励功能。不幸的是,传统的IRL方法患有计算弱点:他们需要反复解决艰苦的执行学习(RL)问题作为子例程。从降低的角度来看,这是反直觉的:我们减少了模仿学习的更简单问题,以反复解决RL的更困难问题。另一个工作线索证明,访问强大政策花费时间的状态分布的侧面信息可以大大减少解决RL问题的样本和计算复杂性。在这项工作中,我们首次证明了更明智的模仿学习减少,我们利用了前面的状态分布来减轻RL子例程的全球勘探部分,从而提供了指数的速度。实际上,我们发现我们能够在连续的控制任务上显着加快先前的艺术。
在线工具有意义的活动,并表示希望拥有在线和面对面选项的愿望。一些参与者描述了在限制期间参加各种在线社交团体活动的参与,例如参加“通过Zoom参加Zumba课程”(P6)。随着限制的逐渐缓解,其中一些活动仍在网上继续进行。p14说:“我们曾经每月进行一次讲座,他们再也没有回到面对面。从那以后一直在线。”许多参与者享受这些在线机会提供的便利,尤其是在特殊情况下正如P4所说:“下雨或10度时,我不可能在公园里做瑜伽”。P5说:“这对人有帮助
3纽黑文大学摘要的高级技术解决方案工程师: - 本文研究了人工智能(AI)技术的整合,以在计算机硬件中加强安全措施,主要侧重于主动识别和缓解基于硬件的漏洞和攻击。随着数字景观的发展,确保计算机系统的鲁棒性变得越来越关键。传统的安全方法通常在解决基础体系结构中固有的脆弱性的复杂硬件级别威胁方面通常不足。该研究深入研究AI算法,机器学习模型和神经网络的应用,以增强安全系统的检测功能,从而能够早期识别和对与硬件有关的威胁的响应。通过利用AI,该研究探讨了对系统行为,异常检测和模式识别的实时分析的潜力,以识别指示硬件攻击的不规则性。此外,该论文研究了AI驱动系统在快速发展的网络安全景观中动态发展和应对新兴威胁的适应性。调查的关键方面包括对现有AI驱动的安全解决方案的深入分析,它们在减轻硬件漏洞方面的有效性以及它们为潜在攻击提供主动防御的能力。本文还探讨了为硬件安全实施AI时的挑战和考虑因素,例如需要强大的培训数据集,模型可解释性和道德含义。这项研究的发现通过提出一种将AI集成到计算机硬件的防御机制中的整体方法,这有助于持续有关加强网络安全措施的论述。这项研究所获得的见解对设计有弹性的硬件体系结构和开发自适应安全协议有实际影响,以保护数字时代的不断发展的威胁。关键字: - 人工智能,安全措施,计算机硬件,网络证券,异常检测,网络威胁,驱动的安全性。简介: - 在数字技术的快速前进的景观中,复杂的网络威胁的扩散对计算机硬件的安全构成了前所未有的挑战。随着我们对互连系统的依赖的增长,对超越传统范式的强大安全措施的需求也在增长。本文努力研究人工智能(AI)在计算机硬件内强化安全措施中的变革性作用,特别是针对基于硬件的漏洞和攻击的检测和缓解。[1]计算体系结构的演变带来了复杂的互连设备的网络,形成了我们现代数字基础架构的骨干。但是,这种复杂的互连性将这些系统暴露于无数的安全风险,其中许多系统利用了将漏洞深深嵌入硬件本身。主要基于软件的传统安全方法通常很难识别和中和源于硬件级别的威胁。这种缺陷使计算机系统容易受到可能损害数据完整性,机密性和整体系统功能的攻击。将AI集成到硬件安全领域代表了我们的网络威胁方法的范式转变。AI技术,包括机器学习模型,神经网络和高级算法,提供了积极主动和适应性防御机制的希望。本文的关键重点之一是探索AI如何通过实现对系统行为的实时分析来彻底改变基于硬件的漏洞的检测。通过利用AI,安全系统可以超越常规的基于签名的方法,并动态适应不断发展的威胁景观。对基于硬件的漏洞的检测需要与传统上网络安全采用的反应性立场背道而驰。AI通过其对异常检测和模式识别的能力,使安全系统能够预测并应对潜在威胁。面对迅速发展的网络威胁,这是剥削新型脆弱性的,这是至关重要的,通常是