奖励根据发现的漏洞的严重性,从250美元到5,000美元不等。为关键脆弱性提供了最高15万美元的特殊赏金,这些漏洞可能会对选定的系统和数据造成非凡的影响,从而强调了新加坡政府确保关键政府系统和宝贵个人数据的承诺。特别赏金针对领先技术公司的众包漏洞披露计划进行了基准测试。
此咨询提供了由授权机构收集和编制的细节,并根据2023年恶意参与者常规且经常利用的常见漏洞和暴露(CVE)及其相关的共同弱点(CWES)。恶意的网络参与者利用了更多的零日漏洞来妥协2023年的企业网络,与2022年相比,他们可以针对高优先级目标进行操作。
本通报提供了编写机构收集和汇编的详细信息,内容涉及 2023 年恶意网络行为者经常利用的常见漏洞和暴露 (CVE) 及其相关的常见弱点枚举 (CWE)。与 2022 年相比,2023 年恶意网络行为者利用了更多零日漏洞来破坏企业网络,从而使他们能够针对高优先级目标开展行动。
摘要 — 最近,在多模态大型语言模型 (MLLM) 进步的推动下,视觉语言动作模型 (VLAM) 被提出以在机器人操作任务的开放词汇场景中实现更好的性能。由于操作任务涉及与物理世界的直接交互,因此确保此任务执行过程中的鲁棒性和安全性始终是一个非常关键的问题。在本文中,通过综合当前对 MLLM 的安全性研究以及物理世界中操作任务的具体应用场景,我们全面评估了面对潜在物理威胁的 VLAM。具体而言,我们提出了物理脆弱性评估管道 (PVEP),它可以结合尽可能多的视觉模态物理威胁来评估 VLAM 的物理鲁棒性。PVEP 中的物理威胁具体包括分布外攻击、基于排版的视觉提示和对抗性补丁攻击。通过比较 VLAM 在受到攻击前后的性能波动,我们提供了关于 VLAM 如何应对不同物理安全威胁的通用分析。我们的项目页面位于此链接
本论文由 ScholarWorks@UARK 免费提供给您,供您开放访问。它已被 ScholarWorks@UARK 的授权管理员接受,可纳入研究生论文和学位论文中。如需更多信息,请联系 uarepos@uark.edu。
AI通常用于检测金融部门的欺诈和信用评分,但具有潜在的风险,例如对抗性攻击和数据操纵。同样,医疗保健行业将AI用于预测性医疗保健诊断和患者信息保护;威胁是数据盗窃和攻击诊断模型的对抗性示例。在制造业中,AI个人包含预测性维修和出色的控制,尽管他们不断暴露于工业间谍活动和AI模型的破坏。在零售业中,AI用于改善营销并预测消费者的行为。尽管存在这些好处,但有关使用可能有偏见的算法的问题,并且侵犯隐私的问题继续提高其丑陋的头脑。将AI用于监视或自动操作系统的防御性和政府组织最容易受到关键控制系统和先天安全系统的对抗干预。
优先考虑在补丁和软件更新可用时尽快部署。尽可能启用自动更新。 通过禁用不需要的 Internet 访问服务或限制对受信任网络的访问以及从工作站和开发环境中删除未使用的应用程序和实用程序来减少攻击面。 执行持续的威胁搜寻活动。 确保系统配置正确 - 检查开放端口和过时或未使用的协议,尤其是在面向 Internet 的系统上。 将面向 Internet 的服务隔离在网络非军事区 (DMZ) 中,以减少内部网络的暴露。 尽可能要求并强制执行多因素身份验证。 当允许用户自行注册多因素身份验证机制或在公司网络上注册设备时,要求注册新设备时进行额外的身份挑战。 设备成功注册后通知多个平台上的用户,以帮助识别意外注册。培训并鼓励用户注意和报告意外注册。 为身份验证服务和面向 Internet 的功能启用强大的日志记录。 定期审核具有电子邮件管理权限的基于云的帐户和应用程序是否存在异常活动。 限制令牌访问生命周期并监控令牌重用的证据。 强制最低权限访问并禁用外部管理功能。 对授权设备进行基准测试并对访问不符合基准的网络资源的系统进行额外审查。 尽可能禁止将信息远程下载到未注册的设备。