故障模式和影响分析 (FMEA) 是一种推断系统或系统组件故障可能导致的系统危害的技术。传统上,FMEA 不考虑这些故障可能发生的概率。最近,通过将随机模型检查技术集成到 FMEA 流程中来解决此缺点。进一步的改进是集成了随机模型反例生成技术,我们在本文中提出了这一技术。反例通过提供哪些组件对整个系统故障贡献最大的信息,促进了潜在不安全系统的重新设计。通过将这种新颖的 FMEA 流程方法应用于我们的工业合作伙伴 TRW Automotive GmbH 提供的安全气囊系统案例研究,说明了其实用性。
错误的学习(LWE)问题W.R.T.A矩阵B要求将C = SB+E MOD Q与均匀随机区分开,其中S是一个统一的秘密,E一些短误差。在Eurocrypt'22中,Wee提出了回避的LWE假设,该假设假定为“对于任何矩阵P,如果LWE W.R.T.关节矩阵(b,p)很难,然后是LWE W.R.T.b也很难,即使给出了简短的预映率,u满足bu = p mod q”。从那时起,已经出现了少数回避的LWE变体,这些变体已被证明暗示着各种高级加密原语,从基于属性的基于无界深度电路的基于属性的加密,证人加密,到掩盖无效电路。在本次演讲中,我们概述了回避的LWE假设,其中包括为什么它对高级原语及其变体的不同类型的加密证明看起来很有用。基于标准LWE的假设,我们针对三个私人胶卷LWE变体构建了简单的反例,出现在先前的工作中。然后,基于现有变体和我们的反例,我们建议并定义三类合理的回避LWE假设,适当地捕获了我们不知道基于非碰撞的反例的现有变体。我们也有理由在我们的假设公式下可以修复相关作品中的安全证明。与Chris Brzuska和Akinünal的联合合作。 传记与Chris Brzuska和Akinünal的联合合作。传记
根本原因分析(RCA)对于从模糊结果中发现疾病至关重要。通过在模糊过程中观察到的崩溃来自动化此过程,被认为是具有挑战性的。特别是,已知当今的统计RCA方法非常慢,通常需要数十个小时甚至一周的时间来分析崩溃。此问题来自此类方法的偏差采样。更具体地说,如果输入引起了程序中的崩溃,这些方法通过将其突变以生成新的测试用例,以围绕输入进行样式。这些情况用于模糊程序,希望可以充分采样原始输入的执行路径上的一组程序元素(块,指令或谓词),以便可以确定它们与崩溃的相关性。此过程倾向于生成输入样本,更可能导致崩溃,其执行路径涉及一组类似的元素,而这些元素变得越来越不可分割,直到已经进行了大量样品。我们发现,可以通过对“反例”进行抽样来有效地解决此问题,这会导致当前相关性估计值发生重大变化。这些输入尽管仍然涉及这些元素通常不会导致崩溃。发现它们在区分程序元素中有效,从而加速了RCA过程。基于局面,我们设计并实施了增强学习(RL)技术,以奖励涉及反例的操作。通过平衡随机抽样与反例上的综合采样,我们的新方法(称为r a c ing)被证明可以实质上提高当今统计RCA的可伸缩性和准确性,从而超过最终的最大程度的命令。
我们提出了一种数据驱动的方法,用于概率程序和随机动力学模型的定量验证。我们的方法利用神经网络计算紧密和声音的边界,以使随机过程在有限的时间内达到目标状况的可能性。此问题涵盖了各种定量验证问题,从离散时间随机动力学模型的可及性和安全性分析到对概率计划的断言和末端分析的研究。我们依靠神经网络代表产生这种概率界限的超级智能证书,我们使用反例引导的电感综合循环对其进行计算:我们在使用随机优化的状态限制的概率上训练神经证书,然后使用随机优化的状态进行拧紧的概率,然后我们正式使用所有可能的状态,使用所有可能的状态使用满足性模量,以实现证书的有效性;如果我们收到反例,我们将其添加到我们的样本集中,然后重复循环,直到确认有效性。我们在各种基准基准上证明,由于神经网络的表达能力,我们的方法比现有的符号方法在所有情况下都产生的概率范围更小或可比,并且我们的方法在模型上完全取得了成功,这些模型完全超出了此类替代技术的范围。
•GF(2 3)包含每个非零元素的唯一乘法逆,其原因是Z 7包含集合中每个非零整数的唯一乘法逆。(对于反例,请回想一下Z 8不具有2、4和6的乘法倒置。)正式说明,我们说对于每个非零元素a∈Gf(2 3)总有一个唯一的元素b∈Gf(2 3),使得a×b =1。
我们提出了一种数据驱动的方法,用于概率程序和随机动力学模型的定量验证。我们的方法利用神经网络计算紧密和声音的边界,以使随机过程在有限的时间内达到目标状况的可能性。此问题涵盖了各种定量验证问题,从离散时间随机动力学模型的可及性和安全性分析到对概率计划的断言和末端分析的研究。我们依靠神经网络代表产生这种概率界限的超级智能证书,我们使用反例引导的电感综合循环对其进行计算:我们在使用随机优化的状态限制的概率上训练神经证书,然后使用随机优化的状态进行拧紧的概率,然后我们正式使用所有可能的状态,使用所有可能的状态使用满足性模量,以实现证书的有效性;如果我们收到反例,我们将其添加到我们的样本集中,然后重复循环,直到确认有效性。我们在各种基准基准上证明,由于神经网络的表达能力,我们的方法比现有的符号方法在所有情况下都产生的概率范围更小或可比,并且我们的方法在模型上完全取得了成功,这些模型完全超出了此类替代技术的范围。
亚里士多德 [ 公元前 350 年 ] 列出了人类常见推理错误,其中一条比较微妙的谬误是“合成谬误”,推理者认为,如果一个命题对整体的每个元素都成立,那么它对整体也一定成立。卢卡斯模型提供了一个反例。从任何个体(原子)行为者的角度来看,决定多储蓄一单位确实会带来更多的未来资源,数量为 R t +1 。但从整个社会的角度来看,如果每个人都决定做同样的事情(多储蓄一单位),那么在 t + 1 时期对总资源就不会产生任何影响。换句话说,对任何个体行为者来说,“资本边际产量”似乎都是 R t +1 ,但对整个社会来说,资本边际产量为零。认为整个社会的回报必须与个人可获得的回报相同这一命题是错误的,因为它隐含地假设普遍的储蓄意愿不会产生一般均衡效应(或者更广泛地说,一个人做出的决定与另一个人的决定之间没有相互作用)。卢卡斯模型提供了一个反例,如果每个人的偏好都发生变化(例如,每个人的 ϑ 都下降),未来资产的价格就会受到影响——事实上,它受到的影响足以抵消对未来股息所有权增加的渴望(因为资产的供应量是固定的,需求必须与预先存在的供应量相协调)。亚里士多德是个聪明人!
在没有仪表进近或先进设备的小型机场,飞机自动着陆是一项安全关键任务,需要使用飞机上的传感器。在本文中,我们研究使用摄像头作为主要传感器的固定翼飞机自动着陆系统的伪造。我们首先介绍一种基于视觉的自动着陆架构,包括基于视觉的跑道距离和方向估计器以及相关的 PID 控制器。然后,我们概述了使用实际飞行数据验证的着陆规范。使用这些规范,我们建议使用伪造工具 Breach 来查找自动着陆系统中规范的反例。我们的实验是使用 X-Plane 飞行模拟器中的 Beechcraft Baron 58 与 MATLAB Simulink 通信进行的。
博士生将在 ForML 项目 (https://www.irit.fr/ForML) 内工作。该项目是图卢兹信息研究所 (IRIT)(Aurélie Hurault、图卢兹 INP 和 Martin Cooper、图卢兹 III)、索邦大学(Antoine Miné、LIP6)和 Inria Paris(Caterina Urban、ANTIQUE)之间的合作,由 IRIT 领导。ForML 旨在开发基于抽象解释的新静态分析技术和基于反例引导抽象细化的新模型检查技术,以验证机器学习软件的稳健性、公平性和可解释性。博士生将驻扎在巴黎,由 Caterina Urban 和 Antoine Miné 共同指导。预计还将前往图卢兹进行研究访问并与该项目的 IRIT 成员合作。