Loading...
机构名称:
¥ 1.0

简介。自主驾驶(AD)设想在没有人类干预的情况下导航我们的道路,要求高度的可靠性和安全性。AI在满足这些要求中起着至关重要的作用。将AI集成到AD系统中会引入新的挑战,包括基于AI的AD系统对对抗攻击的脆弱性。这些攻击利用了AI模型中的弱点,损害了它们做出准确决策的能力,这给AD生态系统的整体安全性和功能带来了重大风险。为了解决这个问题,许多先前的工作[2]是在对抗攻击和防御方面进行的。但是,许多研究都集中在数字设置和开放数据集围绕,这些数据集无法完全捕获现实世界情景的复杂性。另一方面,如果没有大量资金,实际实验通常是不可行的,并且会带来安全和道德问题。在本文中,我们提出了一种基于逼真的仿真方法,该方法解决了这一紧迫问题。我们开发了Carla-A3,这是一种工具包,重点是在使用Carla(https://carla.org/)创建的光真逼真的模拟中评估OD在存在对抗性攻击的情况下的鲁棒性。在进行这项研究之前,缺乏开源工具来评估OD对关键交通迹象的对抗性攻击的鲁棒性,尤其是在多样化天气条件下,在光真逼真的模拟中简化了对对抗性交通的创造,渲染和评估。我们的工作弥合了这一差距,并有助于开发测试程序,鲁棒性指标以及对增强AD系统中OD的安全性和可靠性至关重要的见解。

演示:基于卡拉的自动驾驶汽车的对抗攻击评估

演示:基于卡拉的自动驾驶汽车的对抗攻击评估PDF文件第1页

相关文件推荐