详细内容或原文请订阅后点击阅览
以严格灵活的方式创建和验证稳定的 AI 控制系统
神经网络控制器为复杂的机器人提供稳定性保障,为更安全地部署自动驾驶汽车和工业机器铺平了道路。
来源:MIT新闻 _机器人神经网络对工程师设计机器人控制器的方式产生了巨大影响,催生出更具适应性和效率的机器。然而,这些类似大脑的机器学习系统是一把双刃剑:它们的复杂性使它们变得强大,但也使得很难保证由神经网络驱动的机器人能够安全地完成任务。验证安全性和稳定性的传统方法是通过称为 Lyapunov 函数的技术。如果你能找到一个 Lyapunov 函数,其值持续下降,那么你就可以知道与更高值相关的不安全或不稳定情况永远不会发生。然而,对于由神经网络控制的机器人,先前验证 Lyapunov 条件的方法无法很好地扩展到复杂的机器。
来自麻省理工学院计算机科学与人工智能实验室 (CSAIL) 和其他地方的研究人员现在已经开发出新技术,可以在更复杂的系统中严格认证 Lyapunov 计算。他们的算法有效地搜索和验证了 Lyapunov 函数,为系统提供了稳定性保证。这种方法可能使机器人和自动驾驶汽车(包括飞机和航天器)的部署更加安全。
为了超越以前的算法,研究人员找到了一种训练和验证过程的捷径。他们生成了更便宜的反例——例如,来自传感器的对抗数据可能会让控制器失去控制——然后优化机器人系统以解决这些问题。了解这些极端情况有助于机器学习如何处理具有挑战性的情况,从而使它们能够在比以前更广泛的条件下安全运行。然后,他们开发了一种新颖的验证公式,可以使用可扩展的神经网络验证器 α,β-CROWN 来提供超越反例的严格最坏情况保证。