我的主要研究兴趣是具有可证明的保证的机器学习鲁棒性。深度神经网络和其他机器学习模型在输入的较小变化下是出现故障的。这种弱点在现实情况下部署此类模型构成了严重的风险,尤其是对于安全至关重要的应用,例如自动驾驶和医疗诊断。不稳定的行为会导致对机器学习模型的信任,从而阻碍了他们在社会中的收养。虽然已经开发出几种经验方法来捍卫模型免受投入腐败的影响,但它们通常会反对看不见的扰动,因此很难确定模型的真正鲁棒性。我的研究旨在设计具有鲁棒性(也称为鲁棒性证书)的可证明保证的方法。与经验防御不同,经过认证的方法可以对一组扰动和看不见的扰动产生数学描述,为此保证模型可靠。
主要关键词