获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
随着人工智能系统的发展,人工智能评估正成为确保安全法规的重要支柱。我们认为,这种法规应该要求开发人员明确识别和证明有关评估的关键基本假设,作为其安全案例的一部分。我们确定了人工智能评估中的核心假设(用于评估现有模型和预测未来模型),例如全面的威胁建模、代理任务有效性和充分的能力引出。其中许多假设目前无法得到很好的证明。如果监管要以评估为基础,那么如果评估显示出不可接受的危险或这些假设没有得到充分证明,就应该要求停止人工智能开发。我们提出的方法旨在提高人工智能开发的透明度,为更有效地治理先进的人工智能系统提供一条切实可行的途径。