评估先进人工智能系统的风险提出了新的挑战,这些系统包括被称为前沿人工智能系统、双重用途基础模型、通用人工智能模型和先进生成人工智能系统的系统。先进人工智能系统在广泛的环境中都具有能力,因此它们可能会被意外或故意地使用和滥用,而且很难预测、衡量和缓解。应对这些挑战是国际人工智能安全研究所网络使命的核心。根据《布莱切利宣言》和《首尔意向声明》中的承诺,以及经合组织、七国集团广岛进程、前沿人工智能安全承诺和其他相关举措取得的进展,国际人工智能安全研究所网络在本文件中强调了先进人工智能系统风险评估的六个关键方面。该网络致力于在这六个关键方面的基础上建立先进人工智能系统风险评估的共享科学基础。这可能涉及进行联合风险评估和合作科学研究,认识到先进人工智能风险评估的科学和实践在不断发展。各个网络成员保留灵活性,可根据国际和国内框架进行、应用和调整任何风险评估或风险收益权衡。先进人工智能系统风险评估的关键方面: