Loading...
机构名称:
¥ 6.0

我们概述了构成重大风险的基于计算机系统的经典保证原则。然后,我们考虑将这些原理应用于采用人工智能(AI)和机器学习(ML)的系统。这种“可靠性”观点中的关键要素是对关键综合行为的几乎完全理解的要求,这对于AI和ML来说是不可行的。因此,通过使用“深入的防御”和“防御性”层次结构,可以确保有些传统工程的组件,以“守护”它们,旨在最大程度地降低对AI和ML元素的信任。这可能与试图将保证本身应用于AI和ML元素的“可信赖性”观点形成鲜明对比。在网络物理和许多其他系统中,很难提供不依赖AI和ML的警卫来感知其环境(例如,其他与自动驾驶汽车共享道路的车辆),因此需要这两种视角,并且需要连续或光谱。我们将重点放在结构上的连续性末端,并邀请其他人考虑沿频谱的其他点。对于需要使用AI和ML感知的守卫,我们研究了将这些要素中的信任最小化的方法;它们包括分歧,深入的防御,解释和微型冠军。给定世界模型,我们还研究了强制可接受行为的方法。这些包括经典的网络物理计算和信封以及基于总体原则,宪法,伦理或声誉的规范规则。我们将观点应用于自主系统,用于特定功能的AI系统,通用AI(例如大语言模型)以及人工通用情报(AGI),我们提出了当前的最佳实践和研究议程。

从可靠性的角度来保证AI系统

从可靠性的角度来保证AI系统PDF文件第1页

从可靠性的角度来保证AI系统PDF文件第2页

从可靠性的角度来保证AI系统PDF文件第3页

从可靠性的角度来保证AI系统PDF文件第4页

从可靠性的角度来保证AI系统PDF文件第5页

相关文件推荐

2018 年
¥6.0