Loading...
机构名称:
¥ 1.0

人们经常通过对比专业人工智能与通用人工智能 (AGI)、分析有限能力系统的短期危害与“超级智能”带来的长期风险,以及概念化人工智能系统对其环境和自身进行限制控制的复杂方式(影响、对人类的伤害、自我伤害、遏制等),来探索人工智能安全的前景。在本立场文件中,我们将人工智能安全的这三个方面重新视为定量因素——通用性、能力和控制——并表明通过定义这些维度的指标,可以更精确地描述和分析人工智能风险。作为示例,我们说明了如何在强化学习设置中的玩具场景中为一些简单代理定义这些指标及其值。

探索 AI 安全性的程度:通用性、能力和控制

探索 AI 安全性的程度:通用性、能力和控制PDF文件第1页

探索 AI 安全性的程度:通用性、能力和控制PDF文件第2页

探索 AI 安全性的程度:通用性、能力和控制PDF文件第3页

探索 AI 安全性的程度:通用性、能力和控制PDF文件第4页

探索 AI 安全性的程度:通用性、能力和控制PDF文件第5页